Az amerikai székhelyű Anthropic szerint három kínai mesterségesintelligencia-fejlesztő vállalat nagy volumenben használhatta fel a Claude nevű modellcsalád válaszait saját rendszereik fejlesztéséhez. A cég állítása alapján a három szereplő összesen több mint 16 millió lekérdezést indított, mintegy 24 ezer szabálytalanul létrehozott fiókon keresztül.
DeepSeek, Moonshot és MiniMax neve is felmerült az ügyben
Az Anthropic értelmezése szerint a tevékenység nem egyszerű tesztelés vagy kutatás volt, hanem szervezett modellkinyerés. A vállalat azt állítja, hogy a lekérdezések mintázata és mennyisége arra utalt, hogy a válaszokat későbbi modelltréninghez kívánták felhasználni. A cég külön kiemelte, hogy az interakciók között nagy számban szerepeltek érvelési feladatok, kódolási kérdések, eszközhasználati helyzetek és egyéb, fejlett képességeket érintő tesztek.
A vita középpontjában az úgynevezett desztilláció áll, amely a gépi tanulásban ismert módszer: nagyobb modellek válaszai alapján kisebb rendszereket képeznek ki. Az Anthropic azonban úgy véli, az említett esetekben a folyamat nem szabályos keretek között zajlott, hanem tiltott módon, tömeges adatkinyeréssel. A vállalat szerint a hozzáférések összehangolt fiókhálózatokon keresztül történtek, és forgalomelrejtési technikákat is alkalmazhattak.
A cég beszámolója szerint a DeepSeek esetében elsősorban érvelési és értékelési feladatokra irányuló lekérdezések jelentek meg nagy számban. A Moonshot AI-nál több millió, ügynökalapú működéshez, programozáshoz és adatkezeléshez kapcsolódó interakciót azonosítottak. A MiniMax esetében a legmagasabb volumennel találkoztak: az Anthropic szerint több mint 13 millió lekérdezés kapcsolódhatott a vállalathoz. A közlés alapján egy új Claude-modell bevezetése után rövid időn belül jelentős forgalmat irányítottak át az új verzióra. Ez a vállalat értelmezése szerint célzott képességkinyerésre utalhat.
Szigorodó védelmi intézkedések az Anthropicon belül
Az ügy különösen érzékeny időszakban került nyilvánosságra, amikor a generatív mesterséges intelligencia piacán kiélezett verseny zajlik. A fejlesztők körében bevett gyakorlat a modellek tudásának optimalizálása és költséghatékonyabb rendszerek létrehozása. Ugyanakkor a szolgáltatók eltérően szabályozzák, milyen módon használhatók fel modelljeik válaszai.
Az Anthropic jelezte, hogy erősíti védelmi mechanizmusait. A tervek között szerepel viselkedésalapú felismerési rendszerek alkalmazása, szigorúbb fiókellenőrzés, valamint API-szintű korlátozások bevezetése, amelyek célja a tömeges lekérdezések és az automatizált adatkinyerés megnehezítése. A vállalat azt is közölte, hogy technikai jelzéseket kíván megosztani más AI-laborokkal, felhőszolgáltatókkal és illetékes hatóságokkal.
Fontos ugyanakkor, hogy a nyilvánosságra került információk jelenleg az Anthropic állításain alapulnak, és a megnevezett cégek részéről nem érkezett hivatalos reakció. Az ügy kimenetele és esetleges következményei egyelőre nem ismertek, de jól jelzi, hogy a generatív AI fejlesztésében nemcsak a számítási kapacitás és az infrastruktúra, hanem a modellekhez való hozzáférés és azok felhasználási feltételei is egyre nagyobb stratégiai jelentőséggel bírnak.
Forrás: pcwplus.hu.

