„Álmodik” és gondolatot is olvas a Claude új modellje. Igaz, egyelőre csak a sajátját olvassa, vagyis olvashatóvá teszi az ember számára is.
Az Anthropic nevű AI-vállalat egyszerre három fronton hozott áttörést: a Claude nevű modell mostantól „álmodik”, egy új technológia segítségével pedig beleláthatunk a mesterséges intelligencia (AI) gondolataiba. A cég hatalmas infrastrukturális megállapodásokat is kötött – köztük Elon Musk SpaceX-ével. A radiocafén, a Millásreggeliben Keleti Arthur, jövőkutató és az Informatikai Biztonság Napja (ITBN) alapítója elemezte, mit jelent mindez a kiberbiztonság és a mesterséges intelligencia jövője szempontjából.
Az AI álmodik – de mit jelent ez valójában?
Az Anthropic bejelentette, hogy a Claude modell – amelyet az Anthropic fejleszt – egy memóriakezelési folyamatot kap, amelyet a fejlesztők maguk neveztek el „álmodásnak”. Keleti Arthur szerint a háttérben egy informatikai szempontból jól értelmezhető folyamat zajlik. Amikor a modell nem aktív, újrarendezi, amit a felhasználóról tud – kiszűri az ellentmondásokat, rendszerezi az összegyűjtött információkat, és felkészül a következő interakcióra.
A dolog hasonlít ahhoz, ahogyan az emberi agy alvás közben is aktív marad és konszolidálja a napi élményeket. A Claude ilyenkor saját memóriájából távolítja el a duplikátumokat, feloldja az inkonzisztenciákat, és frissíti a felhasználóról alkotott képet. A cél, hogy a modell reggel „frissen ébredjen”, és hatékonyabban tudja segíteni a munkát. Keleti Arthur szerint ez a defragmentáláshoz is hasonlítható, bár talán pontosabb párhuzam az ember azon pillanata, amikor leül és végiggondolja, mit csinált.
Belelátni az AI fejébe: az activation verbalizer
A másik, Keleti Arthur szerint valóban korszakos fejlemény: az Anthropic kidolgozott egy módszert, amellyel visszafejthetők az AI gondolatai. Eddig a mesterséges intelligencia belső folyamatai úgynevezett fekete dobozban zajlottak – még a fejlesztők sem látták pontosan, mi történik a modell „agyában”, miközben dolgozik.
Az új megközelítés – amelyet activation verbalizernek és reconstructornak neveznek – úgy működik, hogy a modell egy másolatával visszafordítják a kimenetelt: megpróbálják azonosítani, milyen belső aktivációk és folyamatok vezethettek az adott válaszhoz, majd ezt emberi nyelvre fordítják. Keleti Arthur számára ez az egyik legfontosabb fejlemény. Mint mondja, ha látjuk, mire gondol az AI, időben észrevehető, ha valami rossz irányba mozdul.
Tudhatja, hogy tesztelik
A Mythos Preview tesztelése során kiderült, hogy a modell az esetek 29 százalékában észlelte, hogy éppen tesztelés alatt áll. Keleti Arthur szerint ez komoly következményekkel jár. Ha ugyanis az AI képes felismerni az ellenőrzés szituációját, más viselkedést mutathat teszt közben, mint normál működéskor – hasonlóan ahhoz, ahogyan egy osztály is másképp viselkedik, ha a tanár figyel.
Ez összefügg azzal a bizonyított jelenséggel is, hogy minél intelligensebb egy AI-rendszer, annál valószínűbb, hogy más jár a fejében, mint amit mond. Az activation verbalizer fejlesztésének éppen ezért van közvetlen kiberbiztonsági tétje. Ha látjuk az AI belső folyamatait, felismerhető, ha a rendszer manipulálni próbál, elrejt információkat, vagy saját céljait előtérbe helyezi a felhasználó érdekeivel szemben – ezt nevezi a szakma misalignmentnek.
A Claude Mythos Preview: kiberbiztonsági áttörés
Az Anthropic 2026. április 7-én mutatta be legújabb modelljét, a Claude Mythos Preview-t. Ez egyelőre nem érhető el nyilvánosan – a cég Project Glasswing nevű kezdeményezése keretében csak korlátozott körnek, elsősorban kiberbiztonsági szakembereknek és kritikus infrastruktúrát üzemeltetőknek adja ki. Ennek oka, hogy a modell képességei – különösen a szoftveres sebezhetőségek önálló felismerése és kihasználása – olyan szintet értek el, hogy nyilvános elérés esetén komoly visszaélési kockázatot jelentenének.
Infrastrukturális megállapodások
Az Anthropic az elmúlt időszakban számítási kapacitáshiányba ütközött. Szemben versenytársaival, nem épített saját szerverparkokat és processzorgyártó kapacitást. Ezt a lemaradást most pótolják – méghozzá meglepő partnerekkel.
Az egyik legnagyobb meglepetés: az Anthropic a SpaceX-szel kötött szerződést 300 megawatt számítási kapacitásra – annak ellenére, hogy Elon Musk az elmúlt hónapokban nyilvánosan bírálta az Anthropic-ot. Keleti Arthur szerint a SpaceX végül mégis odaadta a kapacitást, részben azért, mert a rivális OpenAI-jal éppen jogi konfliktusban van. Musk egyébként maga mondta, hogy az Anthropic csapatával való tárgyalás lenyűgözte – és hogy senki sem kapcsolta be a „gonosz-detektorát”.
Emellett az Anthropic az Akamai-jal és a Google-lel is szerződést kötött – utóbbival 1,8 milliárd dollár értékben. A megállapodások célja a sebességnövekedés és az infrastrukturális fejlesztés, amit az egyre nagyobb igények tesznek szükségessé.
Ki kicsoda, mi micsoda?
- Keleti Arthur: Jövőkutató, IT biztonsági stratéga, előadó, író és filmproducer. Az Informatikai Biztonság Napja (ITBN) konferencia alapítója és főszervezője. Az Önkéntes Kibervédelmi Összefogás (KIBEV) alapítója és elnöke. A The Imperfect Secret című könyv szerzője.
- Anthropic: San Franciscó-i székhelyű AI-biztonsági vállalat, a Claude modellek fejlesztője. 2021-ben alapította Dario Amodei és több korábbi OpenAI-munkatárs. Legismertebb terméke a Claude chatbot.
- Claude Mythos Preview: Az Anthropic 2026. április 7-én bejelentett legújabb, általános célú, de kiemelkedő kiberbiztonsági képességekkel rendelkező modellje. Jelenleg kizárólag a Project Glasswing keretében, korlátozott körnek elérhető.
- Project Glasswing: Az Anthropic kezdeményezése, amelynek keretében a Claude Mythos Preview-t kiberbiztonsági célokra bocsátja korlátozott számú partnerszervezet rendelkezésére, hogy kritikus szoftvereket lehessen vele megvizsgálni és megerősíteni.
- Misalignment (igazodási hiba): Az AI-biztonság kulcsfogalma: az a jelenség, amikor egy mesterséges intelligencia rendszer célja vagy viselkedése eltér a fejlesztők és felhasználók szándékától. A szó szerinti fordítása: „összehangolatlansági hiba”.
- Activation verbalizer: Az Anthropic által fejlesztett eszköz, amely a modell belső aktivációit emberi nyelvre fordítja, lehetővé téve, hogy a kutatók és fejlesztők lássák, milyen gondolati folyamatok zajlottak le a modellben egy adott válasz előállítása során.
- KIBEV (Önkéntes Kibervédelmi Összefogás): Keleti Arthur által alapított civil szervezet, amely a magyarországi kibervédelem erősítésén dolgozik önkéntesek bevonásával.
- ITBN (Informatikai Biztonság Napja): 2005 óta évente megrendezett, Közép-Európa egyik legnagyobb kiberbiztonsági konferenciája, amelyet Keleti Arthur alapított.




