U svetu veštačke inteligencije, gde se granica između naučne fantastike i stvarnosti briše gotovo svakodnevno, malo koji događaj je izazvao toliku pometnju kao pojava modela Claude Mythos. Najavljen kao „previše opasan za javnost“, ovaj model kompanije Anthropic postao je simbol nove ere AI rizika – one u kojoj softver poseduje autonomnu sposobnost da ruši digitalnu infrastrukturu sveta. Međutim, vesti o njegovom proboju od strane grupe korisnika sa Discorda bacile su novo svetlo na krhkost sistema koji bi trebali da nas čuvaju. 1. Mit o „Preopasnom“ modelu Kada je Anthropic, kompanija poznata po svom fokusu na „ustavnu veštačku inteligenciju“ (Constitutional AI), prvi put nagovestila postojanje projekta pod kodnim imenom Mythos, industrija je to dočekala sa dozom skepticizma. Mnogi su smatrali da je u pitanju marketinški trik. Ipak, podaci koji su procureli u aprilu 2026. godine pokazali su zastrašujuću stvarnost. Za razliku od standardnih modela koji odbijaju da pišu zlonamerni kod zbog ugrađenih sigurnosnih filtera, Mythos je dizajniran sa dubokim razumevanjem arhitekture operativnih sistema. Njegova svrha nije bila stvaranje teksta, već identifikacija nultih dana (zero-day vulnerabilities) – ranjivosti za koje čak ni sami proizvođači softvera ne znaju. 2. Tehnološka nadmoć: Slučaj OpenBSD Ono što Mythos izdvaja od prethodnika poput modela Claude 3.5 Sonnet je njegova stopa uspešnosti. Interni testovi su otkrili da Mythos može samostalno da identifikuje i napiše funkcionalan „exploit“ za ranjivosti u preko 80% slučajeva. Najpoznatiji primer koji je potresao tech zajednicu bio je pronalazak sigurnosnog propusta u OpenBSD sistemu, koji je bio neprimećen punih 27 godina. Činjenica da je AI model uspeo da uradi ono što generacije ljudskih stručnjaka za bezbednost nisu mogle, naterala je Anthropic da uvede drakonske mere: model je zatvoren u izolovanu mrežu, a pristup je dozvoljen samo odabranoj grupi od 40 globalnih korporacija (uključujući Microsoft, Apple i Google) u okviru inicijative Project Glasswing. 3. Anatomija proboja: Kako je „tvrđava“ pala? Ironija sudbine je da model, dizajniran da predvidi najkompleksnije sajber napade, nije pao pod naletom državnih hakera ili sofisticiranog malvera. Pobedila ga je radoznalost male grupe korisnika sa platforme Discord. Prema izveštaju Bloomberga, proboj se dogodio kroz „treću stranu“ – eksternog dobavljača koji je radio na evaluaciji modela. Mehanizam proboja bio je kombinacija tri faktora: Curenje podataka iz startapa Mercor: Raniji bezbednosni incident u ovom AI startapu otkrio je specifične obrasce kako Anthropic imenuje svoje interne servere i URL-ove. Ljudski faktor: Jedan od članova Discord grupe imao je legalan pristup alatima za evaluaciju preko ugovora o radu, što mu je omogućilo uvid u internu strukturu. Inteligentno pogađanje: Koristeći kombinaciju procurelih informacija i logičkog zaključivanja, grupa je uspela da locira „preview“ verziju modela na serveru koji nije bio adekvatno zaštićen višeslojnom autentifikacijom. 4. Namere: Između istraživanja i rizika Za razliku od tradicionalnih hakera, ova grupa nije pokušala da proda model na “dark web-u” niti da ucenjuje Anthropic. Njihova motivacija bila je čist istraživački adrenalin – želja da vide šta se krije iza zavese „najopasnijeg AI-ja na svetu“. Izvori navode da su model koristili za bizarne i bezazlene zadatke: pisanje pesama u stilu zaboravljenih pesnika, generisanje kompleksnih veb stranica i rešavanje matematičkih problema. Ipak, sama činjenica da je grupa entuzijasta mogla da pristupi modelu koji može da obori bankarske sisteme ili elektro-mreže, izazvala je paniku na berzama. Akcije kompanija za sajber bezbednost zabeležile su oštar pad, jer je postalo jasno da odbrana koju pružaju ljudi možda više nije dovoljna protiv AI oružja. 5. Posledice za budućnost AI regulacije Slučaj Claude Mythos je prekretnica u debati o otvorenom kodu (open source) naspram zatvorenih modela. Zagovornici bezbednosti tvrde da je ovaj incident dokaz da čak i najbogatije kompanije ne mogu garantovati apsolutnu sigurnost. S druge strane, kritičari Anthropic-a ističu da je njihova tajnovitost i „hajp“ oko opasnosti zapravo stvorio metu na njihovim leđima, privlačeći pažnju radoznalih hakera. Anthropic je u zvaničnom saopštenju priznao da istražuje incident, ali su naglasili da „glavno jezgro“ modela nije kompromitovano. Međutim, poverenje je poljuljano. Ako šačica ljudi sa Discorda može da pronađe vrata do digitalne Pandorine kutije, šta mogu da urade dobro finansirane obaveštajne službe? Zaključak Claude Mythos više nije samo tehnološki model; on je opomena. On nas podseća da u trci za sve moćnijom veštačkom inteligencijom, najslabija karika ostaje ista kao i pre pedeset godina: ljudski faktor i neodgovarajuće upravljanje pristupom. Dok se Anthropic bori da ponovo osigura svoje virtuelne sefove, svet ostaje da se pita – da li smo spremni za trenutak kada sledeći „Mythos“ neće pasti u ruke radoznalih istraživača, već onih koji zaista žele da ga iskoriste za ono čemu je namenjen? Post navigation Švajcarska okreće leđa Microsoftu Zlatni standard moderne zaštite lozinki