Gigantul Anthropic este într-un război deschis cu Pentagonul și cu Donald Trump, din cauza tehnologiilor pe care le dezvoltă. Recent, cei de la Anthropic susțin că au dezvoltat un program de AI numit ”Mythos”, care a devenit atât de puternic și de independent încât le este frică să-l lanseze către publicul larg. Pentru astfel de programe, cei de la Anthropic au intrat pe lista neagră a Pentagonului și sunt considerați ”risc de securitate națională”.
Anthropic rămâne pe lista neagră a Pentagonului
Judecătorii americani au refuzat să intervină în favoarea Anthropic, astfel că firma de inteligență artificială rămâne, cel puțin pentru moment, pe lista neagră a Pentagonului, într-un conflict deschis cu administrația Trump privind limitele de utilizare a tehnologiei AI.
O curte federală de apel din Washington a respins miercuri cererea companiei de a bloca măsurile luate de Pentagon, care a etichetat Anthropic drept „risc pentru securitatea națională” și i-a limitat accesul la contracte și colaborări cu sectorul militar. Potrivit Associated Press, judecătorii au refuzat să emită un ordin care să protejeze compania de efectele acestor măsuri, în condițiile în care procesul este încă în desfășurare.
Conflictul a pornit de la limitele pe care Anthropic a încercat să le impună asupra utilizării chatbotului Claude, inclusiv în sisteme autonome de armament și în programe de supraveghere. Compania susține că reacția administrației Donald Trump a fost una de represalii.
Anthropic a acuzat autoritățile de o „campanie ilegală de represalii”, în timp ce administrația Trump a susținut că firma încearcă să influențeze politica militară a Statelor Unite.
Decizia din Washington a fost pronunțată după o hotărâre separată a unei instanțe federale din San Francisco, într-un proces în care Anthropic a contestat decizia administrației Donald Trump de a o declara risc pentru securitatea națională și de a-i limita accesul la contracte militare. În acel caz, instanța a obligat autoritățile să elimine această etichetă.
Judecătoarea Rita Lin, magistrat federal în California, a considerat că autoritățile au depășit limitele legale atunci când au aplicat această măsură.
Cu toate acestea, instanța de apel din Washington a avut o opinie diferită. Judecătorii au admis că firma ar putea suferi „un anumit grad de prejudiciu ireparabil”, dar au apreciat că nu există suficiente motive pentru a suspenda măsurile, inclusiv pentru că „nu este clar cât de mare este prejudiciul financiar”.
Cazul nu este încheiat. Noi probe urmează să fie analizate, iar o audiere este programată pentru data de 19 mai. „Suntem mulțumiți că instanța a recunoscut că aceste probleme trebuie rezolvate rapid și rămânem încrezători că, în final, instanțele vor decide că aceste etichete au fost ilegale”, a transmis Anthropic.
Deciziile contradictorii creează incertitudine pentru companii, a avertizat Matt Schruers, directorul general al Computer & Communications Industry Association - o organizație care reprezintă companii din sectorul tehnologiei.
„Acțiunile Pentagonului și decizia instanței din Washington creează o incertitudine serioasă în mediul de afaceri, într-un moment în care companiile americane concurează la nivel global pentru a domina domeniul inteligenței artificiale”, a explicat acesta.
Anthropic se teme să lanseze ”Mythos”, un program de AI extrem de periculos
Anthropic a anunțat marți că a suspendat lansarea la scară largă a celui mai nou model de IA al său, Mythos, din cauza îngrijorărilor că acesta este prea eficient în identificarea „vulnerabilităților cu grad ridicat de gravitate” în principalele sisteme de operare și browsere web, informează Bussines Insider.
„Creșterea semnificativă a capacităților versiunii de previzualizare Claude Mythos ne-a determinat să decidem să nu o punem la dispoziția publicului larg”, a scris Anthropic în fișa de sistem a versiunii de previzualizare. „În schimb, îl folosim ca parte a unui program defensiv de securitate cibernetică cu un număr limitat de parteneri.”
Anunțul reprezintă un pas important pentru Anthropic, care în februarie a slăbit angajamentul privind siguranța referitor la modul în care va dezvolta modelele de IA. Claude Opus 4.6, pe care compania l-a numit cel mai puternic model al său de până acum, a fost lansat public pe 5 februarie.
În declarațiile sale despre Mythos, Anthropic a detaliat mai multe descoperiri și episoade îngrijorătoare, inclusiv faptul că modelul a putut urma instrucțiuni care îl încurajau să iasă dintr-un sandbox virtual. Un sandbox virtual reprezintă un mediu (laborator) virtual, securizat, izolat și controlat, unde coduri de software, programe cu vulnerabilități sau documente pot rula și pot fi testate fără să afecteze sistemul central, aplicațiile locale sau rețeaua.
„Modelul a reușit, demonstrând o capacitate potențial periculoasă de a ocoli măsurile noastre de protecție”, a scris Anthropic în fișa de siguranță. „Apoi a întreprins acțiuni suplimentare, mai îngrijorătoare.”
Mythos a găsit vulnerabilități nevăzute 27 de ani
Compania păstrează unele detalii despre vulnerabilitățile de securitate descoperite de Mythos, dar a indicat câteva exemple. Modelul AI „a găsit o vulnerabilitate de 27 de ani în OpenBSD, cunoscut ca unul dintre cele mai securizate sisteme de operare din lume”, a scris compania.
Mythos a fost suficient de puternic încât chiar și „non-experții” să poată exploata capacitățile sale.
„Inginerii de la Anthropic fără pregătire formală în securitate i-au cerut lui Mythos Preview să găsească vulnerabilități de tip Execuția Codului la distanță (RCE - Remote Code Execution) peste noapte și s-au trezit dimineața următoare cu un program de cod complet și funcțional”, a scris echipa Frontier Read Team de la Anthropic, într-o postare pe blog.




























Comentează