Relația dintre Pentagon și compania americană de inteligență artificială(AI) Anthropic a intrat într-o fază critică, pe fondul refuzului firmei de a acorda armatei acces nelimitat la modelul său de limbaj, Claude, pentru aplicații militare sensibile. Într-o întâlnire recentă între secretarul Apărării, Pete Hegseth, și CEO-ul Anthropic, Dario Amodei, oficialii Pentagonului au solicitat ca modelul Claude să fie utilizat pentru ”toate operațiunile legale ale armatei”. Compania a fost avertizată că, în cazul refuzului, contractele existente ar putea fi anulate, iar guvernul ar putea recurge la Defense Production Act, legislația care conferă autorităților federale puterea de a controla producția privată în scopul securității naționale.
Anthropic a subliniat că modelul Claude a fost dezvoltat cu accent pe siguranță, transparență și responsabilitate. Tehnologia este deja utilizată în cadrul Pentagonului și al altor agenții de securitate națională pentru aplicații critice, inclusiv analiză de informații, simulări și modelări operaționale, planificare militară și operațiuni cibernetice. Compania a fost primul startup AI care a furnizat modele personalizate pentru instituțiile guvernamentale și laboratoarele naționale, menținând angajamente de siguranță chiar și atunci când acestea au generat pierderi financiare semnificative, cum ar fi blocarea utilizării Claude de către entități asociate cu guvernul chinez sau oprirea atacurilor cibernetice sponsorizate de acest guvern.
Potrivit declarației lui Dario Amodei, Anthropic recunoaște că deciziile militare aparțin exclusiv guvernului și nu companiei, și că a respectat utilizarea tehnologiei sale fără a încerca să influențeze operațiunile specifice. Totuși, compania consideră că există două cazuri în care utilizarea AI poate afecta negativ valorile democratice și nu poate fi realizată în condiții sigure: supravegherea în masă a cetățenilor și armele complet autonome.
În primul caz, tehnologia nu poate fi folosită pentru colectarea și analizarea datelor cetățenilor la scară largă, fără respectarea principiilor fundamentale ale democrației.
În al doilea caz, sistemele autonome nu sunt suficient de fiabile pentru a lua decizii critice în locul personalului militar instruit, iar utilizarea lor fără supraveghere ridică riscuri semnificative pentru forțele armate și civili.
Anthropic și-a exprimat disponibilitatea de a colabora cu Pentagonul pentru cercetare și dezvoltare menită să îmbunătățească siguranța acestor sisteme, însă oferta nu a fost acceptată. În prezent, Pentagonul solicită ca toate aceste limitări să fie eliminate, amenințând că altfel compania ar putea fi etichetată drept „risc în lanțul de aprovizionare” și ar putea fi forțată să elimine restricțiile existente. Anthropic a respins aceste cereri, subliniind că nu poate accepta în mod responsabil solicitările care ar compromite siguranța și principiile etice ale utilizării AI.
Fondată în 2021 de foști cercetători în domeniul AI, compania Anthropic a crescut rapid pe piața globală, consolidându-și poziția ca lider în industria inteligenței artificiale și atrăgând investiții importante. Modelul Claude este utilizat extensiv în cadrul aplicațiilor critice pentru securitatea națională, iar compania a demonstrat un angajament ferm față de responsabilitatea și fiabilitatea tehnologiei sale, chiar și în contextul presiunii guvernamentale.
Conflictul evidențiază tensiunile tot mai mari dintre cerințele de securitate națională și responsabilitatea companiilor private în dezvoltarea tehnologiilor avansate. Decizia privind modul în care va fi utilizat modelul Claude în cadrul Pentagonului va avea implicații semnificative pentru reglementarea AI și pentru relația dintre sectorul public și companiile tehnologice.










