Secretarul american al apărării, Pete Hegseth, a dat un ultimatum, marţi, start-up-ului de inteligenţă artificială (AI) Anthropic pentru a ridica toate restricţiile privind utilizarea AI-ului său de către Pentagon, informează AFP.
În caz de refuz, şeful Pentagonului intenţionează să recurgă la o lege adoptată în 1950 care permite obligarea unei întreprinderi private să producă bunuri pentru apărarea naţională şi să înscrie Anthropic pe lista companiilor care prezintă „un risc pentru aprovizionare”. Companiile care figurează pe această listă sunt supuse unor restricţii drastice în ceea ce priveşte contractele cu guvernul american, care renunţă de facto pur şi simplu să le utilizeze, ceea ce nu ar fi cazul în actuala configuraţie, adaugă sursa.
Lista se aplică, în general, companiilor ale căror produse sunt suspectate de autorităţile americane că ar putea fi utilizate în activităţi ce ar putea ameninţa securitatea naţională a Statelor Unite. În prezent, pe listă figurează doar companii străine, printre care producătorul chinez de echipamente Huawei sau specialistul rus în software antivirus Kaspersky, potrivit AFP.
Ultimatumul vine după o întâlnire care a avut loc marţi între Pete Hegseth şi şeful Anthropic, Dario Amodei, conform sursei.
Pentagonul a cerut furnizorilor săi de AI să ridice restricţiile de utilizare a modelelor lor implicite, pentru a extinde cazurile de utilizare posibile, atât timp cât acestea rămân în legalitate. Toţi şi-au dat acordul, inclusiv Anthropic, dar tânăra companie californiană a dorit să împiedice utilizarea modelului său de AI, Claude, în două cazuri: supravegherea în masă a populaţiei şi automatizarea unui atac mortal, potrivit sursei citate.
„Nu are nimic de-a face cu supravegherea în masă şi utilizarea armelor autonome”, a asigurat responsabilul american.
„Continuăm discuţiile noastre de bună-credinţă cu privire la utilizările (AI)”, a declarat pentru AFP un purtător de cuvânt al Anthropic. Obiectivul, potrivit acestuia, este de a „asigura că Anthropic poate continua să susţină misiunea de securitate naţională a guvernului, în conformitate cu ceea ce modelele noastre pot realiza în mod responsabil şi fiabil”.
Fondată în 2021 de foşti angajaţi ai OpenAI, Anthropic a susţinut întotdeauna o abordare etică a inteligenţei artificiale. La începutul anului 2026, start-up-ul a publicat un document numit „Constituţie”, care detaliază o serie de instrucţiuni date lui Claude pentru a-i supraveghea producţia. Acestea vizează în special „prevenirea acţiunilor cu un grad de pericol inadecvat”, adaugă sursa.
















































1. fără titlu
(mesaj trimis de anonim în data de 25.02.2026, 09:42)
ANTHROPE ARE DREPTATE.
2. fără titlu
(mesaj trimis de anonim în data de 25.02.2026, 09:42)
ANTHROPE ARE DREPTATE.