Marile companii din industria AI angajează specialişti în arme biologice şi chimice. Specialiştii sunt îngrijoraţi: „Nu există niciun tratat internaţional sau altă reglementare”

Companiile din domeniul AI intensifică măsurile pentru a preveni utilizarea periculoasă a tehnologiilor pe care le dezvoltă, în contextul temerilor tot mai mari privind posibile aplicații în domeniul armelor chimice sau biologice. Firma americană Anthropic a anunțat că intenționează să angajeze un expert în arme chimice și explozibili de mare putere, pentru a testa soliditatea sistemelor sale de protecție și a evita eventuale scenarii de utilizare abuzivă, potrivit BBC.
George Russo
18 mart. 2026, 08:53
Marile companii din industria AI angajează specialişti în arme biologice şi chimice. Specialiştii sunt îngrijoraţi:

Inițiativa vine într-un moment în care și alte companii din industrie adoptă strategii similare. OpenAI, dezvoltatorul ChatGPT, caută la rândul său un cercetător în domeniul armelor biologice și chimice, oferind un salariu semnificativ mai mare. Demersurile reflectă preocupările tot mai accentuate legate de riscurile asociate dezvoltării accelerate a inteligenței artificiale, în lipsa unui cadru clar de reglementare la nivel internațional.

„Apărarea împotriva armelor chimice și/sau explozibililor”, se arată în anunțul de recrutare al Anthropic, care precizează că viitorii angajați trebuie să aibă experiență de cel puțin cinci ani în acest domeniu.

„Dispozitivele de dispersie radiologică”, cunoscute și sub numele de bombe murdare, reprezintă un alt domeniu de expertiză cerut candidaților, potrivit aceleiași surse.

Compania încearcă astfel să limiteze riscul ca instrumentele sale AI să ofere informații sensibile despre fabricarea unor arme periculoase. În același timp, experți din domeniu avertizează că simpla integrare a unor astfel de cunoștințe în ecosistemele de inteligență artificială poate genera riscuri suplimentare.

Citeşte şi: Traian Băsescu: „Stăm între două războaie, dar nu suntem în stare să facem nimic. Ne băgăm în Golful Persic, dar bâzâie dronele lângă noi. Dacă primesc pe RO-Alert cu risc de lovitură de aviație? Ce fac? Ce fac cu soția? Ce fac cu copiii? Ce fac cu nepoții?”

„Este vreodată sigur să se utilizeze sisteme de inteligență artificială pentru a gestiona informații sensibile despre substanțe chimice și explozibili, inclusiv bombe murdare și alte arme radiologice?”, a declarat Dr. Stephanie Hare, cercetător în tehnologie și coprezentatoare a programului TV AI Decoded de la BBC.

„Nu există niciun tratat internațional sau altă reglementare pentru acest tip de muncă și utilizarea inteligenței artificiale cu aceste tipuri de arme. Toate acestea se întâmplă în afara oricărui contact.”, a adăugat aceasta.

În paralel, industria AI continuă să avertizeze asupra potențialelor riscuri existențiale generate de tehnologie, fără a încetini însă ritmul dezvoltării. Situația este complicată și de contextul geopolitic, în condițiile în care guvernul SUA colaborează cu firme de profil în cadrul unor operațiuni militare externe.

Anthropic a intrat deja în conflict cu Departamentul Apărării al SUA, după ce a contestat includerea sa pe lista companiilor considerate un risc pentru lanțul de aprovizionare, susținând că sistemele sale nu trebuie utilizate în arme complet autonome sau în programe de supraveghere în masă.

Citeşte şi: TraceMap: Comisia Europeană lansează un instrument AI pentru identificarea rapidă a alimentelor contaminate