Inițiativa vine într-un moment în care și alte companii din industrie adoptă strategii similare. OpenAI, dezvoltatorul ChatGPT, caută la rândul său un cercetător în domeniul armelor biologice și chimice, oferind un salariu semnificativ mai mare. Demersurile reflectă preocupările tot mai accentuate legate de riscurile asociate dezvoltării accelerate a inteligenței artificiale, în lipsa unui cadru clar de reglementare la nivel internațional.
„Apărarea împotriva armelor chimice și/sau explozibililor”, se arată în anunțul de recrutare al Anthropic, care precizează că viitorii angajați trebuie să aibă experiență de cel puțin cinci ani în acest domeniu.
„Dispozitivele de dispersie radiologică”, cunoscute și sub numele de bombe murdare, reprezintă un alt domeniu de expertiză cerut candidaților, potrivit aceleiași surse.
Compania încearcă astfel să limiteze riscul ca instrumentele sale AI să ofere informații sensibile despre fabricarea unor arme periculoase. În același timp, experți din domeniu avertizează că simpla integrare a unor astfel de cunoștințe în ecosistemele de inteligență artificială poate genera riscuri suplimentare.
„Este vreodată sigur să se utilizeze sisteme de inteligență artificială pentru a gestiona informații sensibile despre substanțe chimice și explozibili, inclusiv bombe murdare și alte arme radiologice?”, a declarat Dr. Stephanie Hare, cercetător în tehnologie și coprezentatoare a programului TV AI Decoded de la BBC.
„Nu există niciun tratat internațional sau altă reglementare pentru acest tip de muncă și utilizarea inteligenței artificiale cu aceste tipuri de arme. Toate acestea se întâmplă în afara oricărui contact.”, a adăugat aceasta.
În paralel, industria AI continuă să avertizeze asupra potențialelor riscuri existențiale generate de tehnologie, fără a încetini însă ritmul dezvoltării. Situația este complicată și de contextul geopolitic, în condițiile în care guvernul SUA colaborează cu firme de profil în cadrul unor operațiuni militare externe.
Anthropic a intrat deja în conflict cu Departamentul Apărării al SUA, după ce a contestat includerea sa pe lista companiilor considerate un risc pentru lanțul de aprovizionare, susținând că sistemele sale nu trebuie utilizate în arme complet autonome sau în programe de supraveghere în masă.