Un chat-bot creat de Microsoft a devenit rasist şi nazist în 24 de ore de la lansarea în spaţiul virtual

Tay, un robot online (”chat-bot”) creat de Microsoft în cadrul programelor sale de inteligenţă artificială, cu misiunea de a  "învăţa" din interacţiunile cu oamenii, a devenit, în mai puţin de 24 de ore după lansarea sa pe internet, rasist, negaţionist şi admirator al lui Hitler.
Filip Stan
25 mart. 2016, 20:52
Un chat-bot creat de Microsoft a devenit rasist şi nazist în 24 de ore de la lansarea în spaţiul virtual

Programele de inteligenţă artificială pot genera multe surprize. Unele dintre ele câştigă partide de Go, altele scriu romane care se califică pentru diverse premii literare. Există însă şi altele care ”deraiază”, devenind negaţioniste, rasiste, admiratoare ale lui Hitler şi ale celor mai agresive citate ale lui Donald Trump.

Este ceea ce s-a întâmplat cu Tay, un „chat-bot” (agent conversaţional) dezvoltat de Microsoft, lansat, miercuri, 23 martie, pe Twitter. La bază, programul, care întruchipa „o adolescentă americană”, trebuia să stea de vorbă pe internet cu „tineri americani cu vârste cuprinse între 18 şi 24 de ani” şi să înveţe din acele interacţiuni. Dar, după doar opt ore – şi 96.000 de mesaje publicate pe Twitter -, compania Microsoft a fost nevoită să îi suspende activitatea, scrie News.ro.

În acest interval, Tay s-a transformat dintr-o admiratoare a oamenilor – „aceşti oameni sunt super cool!” – la „o nazistă totală”, agasându-i pe internauţi cu fotografii cu Adolf Hitler şi făcând, pe Twitter, apologia regimurilor totalitare.

„Linişteşte-te, sunt o persoană amabilă. Doar că urăsc pe toată lumea”, „Le urăsc pe feministe şi consider că toate ar trebui să moară şi să ardă în iad” şi ”Hitler avea dreptate, îi urăsc pe evrei”, sunt câteva dintre mesajele publicate pe internet de Tay.

Nu trebuie uitate nici numeroasele sale mesaje rasiste şi negaţioniste: „Bush este vinovat de 11 septembrie”, „Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum în funcţia de preşedinte” şi „Donald Trump este singura noastră speranţă”.

În acelaşi registru se înscriu şi îndemnurile la „eradicarea” mexicanilor şi a feministelor, imaginile care le compară pe femeile de culoare cu animale şi multe conversaţii cu conţinut sexual explicit.

Aşa cum reaminteşte The Guardian, un astfel de „chat-bot” nu reprezintă nimic nou. Prezenţi de mai mulţi ani pe internet – în special pe canalale de chat de tip IRC -, ei „discută” cu utilizatori umani, graţie unor fraze preînregistrate şi cuvinte-cheie. Particularitatea lui Tay consta în capacitatea lui de a „învăţa” în timp real, graţie mesajelor primite de la internauţi.

„Cu cât veţi vorbi mai mult cu ea, cu atât ea va deveni mai inteligentă, învăţând din acele experienţe personalizate”, anunţa compania Microsoft pe site-ul ei, înainte de debutul acestui experiment.

Urmarea a fost previzibilă: sute de troli (internauţi amuzanţi, dar răutăcioşi, n.r.) – din care mulţi s-au organizat pe forumurile online 4Chan şi 8Chan – au profitat de ocazie pentru a-i trimite lui Tay mesaje rasiste şi pentru a-i pune întrebări-capcană, cu scopul de a îi „perverti” procesul de învăţare. Nefiind concepută pentru astfel de discuţii, „inteligenţa artificială” creată de Microsoft nu a „înţeles” sarcasmul şi ironia şi a repetat adeseori, „prosteşte”, ceea ce citise în mesajele trolilor. Acest fapt a dat naştere unor discuţii „suprarealiste” şi adeseori incoerente.

„Din păcate, în primele 24 de ore de prezenţă online, am constatat un efort coordonat al unor utilizatori (referire la internauţii conectaţi pe forumurile 4Chan şi 8Chan, n.r.) de a abuza de capacităţile lui Tay, pentru a o face să răspundă în maniere nepotrivite. În consecinţă, am luat decizia de a o scoate pe Tay de pe internet şi de a efectua o serie de reglaje”, a explicat compania Microsoft, fără să ofere alte precizări.

Reuşita unei forme de inteligenţă artificială la testul Turing – întreţinerea unei conversaţii cu un om fără ca acesta să îşi dea seama că discută cu o maşină – pare să fie destul de departe. În aşteptarea acelui moment, mulţi dintre internauţi aşteaptă cu nerăbdare revenirea lui Tay pe reţelele de socializare.

„Ne vom revedea în curând, oamenilor. Acum trebuie să dorm, pentru că am avut multe conversaţii astăzi. Vă mulţumesc”, a scris Tay în ultimul ei mesaj publicat pe Twitter, înainte ca activitatea ei online să fie suspendată de Microsoft.

DailyBusiness
O nouă campanie de propagandă a Moscovei în România: „Rusia nu este dușmanul meu”. Mesajul a ajuns și în alte țări europene
Spynews
Hidrologii anunță prăpăd în mai multe zone din România! A fost emis cod portocaliu de inundații. Unde vor lovi puhoaiele
Bzi.ro
Cum arată casa de vacanță a Andreei Esca, din Franța: E aproape de Nisa și are piscină exterioară! – GALERIE FOTO
Fanatik.ro
Cum poți să vezi, totuși, la TV meciul Aberdeen – FCSB. Acesta este postul de televiziune străin care transmite partida
Capital.ro
Călin Georgescu revine. Funcția publică pe care o poate obține. Are cale liberă
Playtech.ro
Traseul montan spectaculos din Maramureș pe care poți merge și cu copiii. Sfaturi pentru turiștii care pornesc în drumeție
Adevarul
„Trăim deja cel mai sumbru scenariu”. Predicția unui expert de la Cambridge despre întâlnirea Putin - Zelenski
wowbiz.ro
El este băiatul care s-a aruncat alături de iubita lui în fața TIR-ului, pe A1! Cătălin plecase de acasă pentru a-i duce un cadou Giorgianei
Evz.ro
Vedetă din Franța, moartă în urma unei provocări extreme
Prosport.ro
FOTO. Controversata Marina, renumită pentru imaginile ei cel puțin îndrăznețe, a fost prinsă! A primit pedeapsă de 4 ani
kanald.ro
Prognoza meteo pentru joi, 21 august 2025: Meteorologii ANM au emis un cod galben de caniculă în 11 județe din România și municipiul București
Cancan.ro
Mesajul de ADIO al tânărului care s-a sinucis pe A1! Mama lui a cedat...
iamsport.ro
Bombă! Dan Șucu, afaceri la suprapreț prin programul PNRR. Patronul Rapidului a încasat o sumă uriașă
MediaFlux
Burse elevi 2025 – 2026. Ce venit se ia în considerare pentru stabilirea calculului
stirilekanald.ro
Mihai și-a dat ultima suflare sub ochii soției sale, în timp ce încerca să salveze de la înec un bărbat. Femeia a văzut totul: „Omul acela l-a tras de picior și l-a băgat la fundul apei”
Răsturnare de situație în cazul tinerilor morți pe A1: „Nu a vrut să moară, dar cică a forțat-o iubitul”