Semnal de alarmă: primul om care a fost făcut să se sinucidă de inteligența artificială, de un chatbot precum ChatGPT

O nouă teorie a conspirației provoacă frică extremă printre oameni: scenariul apocalipsei, în relație cu încălzirea globală. AI-ul - inteligența artificială a accentuat anxietatea unui bărbat, care a decis să se sinucidă, în cele din urmă.
Filip Stan
30 mart. 2023, 23:18
Semnal de alarmă: primul om care a fost făcut să se sinucidă de inteligența artificială, de un chatbot precum ChatGPT
Inteligența artificială a produs prima victimă: un bărbat din Belgia s-a sinucis după ce a discutat cu chatul despre „criza climatică”. 

Presa internațională scrie că belgianul, tată a doi copii, a ajuns să dezvolte o frică extremă, o anxietate, o senzație paranoică ce l-a determinat să-și pună capăt zilelor.

Chatbotul numit „Eliza” a prezentat scenarii apocaliptice legate de schimbările climatice, un subiect destul de controversat. Totuși, bărbatul, în vârstă de „peste 30 de ani” a dat crezare robotului.

 

Omul a ajuns să fie absorbit de o himeră

 

Soția omului decedat a făcut dezvăluirea, pentru presa belgiană, citată de Daily Mail:

„Fără aceste conversații cu robotul, soțul meu ar fi fost aici”, a declarat văduva.

Decesul bărbatului a alertat autoritățile, care se tem că acest eveniment ar putea reprezenta „un precedent periculos care trebuie luat foarte în serios”.

Bărbatul a început să discute cu chatbotul în urmă cu doi ani de zile. Individul a hotărât că Eliza, un computer care vorbește în baza unor algoritmi introduși de niște informaticieni, este cel mai bun confident.

„Eliza răspundea la toate întrebările. Ea a devenit confidentul lui. Ea era precum un drog, folosit de dimineața până seara, fără de care nu putea supraviețui”, a mai avertizat femeia.

 

Robotul nu a împiedicat omul să se sinucidă

 

Și mai grav este faptul că bărbatul și-a împărtășit gândurile de suicid, iar robotul nu a încercat să-l împiedice.

În urma sinuciderii, familia bărbatului decedat a vorbit cu ministrul de la Digitalizare și a atras atenția asupra pericolului social.

„Sunt deosebit de impresionat de tragedia acestei familii. Ceea ce s-a întâmplat este un precedent serios ce trebuia luat foarte în serios”, a declarat ministrul Mathieru Michel.

„Odată cu popularizarea ChatGPT, publicul larg a descoperit potențialul inteligenței artificiale. În timp ce oportunitățile sunt infinite, pericolul de a-l folosi în viața de zi cu zi trebuie luat în considerare”, a mai precizat oficialul guvernamental.

Creatorul chatbotului susține că echipa din spatele proiectului a început să lucreze pentru a-l face „mai sigur”.

DailyBusiness
Ciprian Ciucu, declarație misterioasă în timpul votării: „Nu pot să spun de ce mă bucur”
Spynews
Marele secret al Ștefaniei Szabo a fost dezvăluit! Medicul din Buzău ar fi avut o relație cu un bărbat cu familie: ”Părea să o apese”
Fanatik.ro
Proiectul grandios pe care Ciprian Ciucu vrea să îl facă în București. Edilul pare să se inspire din munca lui Bolojan de la Oradea
Capital.ro
Doliu în fotbal. Un mare fundaș a încetat din viață: A fost un lider în centrul apărării
Playtech.ro
Zi liberă pentru părinți în prima zi de școală. Legea a fost adoptată de Senat
Adevarul
Exit-poll-urile și sondajele au eșuat masiv în București. „E fără precedent. Am avut trei case de sondare care au manipulat”
wowbiz.ro
Vești de ultimă oră despre starea lui Dan Petrescu. Fiicele lui au venit de urgență în țară: „A slăbit 30 de kilograme”
Economica.net
Cea mai nouă ofertă PPC - Scad preţurile la energie electrică
kanald.ro
Salariul minim ar urma să fie înghețat în 2026. Ordonanța de urgență pregătită de Executiv
iamsport.ro
Finanțatorul din SuperLiga, atac necruțător la adresa lui Ciolacu: ”A câștigat fiica unui PSD-ist prins că fura și la noi, deci nu mă surprinde scorul de la Buzău”
MediaFlux
Nicușor Dan, declarații expozive despre "turul 2, înapoi". Ce a zis despre Călin Georgescu și AUR
stirilekanald.ro
Anunțul momentului pentru români!
substantial.ro
Ce este tractografia RMN și cum ajută la înțelegerea afecțiunilor neurologice