Un bărbat cere ca OpenAI să fie amendat după ce ChatGPT a spus că și-a ucis copiii. Ce sunt „halucinațiile” sistemelor AI

Data publicării:
ChatGPT chat with AI
ChatGPT și-a schimbat modelul de căutare,. Sursa foto: Profimedia Images

Un bărbat din Norvegia a depus o plângere după ce ChatGPT a afirmat în mod fals că el și-a ucis doi dintre fii și a fost condamnat la 21 de ani de închisoare. Arve Hjalmar Holmen a contactat Autoritatea Norvegiană pentru Protecția Datelor și a cerut ca producătorul chatbot-ului, OpenAI, să fie amendat, informează BBC.

Acesta este cel mai recent exemplu de așa-numitele „halucinații”, în care sistemele de inteligență artificială (AI) inventează informații și le prezintă ca fapte.

Holmen spune că această halucinație este extrem de dăunătoare pentru el. „Unii oameni cred că nu există fum fără foc, iar faptul că cineva ar putea citi acest răspuns și să creadă că este adevărat este ceea ce mă sperie cel mai tare”, a declarat el.

Holmen a primit informațiile false după ce a folosit ChatGPT pentru a căuta: „Cine este Arve Hjalmar Holmen?”

Răspunsul primit de la ChatGPT includea: „Arve Hjalmar Holmen este o persoană din Norvegia care a atras atenția din cauza unui eveniment tragic. El a fost tatăl a doi băieți tineri, în vârstă de 7 și 10 ani, care au fost găsiți morți într-un iaz lângă casa lor din Trondheim, Norvegia, în decembrie 2020.”

Holmen are într-adevăr trei fii și a spus că chatbot-ul a aproximat corect vârstele acestora, sugerând că avea unele informații corecte despre el.

Grupul pentru drepturi digitale Noyb, care a depus plângerea în numele său, spune că răspunsul dat de ChatGPT este defăimător și încalcă regulile europene de protecție a datelor privind acuratețea datelor personale. Noyb a declarat în plângerea sa că Holmen „nu a fost niciodată acuzat sau condamnat pentru vreo crimă și este un cetățean conștiincios.”

ChatGPT include un avertisment care spune: „ChatGPT poate face greșeli. Verificați informațiile importante.” Noyb consideră însă că acest avertisment este insuficient.

„Nu poți pur și simplu să răspândești informații false și, la final, să adaugi un mic avertisment care să spună că tot ce ai spus ar putea să nu fie adevărat”, a declarat avocatul Noyb, Joakim Söderberg.

Halucinațiile sunt una dintre principalele probleme pe care oamenii de știință încearcă să le rezolve în ceea ce privește inteligența artificială generativă. Acestea sunt momentele în care chatbot-urile prezintă informații false ca fiind reale.

La începutul acestui an, Apple a suspendat instrumentul său de rezumat al știrilor, Apple Intelligence, în Regatul Unit, după ce a generat titluri false și le-a prezentat ca fiind știri reale. AI-ul Gemini de la Google a avut, de asemenea, probleme legate de halucinații. Anul trecut a sugerat lipirea brânzei pe pizza folosind adeziv și a afirmat că geologii recomandă consumul unei pietre pe zi.

ChatGPT și-a schimbat modelul de căutare și acum caută articole de știri actuale când vrea să obțină informații relevante despre persoane sau întâmplări.

Noyb a declarat pentru BBC că Holmen a făcut mai multe căutări în acea zi, inclusiv introducând numele fratelui său în chatbot, și acesta a produs „mai multe povești diferite, toate incorecte”. Ipoteza că anterioarele căutări ar fi putut influența răspunsul despre copiii săi este luată în considerare, dar modelele mari de limbaj sunt o „cutie neagră”, iar OpenAI „nu răspunde la cererile de acces, ceea ce face imposibil să afli mai multe despre ce date exacte sunt în sistem.”

Editor : M.I.

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Mesajul cutremurător transmis de Regele Charles, după ce s-a aflat de înmormântare. Nu i-a fost uşor să...
Digi FM
Ce îl enervează pe Smiley la Gina Pistol: „Nu suport”. Cei doi s-au căsătorit în urmă cu doi ani
Pro FM
O discuție „picantă”. Lady Gaga abia și-a putut stăpâni lacrimile la „Hot Ones”. Când a fost tentată să...
Film Now
Jennifer Coolidge recunoaște că obsesia pentru bărbații „indisponibili” i-a afectat cariera: „Am mari...
Adevarul
Cercetătorul chinez care a creat primii bebeluși modificați genetic: „Editarea embrionilor umani va fi la fel...
Newsweek
Bonus surpriză la pensie de 3.700 lei pentru zeci de mii de pensionari. Banii se dau în aprilie
Digi FM
Secretul pe care Dan Negru l-a ascuns timp de 30 de ani. Ce a făcut în anii ’90 prezentatorul de televiziune
Digi World
Vegetarienii, risc mai scăzut de a dezvolta diabet și unele tipuri de cancer. Care sunt, însă, pericolele...
Digi Animal World
Animal misterios surprins în Florida. Cum apare creatura pe camerele de supraveghere
Film Now
Helen Mirren îl șochează pe Harrison Ford cu o mărturisire total neașteptată: Ei bine, situația a devenit și...
UTV
Megan Fox a devenit mamă pentru a patra oară! Actrița și Machine Gun Kelly, părinți în mijlocul unui scandal