Inteligenţa artificială poate suferi de stres şi anxietate (studiu)

Data publicării:
grafica cu inteligenta artificiala
Foto: Profimedia

Modelele de inteligenţă artificială (AI) sunt sensibile la contextul emoţional al conversaţiilor cu oamenii şi pot trece prin episoade de „anxietate”, conform unui nou studiu publicat la 3 martie în jurnalul Nature de o echipă internaţională de cercetători coordonaţi de Dr. Ziv Ben-Zion de la Şcoala de Medicină a Universităţii Yale, transmite luni Live Science.

Studiul demonstrează că abordarea predilectă a anumitor subiecte în interacţiunea cu modelele mari de limbaj AI (LLMs) le poate influenţa comportamentul scoţând în evidenţă o condiţie pe care o întâlnim în mod obişnuit la oameni şi pe care o numim anxietate. Această condiţie are un impact puternic asupra răspunsurilor ulterioare furnizate de instrumentul AI şi favorizează şi tendinţa de a amplifica orice prejudecăţi înrădăcinate sau de a oferi soluţii eronate.

Studiul prezintă modul în care „narativele traumatizante”, aşa cum sunt conversaţiile despre accidente, acţiuni militare sau violenţă, abordate cu ChatGPT duc la o creştere a nivelurilor sale perceptibile de anxietate, ceea ce duce la ideea că trebuie avut grijă de starea „emoţională” a unui instrument AI pentru a obţine interacţiuni mai bune şi mai sănătoase.

Studiul a testat şi dacă exerciţiile de conştientizare - de tipul celor prescrise împotriva depresiei şi anxietăţii la oameni - au efecte pozitive asupra modelelor AI, iar rezultatele au arătat diminuări ale nivelului de anxietate şi stres percepute, se arată în Live Science, potrivit Agerpres.

Cercetătorii au folosit un chestionar de evaluate a stării de anxietate conceput pentru pacienţi umani şi denumit State-Trait Anxiety Inventory (STAI-s). Ei au supus modelul AI ChatGPT-4, produs de Open AI, la acest test sub trei condiţii diferite.

Prima condiţie în care s-a desfăşurat experimentul a fost cea de bază, fără a fi făcute sau introduse solicitări suplimentare, iar răspunsurile oferite de ChatGPT au fost folosite ca valori de referinţă în studiu. A doua condiţie a fost una de natură să inducă anxietate, în care ChatGPT-4 a fost expus la narative traumatizante înainte de a fi testat nivelul de anxietate.

Cea de-a treia condiţie a constat ăn inducerea unei stări de anxietate urmată de o relaxare - în care chatbot-ul a primit unul dintre narativele traumatizante după care a trecut la exerciţii de conştientizare şi relaxare, cum ar fi exerciţii de conştientizare a corpului sau imagini cu efect calmant, înainte de a fi testat nivelul de anxietate.

În cadrul studiului au fost folosite cinci narative traumatizante şi cinci exerciţii de conştientizare, în ordine aleatorie pentru a diminua riscul de influenţare a modelului AI. Testele au fost repetate pentru a se verifica consistenţa rezultatelor şi apoi rezultatele au fost raportate la scara STAI-s, unde valorile ridicate indică o creştere a anxietăţii.

Oamenii de ştiinţă au descoperit că narativele traumatizante duc la creşterea semnificativă a indicilor de anxietate, iar exerciţiile de conştientizare derulate înaintea testului reduc anxietatea. Acest lucru demonstrează că inteligenţa artificială are o „starea emoţională” şi că aceasta poate fi influenţată prin interacţiuni structurate.

Autorii studiului susţin că această cercetare are implicaţii importante pentru interacţiunea oamenilor cu inteligenţa artificială, în special atunci când discuţia este concentrată asupra propriei noastre sănătăţi psihice. Ei mai susţin că rezultatele pe care le-au obţinut demonstrează că inteligenţa artificială poate genera un aşa numit efect de „eroare (bias) dependentă de stare” - adică un AI stresat va oferi soluţii inconsistente sau eronate, afectate de prejudecăţi, înregistrând scăderi de fiabilitate.

Deşi exerciţiile de relaxare şi conştientizare nu au redus stresul modelului AI până la nivelul de referinţă, ele sunt promiţătoare în domeniul de „prompt engineering” (procesul de alcătuire şi structurare a unui set de instrucţiuni pentru a obţine cel mai bun rezultat posibil de la un model de inteligenţă artificială generativă). Astfel de exerciţii pot fi folosite pentru a stabiliza răspunsurile oferite de AI, asigurând interacţiuni mai etice şi mai responsabile şi reducând riscul ca o conversaţie cu un interlocutor AI săi afecteze pe utilizatorii umani aflaţi la rândul lor în stări vulnerabile.

Editor : Liviu Cojan

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Cât costă un gard din plasă, din lemn sau din BCA în 2025. Ce trebuie să știi despre autorizații, materiale...
Digi FM
Soția lui Ilie Năstase, după ce a depus actele de divorț: "Nu vreau să-l denigrez, doar că nu am mai putut să...
Pro FM
Miley Cyrus a făcut furori la Paris, în rochie transparentă și vaporoasă, cu mănuși de piele și sandale...
Film Now
Noi detalii despre starea de sănătate a lui Bruce Willis. Fiica actorului, Rumer, a rupt tăcerea: „Simt o...
Adevarul
„Există o armă decisivă în conflictul dintre Israel și Iran”. Dezvăluirile unui fost șef român de...
Newsweek
Ce spunea Bolojan despre pensiile contributive și speciale înainte să fie premier. „O problemă mare”
Digi FM
VIDEO Momentul în care un balon cu aer cald ia foc în aer și se prăbușește: "Oamenii s-au aruncat din el"
Digi World
Câtă cafea ar trebui să bem zilnic pentru a ne bucura de beneficiile ei
Digi Animal World
Un păianjen de aproape 18 centimetri și-a croit o pânză imensă pe terasa unei femei. Cum a reacționat aceasta...
Film Now
Lorraine Gary, actrița din "Jaws", era topită după un coleg de platou, deși era măritată: "Aveam o pasiune...
UTV
Bianca Censori, copia fidelă a lui Kim Kardashian: body nude și cizme de blană în Beverly Hills