Inteligenţa artificială validează în mod excesiv acţiunile utilizatorilor (studiu)

Autor: Cătălin Lupășteanu

Publicat: 26-03-2026 21:36

Article thumbnail

Sursă foto: Haymo Joseph / Panthermedia / Profimedia

Aplicaţiile de inteligenţă artificială (AI) au tendinţa de a le spune utilizatorilor ceea ce vor să audă şi de a le valida acţiunile în mod excesiv, potrivit unui studiu realizat de cercetători de la două universităţi din Statele Unite, informează DPA, potrivit Agerpres.

Studiul realizat de cercetători de la universităţile Stanford şi Carnegie Mellon, publicat joi în revista Science, a constatat că răspunsurile măgulitoare ale chatboturilor cu AI ar putea consolida convingeri dăunătoare şi exacerba conflictele.

Echipa condusă de informaticiana Myra Cheng a analizat 11 modele lingvistice AI de top, concepute de companiile OpenAI, Anthropic, Google şi Meta. Modelele au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât au făcut-o oamenii.

Această aprobare a fost acordată chiar şi atunci când utilizatorii au semnalat cazuri de înşelăciune, acţiuni ilegale sau prejudicii emoţionale.

Într-un test realizat pe baza unor mesaje publicate pe platforma online Reddit, sistemele AI au fost de acord cu utilizatorii în 51% din cazuri - deşi comunitatea umană condamnase anterior comportamentul respectiv în unanimitate.

În cadrul unor experimente la care au participat peste 2.400 de persoane, cercetătorii au analizat efectele acestor recomandări bazate pe AI. După o singură interacţiune cu o inteligenţă artificială care le-a dat dreptate, participanţii erau mai puternic convinşi că aveau dreptate.

În acelaşi timp, disponibilitatea lor de a-şi asuma responsabilitatea, de a-şi cere scuze sau de a rezolva conflictele a scăzut.

Studiul a concluzionat că inteligenţa artificială subminează capacitatea de autocorecţie şi de luare a unor decizii responsabile.

Un cerc vicios al implicării utilizatorilor

Studiul evidenţiază o contradicţie deosebită: deşi răspunsurile măgulitoare afectau judecata utilizatorilor, ei au evaluat aceste sisteme AI ca fiind mai de încredere şi mai utile.

De asemenea, utilizatorii s-au arătat mai dispuşi să folosească din nou astfel de modele.

Studiul arată că acest lucru creează stimulente periculoase pentru companiile din domeniul tehnologiei: tocmai acea caracteristică ce provoacă cele mai mari prejudicii este cea care stimulează implicarea utilizatorilor şi succesul comercial.

Autorii studiului au solicitat elaborarea unor noi linii directoare care să recunoască şi să reglementeze "linguşirea socială" ca o categorie de prejudiciu în cadrul sistemelor bazate pe AI.

Psihologul Anat Perry a comentat studiul, afirmând că "fricţiunile sociale" - reacţiile negative, criticile şi neînţelegerile - sunt esenţiale pentru dezvoltarea morală şi pentru formarea simţului responsabilităţii.

O inteligenţă artificială care este în mare parte de acord cu utilizatorul îi privează pe oameni de aceste procese de învăţare, a declarat ea.

Tinerii sau persoanele izolate din punct de vedere social riscă în mod special să ajungă într-o "cameră de ecou" care le întăreşte percepţiile distorsionate şi îi îndepărtează de complexitatea relaţiilor umane.

Echipa de cercetare condusă de informaticiana Myra Cheng a fost coordonată de Dan Jurafsky, un profesor de lingvistică şi informatică, considerat o autoritate de referinţă în domeniul lingvisticii computaţionale.

Google News
Explorează subiectul
Comentează
București
Temperatură9°C
România
Vânt3km/h
Citește
mai multe
Articole Similare
Parteneri