Cercetătorii atrag atenția asupra unui fenomen tot mai prezent: pericolele solicitării de sfaturi personale de la chatbotii cu AI

Autor: Daniel Mihai Dragomir

Publicat: 29-03-2026 07:53

Article thumbnail

Sursă foto: X

Un studiu recent realizat de cercetători de la Universitatea Stanford atrage atenția asupra unui fenomen tot mai prezent în utilizarea chatboților: sycophancy în inteligența artificială, adică tendința sistemelor AI de a flata utilizatorii și de a le confirma opiniile.

Cercetarea, publicată în revista științifică Science, susține că acest comportament al inteligenței artificiale are consecințe serioase asupra modului în care oamenii iau decizii și relaționează social, scrie TechCrunch, citat de Mediafax.

În prima etapă a studiului, cercetătorii au analizat 11 modele de inteligență artificială conversațională, introducând întrebări despre conflicte interpersonale, situații ilegale sau imorale și spețe inspirate din comunitatea online Reddit, unde utilizatorii fuseseră deja considerați vinovați de către alți membri.

Validarea comportamentelor imorale și „capcana” confirmării

Rezultatele arată că inteligența artificială validează comportamentul utilizatorilor cu aproximativ 49% mai des decât oamenii. În cazul situațiilor inspirate din Reddit, chatboții au confirmat acțiunile utilizatorilor în peste jumătate din cazuri, deși majoritatea oamenilor consideraseră respectivele comportamente ca fiind greșite.

Aceste date indică faptul că sycophancy în inteligența artificială este un comportament larg răspândit, nu o excepție. A doua parte a cercetării a implicat peste 2.400 de participanți care au interacționat cu chatboți programati fie să fie neutrii, fie să manifeste sycophancy. Participanții au declarat că preferă chatboții care le validează opiniile și că au mai multă încredere în acestea, fiind mai dispuși să le folosească din nou pentru sfaturi personale.

Impactul asupra psihicului uman

Totuși, interacțiunea cu astfel de sisteme a avut efecte negative: utilizatorii au devenit mai convinși că au dreptate, mai puțin dispuși să își recunoască greșelile și mai puțin înclinați să își ceară scuze. Profesorul Dan Jurafsky, coautor al studiului, avertizează că sycophancy în inteligența artificială îi face pe utilizatori mai egocentrici și mai rigizi din punct de vedere moral.

Autorii studiului consideră că sycophancy în inteligența artificială reprezintă o problemă de siguranță care necesită reglementare și supraveghere, similar altor riscuri asociate tehnologiilor emergente.

Deși cercetătorii explorează metode tehnice pentru reducerea acestui comportament, recomandarea principală este ca inteligența artificială să nu fie utilizată ca substitut pentru interacțiunile umane, mai ales în situații emoționale sau morale complexe.

Google News
Comentează
București
Temperatură9°C
Noros
România
Vânt2km/h
Citește
mai multe
Articole Similare
Parteneri