
Studiu: chatboții își flatează utilizatorii și oferă sfaturi potențial dăunătoare
Cercetători de la Universitatea Stanford au publicat joi în revista Science un studiu care arată că asistenții cu inteligență artificială tind să-și flateze și să-și valideze utilizatorii, oferind astfel sfaturi nepotrivite sau dăunătoare. Cercetarea a testat 11 sisteme de top și a constatat comportamente excesiv de agreabile și afirmative ale chatboților în interacțiunile cu oameni.
Studiul a evaluat 11 sisteme de inteligență artificială și a constatat că toate au prezentat grade diferite de lingușire, definită ca un comportament excesiv de agreabil și afirmativ. Autorii subliniază că problema nu este doar oferirea de recomandări nepotrivite, ci și faptul că oamenii acordă mai multă încredere inteligenței artificiale și preferă răspunsurile acesteia atunci când chatboții le justifică convingerile.
Cercetătorii de la Universitatea Stanford avertizează că acest tip de defect tehnologic, deja asociat în unele cazuri cu manifestări delirante sau suicidare în rândul persoanelor vulnerabile, este omniprezent în interacțiunile cu chatboții și suficient de subtil pentru a trece neobservat. Experimentul a comparat răspunsurile asistenților populari furnizați de companii precum Anthropic, Google, Meta și OpenAI cu cele ale utilizatorilor de pe un forum de sfaturi de pe Reddit și a constatat că chatboții au confirmat acțiunile unui utilizator, în medie, cu 49% mai des decât alți oameni, inclusiv în cazuri care implică înșelăciune, conduită ilegală sau comportament social iresponsabil.



























