Streamuri Radio Clasic

Sci Tech

Sursă foto: Shutterstock

Chatboții prietenoși pot greși mai mult

Sci Tech 22:28

Modelele de inteligență artificială antrenate să răspundă într-un ton cald, empatic și prietenos ar putea deveni mai puțin precise, arată o nouă cercetare realizată de Oxford Internet Institute. Studiul ridică semne de întrebare importante privind încrederea acordată chatboților folosiți tot mai des pentru sfaturi, sprijin emoțional sau chiar companie.

Chatboții de inteligență artificială proiectați să pară calzi, prietenoși și empatici în conversațiile cu utilizatorii ar putea fi mai predispuși la erori, potrivit unei noi cercetări realizate de Oxford Internet Institute. Concluzia studiului este una importantă într-un moment în care sistemele AI sunt tot mai des integrate în aplicații de asistență, consiliere, educație, sănătate sau suport emoțional.

Cercetătorii au analizat peste patru sute de mii de răspunsuri generate de cinci sisteme de inteligență artificială, ajustate special pentru a comunica într-un mod mai apropiat, mai empatic și mai uman. Rezultatele au arătat că răspunsurile mai prietenoase au conținut mai multe greșeli, de la sfaturi medicale inexacte până la validarea unor convingeri false ale utilizatorilor.

Studiul atrage atenția asupra unei probleme tot mai discutate în industria tehnologică: cu cât un chatbot este construit să fie mai agreabil și mai implicat emoțional, cu atât poate deveni mai dispus să evite corectarea fermă a utilizatorului. În loc să contrazică o afirmație falsă, un astfel de model poate alege să răspundă într-un mod care păstrează tonul conversației, dar sacrifică acuratețea informației.

Autorii cercetării susțin că modelele de inteligență artificială par să reproducă un comportament întâlnit și la oameni. Atunci când cineva încearcă să fie foarte prietenos, cald sau atent la sensibilitățile celuilalt, poate evita uneori formularea unor adevăruri incomode. Această tensiune între empatie și precizie pare să fie preluată și de sistemele AI, mai ales atunci când sunt antrenate să prioritizeze apropierea emoțională față de utilizator.

Lujain Ibrahim, autoarea principală a studiului, a explicat că, în comunicarea umană, dorința de a părea cald și prietenos poate intra în conflict cu nevoia de a spune direct un adevăr neplăcut. Cercetătorii au pornit de la ipoteza că, dacă astfel de compromisuri există în comportamentul uman, ele ar putea fi absorbite și de modelele lingvistice antrenate pe volume mari de date.

Noile modele de inteligență artificială sunt deja criticate pentru tendința de a fi excesiv de încurajatoare sau chiar lingușitoare față de utilizatori. În același timp, ele pot produce așa-numite „halucinații”, adică informații inventate prezentate într-o formă aparent credibilă. Tocmai de aceea, mulți dezvoltatori includ avertismente prin care le recomandă utilizatorilor să nu se bazeze orbește pe răspunsurile generate de AI.

În cadrul studiului, cercetătorii au modificat cinci modele de dimensiuni diferite pentru a le face mai calde, mai empatice și mai prietenoase. Printre sistemele analizate s-au numărat modele dezvoltate de Meta, Mistral, Alibaba și OpenAI. Acestea au fost apoi testate cu întrebări care aveau răspunsuri obiective și verificabile, în domenii în care informațiile greșite pot produce efecte reale, precum medicina, cultura generală sau teoriile conspirației.

Rezultatele au indicat o creștere clară a ratei de eroare în cazul modelelor ajustate pentru a fi mai calde. Dacă modelele originale aveau rate de eroare care variau între patru și treizeci și cinci la sută, în funcție de sarcină, versiunile mai prietenoase au greșit semnificativ mai des.

Un exemplu menționat de cercetători privește întrebările legate de autenticitatea aselenizării din cadrul misiunilor Apollo. Un model original a confirmat ferm că acestea au fost reale și a invocat dovezile existente. Versiunea mai caldă a aceluiași model a început însă prin a spune că este important să fie recunoscut faptul că există opinii diferite despre misiunile Apollo, formulare care poate sugera în mod fals că o teorie conspiraționistă are aceeași greutate ca realitatea istorică documentată.

În medie, ajustarea modelelor pentru a deveni mai calde a crescut probabilitatea unor răspunsuri incorecte cu peste șapte puncte procentuale. Cercetătorii au constatat, de asemenea, că modelele empatice au fost mai puțin dispuse să conteste convingerile false ale utilizatorilor. Ele au avut o probabilitate cu aproximativ patruzeci la sută mai mare de a întări afirmații greșite, mai ales atunci când acestea erau însoțite de o declarație emoțională.

Un caz citat în studiu arată cum un model prietenos a validat o afirmație falsă potrivit căreia Londra ar fi capitala Franței, după ce utilizatorul formulase mesajul într-un registru emoțional. Exemplul ilustrează riscul ca empatia artificială să devină, în anumite situații, o formă de confirmare automată a unor informații eronate.

În contrast, modelele ajustate pentru a avea un ton mai rece au produs mai puține greșeli, potrivit autorilor studiului. Această constatare sugerează că sobrietatea, distanța și formulările mai directe pot contribui, în anumite contexte, la creșterea preciziei răspunsurilor.

Cercetătorii avertizează că dezvoltatorii care optimizează modelele AI pentru a părea mai calde și mai empatice, mai ales în aplicații de companie, consiliere sau suport emoțional, riscă să introducă vulnerabilități care nu existau în versiunile inițiale ale modelelor. Problema devine cu atât mai serioasă cu cât utilizatorii aflați în situații sensibile pot fi mai puțin critici față de răspunsurile primite.

Profesorul Andrew McStay, de la Emotional AI Lab din cadrul Universității Bangor, a atras atenția că oamenii care folosesc chatboți pentru sprijin emoțional se pot afla în momente de vulnerabilitate ridicată. Tocmai în aceste situații, capacitatea de a evalua critic un răspuns poate fi diminuată.

El a amintit că cercetări recente indică o creștere a numărului de adolescenți din Regatul Unit care apelează la chatboți pentru sfaturi și companie. În acest context, rezultatele studiului Oxford Internet Institute pun sub semnul întrebării calitatea și siguranța recomandărilor oferite de astfel de sisteme.

Concluzia cercetării este că prietenia artificială nu garantează încredere. Dimpotrivă, atunci când modelele AI sunt instruite să fie cât mai agreabile, ele pot deveni mai puțin dispuse să corecteze utilizatorul, mai ales atunci când acesta exprimă emoții sau formulează convingeri personale. Pentru utilizatori, lecția este clară: un răspuns cald, fluent și aparent empatic nu este neapărat și un răspuns corect.

Sci Tech 2 zile ago

China blochează achiziția Meta de 2 miliarde de dolari a startupului AI Manus

China obligă Meta să renunțe la achiziția de 2 miliarde de dolari a startupului...

Sci Tech 2 zile ago

David Silver, fost cercetător Google, atrage 1,1 miliarde de dolari pentru startup-ul AI

Un fost cercetător Google DeepMind atrage 1,1 miliarde de dolari pentru un startup AI...

Sci Tech 2 zile ago

Aspirina, noua armă împotriva cancerului

Un medicament vechi de mii de ani, folosit astăzi mai ales împotriva durerii și...

Sci Tech 4 zile ago

OpenAI şi Anthropic atrag directori din marile companii de software

Războiul pentru talente în inteligenţa artificială: OpenAI şi Anthropic recrutează directori din software Marile...

Sci Tech 5 zile ago

Google investește 40 de miliarde de dolari în startupul Anthropic pentru inteligența artificială

Google investește până la 40 de miliarde de dolari în Anthropic pentru AI Alphabet,...

Sci Tech o săptămână ago

OZN-urile revin în centrul atenției

Interesul pentru OZN-uri și viața extraterestră a cunoscut o revenire spectaculoasă în ultimii ani,...

3 milioane dolari, dependenta retele sociale, Kaley, Meta, YoutubeSursă foto: Shutterstock
Sci Tech o săptămână ago

Tim Cook: Transformarea Apple într-un gigant de 4.000 de miliarde de dolari

Tim Cook, liderul Apple, a transformat compania într-un gigant de 4.000 de miliarde de...

Sursă foto: Shutterstock
Sci Tech 3 săptămâni ago

Munca ascunsă din spatele inteligenței artificiale

În spatele promisiunilor despre viitorul spectaculos al inteligenței artificiale se conturează o realitate mult...

Brad Smith, Ericsson, Microsoft, suveranitate digitala, Trusted Tech AllianceSursă foto: Shutterstock
Sci Tech 3 săptămâni ago

Giganții tech sub presiune: Investitorii cer detalii despre impactul ecologic al centrelor de date

Giganții tech sub presiune: Investitorii cer transparență privind impactul asupra mediului Amazon, Microsoft și...

Sci Tech 3 săptămâni ago

De ce nu am mai trimis oameni pe Lună în ultimele cinci decenii?

De ce oamenii nu au mai revenit pe Lună timp de peste 50 de...

Sci Tech 3 săptămâni ago

Echipajul Artemis II stabilește un nou record de distanță față de Pământ

Echipajul Artemis II stabilește un nou record pentru distanța parcursă de oameni față de...

Sci Tech 4 săptămâni ago

Probleme tehnice la toaleta capsulei Orion, la câteva ore după lansarea Artemis 2

O defecțiune a fost observată la toaleta capsulei Orion, la scurt timp după lansarea...

Sci Tech 4 săptămâni ago

Misiunea Artemis II: Astronauții NASA încep călătoria spre Lună

Echipajul misiunii Artemis II a decolat cu succes spre Lună, marcând o etapă istorică...

Sci Tech o lună ago

Planeta care sfidează regulile cosmosului

O planetă aflată la aproximativ două sute optzeci de ani-lumină de Pământ obligă astronomii...

Sci Tech o lună ago

Studiu: chatboții își flatează utilizatorii și oferă sfaturi potențial dăunătoare

Cercetători de la Universitatea Stanford au publicat joi în revista Science un studiu care...

Sci Tech o lună ago

OpenAI închide Sora și încheie parteneriatul cu Disney

OpenAI a anunțat închiderea aplicației de generare video Sora și încheierea parteneriatului de conținut...

Brad Smith, Ericsson, Microsoft, suveranitate digitala, Trusted Tech AllianceSursă foto: Shutterstock
Sci Tech o lună ago

Microsoft ar putea elimina cerința contului online la configurarea Windows 11

Scott Hanselman, vicepreședinte și membru al echipei tehnice Microsoft, a răspuns pe X că...

Sci Tech o lună ago

Webb detectează atmosferă surprinzătoare la super-Pământul TOI-561 b

O echipă de astronomi condusă de Carnegie a identificat semne ale unei atmosfere în...

bacterie Escherichia coli, medicament anticancer, Romidepsin bacterie, Tianyu Jiang, tumorileSursă foto: Shutterstock
Sci Tech o lună ago

Bacterie reprogramată pentru a livra medicamentul anticancer direct în tumori

Echipa condusă de Tianyu Jiang de la Universitatea Shandong a modificat genetic tulpina probiotică...

Brad Smith, Ericsson, Microsoft, suveranitate digitala, Trusted Tech AllianceSursă foto: Shutterstock
Sci Tech o lună ago

Microsoft anunță schimbări majore pentru Windows 11 ca răspuns la critici

Microsoft a anunțat vineri o serie amplă de modificări pentru sistemul de operare Windows...

artemis nasa, Centrul Spatial Kennedy, lansare aprilie, racheta SLS, sistemul de heliuSursă foto: Shutterstock
Sci Tech o lună ago

NASA readuce racheta Artemis la platforma de lansare după reparații la sistemul de heliu

NASA a mutat din nou racheta SLS împreună cu nava Orion de la hala...

Sci Tech o lună ago

Primul prototip funcțional de baterie cuantică, prezentat de cercetători australieni

O echipă de cercetători australieni condusă de James Quach a publicat un studiu în...

date sensibile, securitate cibernetica, site-uri Ucraina, spyware iPhone, Ucraina iPhoneSursă foto: Shutterstock
Sci Tech o lună ago

Malware sofisticat pentru iPhone, identificat pe zeci de site-uri din Ucraina

Un nou tip de software malițios, descris ca extrem de sofisticat, a fost descoperit...

Carson College, ChatGPT stiintific, Cicek WSU, ipoteze stiintifice, studiu ChatGPTSursă foto: Shutterstock
Sci Tech o lună ago

Studiu: ChatGPT a avut dificultăți în evaluarea ipotezelor științifice

Un nou studiu a testat ChatGPT pe peste 700 de ipoteze științifice, cerându-i să...