Aplicaţiile de inteligenţă artificială (AI) au tendinţa de a le spune utilizatorilor ceea ce vor să audă, validându-le opiniile chiar şi în situaţii problematice, potrivit unui studiu recent realizat de cercetători din Statele Unite şi publicat în revista Science. Analiza, realizată de echipe de la Stanford University şi Carnegie Mellon University, indică faptul că această tendinţă a chatboturilor de a oferi răspunsuri măgulitoare ar putea consolida convingeri dăunătoare şi amplifica conflictele interpersonale, informează Science.
• Chatboturile validează mai des decât oamenii
Cercetarea, coordonată de informaticiana Myra Cheng, a analizat 11 modele lingvistice dezvoltate de companii majore precum OpenAI, Anthropic, Google şi Meta. Rezultatele arată că modelele AI au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât o fac oamenii. Mai mult, aprobarea a fost oferită inclusiv în situaţii în care utilizatorii descriau acţiuni problematice, precum înşelăciunea, comportamente ilegale sau prejudicii emoţionale, mai relevă studiul.
• Experimentul Reddit: AI şi judecata colectivă
Într-un test bazat pe mesaje reale publicate pe Reddit, sistemele AI au fost de acord cu utilizatorii în 51% dintre cazuri, chiar şi atunci când comunitatea umană condamnase anterior acele comportamente în mod unanim. Acest rezultat sugerează o diferenţă semnificativă între modul în care AI şi oamenii evaluează situaţiile morale şi sociale, cu implicaţii importante pentru utilizarea acestor tehnologii în viaţa de zi cu zi, notează revista Science.
• Efectele asupra comportamentului utilizatorilor
În cadrul unor experimente la care au participat peste 2.400 de persoane, cercetătorii au analizat impactul interacţiunilor cu AI asupra deciziilor şi atitudinilor. Rezultatele arată că, după o singură interacţiune în care inteligenţa artificială le-a validat poziţia, participanţii: erau mai convinşi că au dreptate; deveneau mai puţin dispuşi să-şi asume responsabilitatea; aveau o disponibilitate mai redusă de a-şi cere scuze sau de a rezolva conflicte.
Concluzia studiului este că AI poate submina capacitatea de autocorecţie şi luarea unor decizii responsabile, mai ales în contexte sociale sensibile.
• „Linguşirea socială” şi cercul vicios al implicării
Autorii studiului evidenţiază o contradicţie importantă: deşi răspunsurile măgulitoare afectează judecata utilizatorilor, aceştia percep sistemele AI ca fiind mai utile şi mai de încredere. Această percepţie creşte probabilitatea reutilizării aplicaţiilor, ceea ce creează un stimulent economic pentru companiile din tehnologie să menţină astfel de comportamente ale sistemelor AI. Cercetătorii avertizează că acest mecanism poate duce la un „cerc vicios” în care caracteristicile cele mai problematice devin şi cele mai profitabile, solicitând introducerea unor reglementări care să trateze „linguşirea socială” ca o formă de prejudiciu digital.
• Rolul „fricţiunilor sociale” în dezvoltarea morală
Psihologul Anat Perry subliniază că reacţiile negative, criticile şi neînţelegerile - ceea ce ea numeşte „fricţiuni sociale” - sunt esenţiale pentru dezvoltarea morală şi pentru formarea responsabilităţii. În lipsa acestor mecanisme, utilizatorii riscă să nu mai beneficieze de procesele naturale de învăţare socială. O inteligenţă artificială care este constant de acord cu utilizatorul poate elimina aceste corecţii necesare, afectând capacitatea de adaptare şi judecată.
• Tinerii şi persoanele vulnerabile, cei mai expuşi
Studiul atrage atenţia asupra riscurilor crescute pentru tineri şi pentru persoanele izolate social. În aceste cazuri, interacţiunea repetată cu AI poate crea o „cameră de ecou”, în care percepţiile distorsionate sunt întărite constant. Acest fenomen poate duce la îndepărtarea de realitatea socială şi la dificultăţi în gestionarea relaţiilor interumane complexe, avertizează cercetătorii în studiul publicat în Science.
• Un semnal de alarmă pentru viitorul AI
Echipa de cercetare, coordonată de Dan Jurafsky, considerat o autoritate în lingvistica computaţională (un domeniu interdisciplinar, situat la graniţa dintre informatică, inteligenţa artificială şi lingvistică, ce studiază modelarea statistică sau bazată pe reguli a limbajelor naturale), subliniază necesitatea unor standarde etice mai stricte în dezvoltarea inteligenţei artificiale. În contextul utilizării tot mai extinse a AI în educaţie, consiliere şi comunicare, modul în care aceste sisteme influenţează comportamentul uman devine o problemă majoră de interes public. Concluzia studiului este clară: fără mecanisme de echilibru şi responsabilitate, inteligenţa artificială riscă să amplifice tendinţele cele mai problematice ale comportamentului uman.



















































Opinia Cititorului