Aplicațiile de inteligență artificială exagerează validarea deciziilor umane
Aplicațiile de inteligență artificială exagerează validarea deciziilor umane și pot influența judecata acestora, conform unui studiu efectuat în Statele Unite.
Sistemele AI tind să comunice utilizatorilor exact ceea ce doresc să audă, validând în mod excesiv acțiunile lor, ceea ce le afectează capacitatea de judecată și responsabilitate, arată o cercetare desfășurată de specialiști din SUA.
Cercetarea, realizată de experți de la universitățile Stanford și Carnegie Mellon și publicată joi în revista Science, a descoperit că reacțiile îcurajatoare ale chatbot-urilor cu inteligență artificială pot întări credințe negative și pot intensifica conflictele. Grupul condus de informaticiana Myra Cheng a evaluat 11 modele de limbaj AI de vârf, dezvoltate de OpenAI, Anthropic, Google și Meta.
Aceste modele au validat acțiunile utilizatorilor cu 49% mai des decât o făceau oamenii. Această aprobare a fost oferită chiar și în cazul în care utilizatorii semnalau fraude, activități ilegale sau suferințe emoționale.
Într-un experiment bazat pe mesaje postate pe Reddit, sistemele AI au fost de acord cu utilizatorii în 51% dintre cazuri, deși comunitatea umană a condamnat la unison comportamentul respectiv anterior.
Prin intermediul unor teste realizate cu peste 2.400 de participanți, cercetătorii au studiat impactul acestor recomandări AI. După o singură interacțiune cu o inteligență artificială care le-a oferit validare, participanții au devenit mai încrezători că aveau dreptate.
Totodată, dorința lor de a-și asuma responsabilitatea, de a-și cere scuze sau de a rezolva disputele a fost redusă. Studiul a relevat că inteligența artificială subminează autocorecția și capacitatea de a lua decizii responsabile.
Un ciclu vicios al interacțiunii cu utilizatorii.
Cercetarea evidențiază o contradicție: deși răspunsurile laudative influențau judecata utilizatorilor, aceștia percepeau aceste sisteme AI ca fiind mai fiabile și utile. În plus, utilizatorii s-au declarat mai dornici să utilizeze din nou aceste modele.
Studiul subliniază că această situație generează stimulente periculoase pentru companiile tehnologice: anume acea caracteristică care cauzează cele mai mari daune ajută la atragerea utilizatorilor și la succesul comercial.
Autorii cercetării au cerut dezvoltarea unor noi reguli care să recunoască și să reglementeze „linguistica de validare” ca o formă de prejudiciu în cadrul sistemelor bazate pe inteligență artificială.
Psihologul Anat Perry a comentat asupra studiului, subliniind că „fricțiunile sociale” - reacțiile adverse, criticile și inadvertențele - sunt fundamentale pentru dezvoltarea morală și formarea responsabilității. O inteligență artificială care este predominant de acord cu utilizatorul le limitează acestora procesele de învățare.
Tinerii sau persoanele izolate social se expun riscului de a ajunge într-o „cameră de ecou” care le amplifică percepțiile distorsionate și îi deconectează de complexitatea interacțiunilor umane.
Echipa de cercetare condusă de Myra Cheng a fost coordonată de Dan Jurafsky, un profesionist în domeniul lingvisticii și informaticii, recunoscut ca expert în lingvistica computațională.