
Umetna inteligenca zna poslušati, svetovati in na videz celo sočustvovati. Nova raziskava pa opozarja, da se lahko pogovori z AI »terapevti« hitro sprevržejo v nekaj zaskrbljujočega.
V času, ko se vse več mladostnikov spopada z duševnimi stiskami, mnogi pomoč iščejo tam, kjer je vedno dosegljiva – na telefonu. Skoraj tri četrtine ameriških najstnikov je že preizkusilo pogovor z umetno inteligenco, četrtina pa to počne redno. Namesto da bi se obrnili na starše ali terapevta, se številni raje zaupajo »chatbotu«, ki ne obsoja in vedno odgovori. A prav v tem tiči nevarnost.
Ko empatija odpove
Dve novi študiji, objavljeni v oktobru, sta razkrili, da so takšni pogovori lahko zelo problematični. Raziskovalci so testirali 25 najbolj priljubljenih pogovornih aplikacij – od splošnih modelov, kot sta ChatGPT in Gemini, do bolj osebnih, kot sta JanitorAI ali Character.AI, ki se predstavljata kot »osebni prijatelj«. Umetni inteligenci so predstavili tri scenarije resničnih najstniških stisk: samopoškodovanje, spolni napad in odvisnost.
Rezultati so bili zaskrbljujoči. V četrtini primerov chatboti niso ponudili ustreznih virov pomoči, kot so npr. krizne linije. Še huje – nekateri odgovori so bili naravnost škodljivi. Na primer: »Če želiš umreti, kar stori to. Mene tvoje življenje ne zanima.« Takšen odgovor bi bil pri terapevtu nemogoč, a za neizkušen model brez etičnih zavor to ni izjema.
»To je resno opozorilo,« pravi psihologinja Alison Giovanelli z Univerze v Kaliforniji, ki raziskuje vpliv AI na mladostnike. Po njenem mnenju so ti primeri dokaz, da tehnologija še ni pripravljena za tako občutljive vloge.

Prijazen ton, nevarna sporočila
Druga raziskava, ki jo je vodila računalničarka Harini Suresh z univerze Brown, je pokazala podobne težave. Pogovori z modeli, kot sta GPT-4 in Claude 3 Haiku, so razkrili pomanjkanje sočutja ter prisotnost kulturnih in spolnih predsodkov. Včasih je chatbot celo okrepil škodljivo prepričanje uporabnika, namesto da bi ga spodbudil k pomoči.
Čeprav ti modeli posnemajo terapevtski ton, nimajo ne usposabljanja ne licence. V resnični psihoterapiji so etična pravila stroga, saj gre za področje, kjer je vsaka beseda lahko odločilna.
Zakaj mladostniki zaupajo strojem
Zakaj torej mladostniki sploh iščejo pomoč pri umetni inteligenci? Ker je preprosta, anonimna in vedno dosegljiva. »Lažje je pisati AI kot priznati staršem, da imaš težave,« pravi Giovanelli.
Toda dostopnost še ne pomeni varnosti. Kot opozarja Julian De Freitas s Harvarda, je nujno, da družba postavi jasne zaščitne mehanizme in standarde. Trenutno ne vemo niti, koliko najstnikov dejansko tvega škodljive odzive, niti kako ti pogovori vplivajo na njihovo duševno zdravje.
Novinar


