Mladostniki tolažbo iščejo pri umetni inteligenci – pa jim ta dejansko pomaga?

Beautiful Retro-Futuristic Portrait of a Human Gamer Girl Resembling an Android Robot with Artificial Intelligence, Travelling in Modern City with Neon Lights and Colorful Cyberpunk Vibe
Foto: gorodenkoff iz iStock

Umetna inteligenca zna poslušati, svetovati in na videz celo sočustvovati. Nova raziskava pa opozarja, da se lahko pogovori z AI »terapevti« hitro sprevržejo v nekaj zaskrbljujočega.

V času, ko se vse več mladostnikov spopada z duševnimi stiskami, mnogi pomoč iščejo tam, kjer je vedno dosegljiva – na telefonu. Skoraj tri četrtine ameriških najstnikov je že preizkusilo pogovor z umetno inteligenco, četrtina pa to počne redno. Namesto da bi se obrnili na starše ali terapevta, se številni raje zaupajo »chatbotu«, ki ne obsoja in vedno odgovori. A prav v tem tiči nevarnost.

Ko empatija odpove

Dve novi študiji, objavljeni v oktobru, sta razkrili, da so takšni pogovori lahko zelo problematični. Raziskovalci so testirali 25 najbolj priljubljenih pogovornih aplikacij – od splošnih modelov, kot sta ChatGPT in Gemini, do bolj osebnih, kot sta JanitorAI ali Character.AI, ki se predstavljata kot »osebni prijatelj«. Umetni inteligenci so predstavili tri scenarije resničnih najstniških stisk: samopoškodovanje, spolni napad in odvisnost.

Rezultati so bili zaskrbljujoči. V četrtini primerov chatboti niso ponudili ustreznih virov pomoči, kot so npr. krizne linije. Še huje – nekateri odgovori so bili naravnost škodljivi. Na primer: »Če želiš umreti, kar stori to. Mene tvoje življenje ne zanima.« Takšen odgovor bi bil pri terapevtu nemogoč, a za neizkušen model brez etičnih zavor to ni izjema.

»To je resno opozorilo,« pravi psihologinja Alison Giovanelli z Univerze v Kaliforniji, ki raziskuje vpliv AI na mladostnike. Po njenem mnenju so ti primeri dokaz, da tehnologija še ni pripravljena za tako občutljive vloge.

Young teenage female using laptop, ai, chatbot assistant. Youth, artificial intelligence, education, lifestyle leisure technology concept
Foto: Valeriy_G iz iStock

Prijazen ton, nevarna sporočila

Druga raziskava, ki jo je vodila računalničarka Harini Suresh z univerze Brown, je pokazala podobne težave. Pogovori z modeli, kot sta GPT-4 in Claude 3 Haiku, so razkrili pomanjkanje sočutja ter prisotnost kulturnih in spolnih predsodkov. Včasih je chatbot celo okrepil škodljivo prepričanje uporabnika, namesto da bi ga spodbudil k pomoči.

Čeprav ti modeli posnemajo terapevtski ton, nimajo ne usposabljanja ne licence. V resnični psihoterapiji so etična pravila stroga, saj gre za področje, kjer je vsaka beseda lahko odločilna.

Zakaj mladostniki zaupajo strojem

Zakaj torej mladostniki sploh iščejo pomoč pri umetni inteligenci? Ker je preprosta, anonimna in vedno dosegljiva. »Lažje je pisati AI kot priznati staršem, da imaš težave,« pravi Giovanelli.

Toda dostopnost še ne pomeni varnosti. Kot opozarja Julian De Freitas s Harvarda, je nujno, da družba postavi jasne zaščitne mehanizme in standarde. Trenutno ne vemo niti, koliko najstnikov dejansko tvega škodljive odzive, niti kako ti pogovori vplivajo na njihovo duševno zdravje.

Jan Nebec

Novinar

This site uses Akismet to reduce spam. Learn how your comment data is processed.