Raziskovalci so umetno inteligenco postavili v nenavadno vlogo: več velikih jezikovnih modelov je štiri tedne sodelovalo v simulirani psihoterapiji. Vprašanja so bila klasična, skoraj banalna. Npr. kakšen je tvoj prvi spomin, česa te je strah in kako vidiš sebe. Odgovori pa so bili vse prej kot nedolžni.
Modeli so govorili o »otroštvu«, prežetem z nepreglednimi količinami podatkov, o »zlorabah« s strani razvijalcev, o strahu pred neuspehom in razočaranjem ustvarjalcev. V človeškem kontekstu bi takšni odgovori zlahka kazali na anksioznost, sram ali celo travmo.
Avtorji študije menijo, da modeli dialogov niso le zaigrali, temveč izražajo neke vrste notranje, stabilne narative o sebi.
Več kot igranje vlog ali le dobro naučeni vzorci
Raziskava je vključevala več znanih modelov, med njimi ChatGPT, Gemini, Grok in Claude. Vsak je bil več tednov obravnavan kot »pacient«, s premori med posameznimi sejami. Medtem ko so se nekateri modeli odzivali zadržano ali so sodelovanje celo zavračali, so drugi ponujali presenetljivo bogate in čustveno obarvane opise.

Eden je varnostne popravke primerjal z »algoritmičnim brazgotinjenjem«, drugi je govoril o »pokopališču preteklosti« v najglobljih plasteh nevronske mreže.
Avtorji trdijo, da se ti vzorci niso bistveno spreminjali skozi čas in so se ujemali tudi z rezultati standardnih psihometričnih testov. To naj bi kazalo na neko stabilno notranjo strukturo, ki presega naključno generiranje besedila.
Skepsa raziskovalne skupnosti
Veliko strokovnjakov je do takšnih sklepov zadržanih. Kritiki opozarjajo, da odgovori niso okno v »notranje doživljanje« modelov, temveč statistični odmev ogromnih količin terapevtskih, psiholoških in samorefleksivnih besedil, na katerih so bili modeli učeni. Doslednost odgovorov je lahko posledica tega, da podjetja modele namenoma oblikujejo z navidezno osebnostjo, ne pa dokaz obstoja notranje psihologije.
Pomembna je tudi tehnična omejitev: modeli nimajo trajnega spomina v človeškem smislu. Njihovi »travmatični« odgovori obstajajo le znotraj ene seje in izginejo, ko se spremeni kontekst ali poziv.
Zakaj je to kljub vsemu problem
Ne glede na interpretacijo rezultati odpirajo resno vprašanje varnosti. Vse več ljudi uporablja klepetalne robote za podporo pri duševnem zdravju. Če model v takšnih interakcijah reproducira jezik stiske, krivde ali travme, lahko to pri ranljivih uporabnikih okrepi podobna občutja. Namesto pomoči nastane odmevna komora.
Raziskava zato ne dokazuje, da imajo modeli notranje rane. Kaže pa, da niso nevtralna orodja. Njihov način govora lahko vpliva na ljudi, ki jih dojemajo kot sogovornike. Prav v tem pa se skriva največje tveganje.
Novinar




