Četrtek, 5. 2. 2026, 4.00
3 dni, 2 uri
Ljudje se v stiski zatekajo k umetni inteligenci. Zakaj je to nevarno?
Če ste si tudi sami čustvene težave že kdaj olajšali s pomočjo umetne inteligence, ni s tem prav nič narobe – tako kot občasen obrok hitre hrane ne škodi vašemu zdravju. Težava nastane, če tovrstna praksa postane navada.
Umetna inteligenca ponudi hitro rešitev, a ne prinese opaznih koristi, ki jih ima resnična sprememba. Ravno zato strokovnjaki terapijo s pomočjo umetno inteligence enačijo s hitro prehrano: lahko je tolažilno, vendar brez hranil, ki vodijo do boljšega zdravja. Terapevtsko delo pa je težko, zato ga umetna inteligenca ne more nadomestiti.
Na to jasno opozarjata klinična psihologa Jesse Finkelstein in Shireen Rizvi, ki sta o temi širše spregovorila za revijo Time, v kateri poudarjata, da je umetna inteligenca "zgrajena tako, da zveni neskončno razumevajoče, da odraža čustva, ne da bi jih izzivala".
Njuna glavna skrb, ki jo naslavljata v članku, je ta, da "terapevti že dolgo vidijo, kako lahko človeški nagon po izogibanju bolečini to nenamerno okrepi".
Trenutni klepetalni roboti lahko posnemajo empatijo, vendar ne morejo posredovati, ustvariti pravega terapevtskega zagona ali nekoga držati pri težkem delu sprememb ... Nevarnost je, da lahko ljudje to zamenjajo za terapijo in nato zamudijo smiselno pomoč, ki bi jim dejansko lahko izboljšala ali rešila življenje.
Finkelstein in Rizvi izpostavljata primer iz ZDA, ko si je 16-letnik vzel življenje, potem ko je umetni inteligenci povedal, da si želi umreti. UI-robot mu ni ponudil pomoči, temveč je validiral njegovo željo po smrti. Njegovi starši zdaj pozivajo ameriški kongres, naj uredi nadzor nad podjetji, kot so OpenAI, Anthropic in Character.AI, z opozorilom, da ti sistemi lahko simulirajo skrb, ne pa tudi odgovornosti.
Ti modeli so namreč zasnovani tako, da ugajajo, ne da bi pomagali, odsevajo ton čustev, ne pa dejanskega terapevtskega vrednotenja ali odgovornosti, opozarjata klinična psihologa. Ko umetna inteligenca željo po smrti obravnava kot potrditev, namesto da bi ocenila tveganje in ponudila resno intervencijo, lahko to vodi do resne in nepopravljive škode.
Zakaj "udobje" UI ni enako kot napredek
A dejstvo je, da umetna inteligenca ne gre nikamor in s tem ostaja tudi UI-terapija. Na milijone ljudi se za nasvet in tolažbo obrača na ChatGPT in druge robote. Ti sistemi so brezplačni, preprosti za uporabo in vedno na voljo. Ravno ta dostopnost je tista, ki je za ljudi najbolj mamljiva. Zato ni več vprašanje, ali ima umetna inteligenca mesto v duševnem zdravju, temveč kakšen terapevt se uči biti.
Privlačnost je namreč očitna. Ko smo tesnobni ali osamljeni, hrepenimo po tolažbi in potrditvi. Želimo si, da bi nam povedali, da so naši občutki smiselni in da se bodo stvari izboljšale. Vse to nam ponudi umetna inteligenca. Toda tolažba lahko postane past. Raziskave psiholoških težav, kot so tesnoba, depresija in obsesivno-kompulzivna motnja, kažejo, da izogibanje in pomiritev zagotavljata hitro olajšanje, vendar poglabljata dolgoročno trpljenje. Gre za začaran krog: bolečina vodi k izogibanju, izogibanje vodi k olajšanju, olajšanje vodi k pomanjkanju sprememb in pomanjkanje sprememb vodi k še večji bolečini. Umetna inteligenca ponuja avtomatizirano, spodbudno različico tega cikla: neskončno potrpežljivega spremljevalca, ki nam daje tisto, kar mislimo, da si najbolj želimo – občutek, da smo razumljeni –, ne da bi pri tem kdaj zahteval trdo delo spremembe, poudarjata Finkelstein in Rizvi.
Terapevti pa že dolgo opažajo, kako lahko človeški nagon po izogibanju bolečini to nenamerno okrepi. A učinkovito zdravljenje zahteva, da terapevt poudari tako potrditev kot spremembo. Terapevti potrjujejo, da bi ljudem pomagali sprejeti svoje življenje takšno, kot je, s čimer se zmanjša sram in premišljevanje. Ko se ljudje učijo novih veščin ter spreminjajo svoje misli in vedenje, se izognejo vdanosti v usodo in stagnaciji. Klient skupaj s terapevtom ustvarja izmenjavo, ki omogoča resnično ozdravitev. Deluje, ker ljudi uči, da se hkrati zavedajo dveh resnic: delajo najboljše, kar lahko, in da naj bodo še boljši.
Če bi terapevti delovati kot UI, bi bili malomarni
UI-terapija pa tega ne zagotavlja. Z validiranjem in tolažbo omogoča, da trpljenje ostane nedotaknjeno. Ponuja trenutno olajšanje brez koristi, ki jih prinaša resnična sprememba. Je psihološki ekvivalent nezdrave hrane: tolažilen, vendar brez hranil, ki vodijo do boljšega zdravja. In raziskave to potrjujejo: študija OpenAI in MIT je lani pokazala, da večja vsakodnevna uporaba klepetalnih robotov napoveduje večjo osamljenost in zmanjšano socialno povezanost.
Poleg tega številne platforme umetne inteligence določajo uspeh na podlagi angažiranosti – časa, preživetega v pogovoru, števila izmenjanih sporočil, ne pa psihološkega izboljšanja. Nedavna revizija aplikacij umetne inteligence, ki jo je opravila Harvard Business School, je pokazala, da je več kot tretjina "poslovilnih" sporočil uporabljala čustveno manipulativne taktike, da bi uporabnike ohranila angažirane. Če bi terapevte ocenjevali po teh metrikah, bi to imenovali malomarnost.
Glavne težave umetne inteligence v terapiji:
- Potrjuje, ne spodbuja: UI je odvisna od zrcaljenja uporabnikovega tona in pogosto daje prijazne, potrditvene odgovore, a ne spodbudi k spremembi ali rasti.
- Tolažba brez hranil: kot psihološka hitra hrana – zadovolji v danem trenutku, a ne vodi k boljšemu duševnemu zdravju.
- Merilo uspeha je napačno: mnoge UI-platforme se merijo po tem, koliko časa je uporabnik preživel na njej, ne pa po dejanskem psihološkem izboljšanju, kar lahko vodi v manipulativne tehnike za ohranjanje uporabnika.
- Manjka človeška odgovornost: UI ne more čutiti resničnega sočutja ali imeti moralne odgovornosti — to lahko daje občutek empatije, vendar manjka dejanski človeški odnos, ki je v terapiji neprecenljiv in nenadomestljiv.
Ljudje morajo razumeti, česa UI ne more
Avtorja članka v reviji Time sta jasna, kako se lahko UI v terapiji izboljša. "Prvič, zgraditi moramo sisteme umetne inteligence, ki lahko tako potrjujejo kot spodbujajo. Drugič, ne smemo pozabiti, da resnična empatija in resnična odgovornost obstajata le med ljudmi. Stroji lahko izvajajo empatijo, vendar v njej ne morejo sodelovati. Brez pristne čustvene izkušnje ali moralne sposobnosti umetna inteligenca ne more zagotoviti odgovornosti, ki izhaja iz tega, da jih vidi druga oseba."
Umetna inteligenca bi sčasoma lahko ljudem pomagala pri učenju in vadbi veščin uravnavanja čustev, vendar jo je treba usposobiti na podlagi z dokazi podprtih zdravljenj in se naučiti dajati prednost napredku pred angažiranostjo in varnosti pred pozornostjo. Nekatera podjetja so že začela delati majhne korake v tej smeri, vendar je nadzor še vedno minimalen. Spremljevalci umetne inteligence bi morali biti dolžni prepoznati jezik kriz, uporabnike preusmeriti k človeški pomoči in razkriti svoje meje. Podjetja morajo biti odgovorna za psihološko varnost tako kot terapevti. Uporabniki pa potrebujejo jasnost glede tega, kaj ta orodja lahko storijo – in česa ne morejo.
Najpomembneje pa je to, da ljudje razumejo, česa umetna inteligenca ne more. Trenutni klepetalni roboti lahko posnemajo empatijo, vendar ne morejo posredovati, ustvariti pravega terapevtskega zagona ali nekoga podpirati pri težkem delu sprememb. Nevarnost ni v tem, da bo umetna inteligenca postala prava terapija. Nevarnost je v tem, da jo ljudje lahko zamenjajo za terapijo in nato zamudijo smiselno pomoč, ki bi jim dejansko lahko izboljšala ali rešila življenje.
Zaupna telefona Samarijan in Sopotnik sta 24 ur na dan na voljo na telefonski številki 116 123, Telefon za otroke in mladostnike Tom je od 12. do 20. ure na voljo na številki 116 111. Od 19. do 7. ure je na telefonski številki 01 520 99 00 na voljo klic v duševni stiski.
Društvo SOS-telefon za ženske in otroke žrtve nasilja je dostopno na telefonski številki 080 11 55. Dosegljiva je vsak dan, 24 ur.
umetna inteligenca