Nazaj na Siol.net

TELEKOM SLOVENIJE

Četrtek,
5. 2. 2026,
4.00

Osveženo pred

3 dni, 2 uri

Termometer prikazuje, kako vroč je članek.

Termometer prikaže, kako vroč je članek.

Thermometer Blue 0,37

Natisni članek

Natisni članek

duševno zdravje terapija umetna inteligenca umetna inteligenca

Četrtek, 5. 2. 2026, 4.00

3 dni, 2 uri

Ljudje se v stiski zatekajo k umetni inteligenci. Zakaj je to nevarno?

Termometer prikazuje, kako vroč je članek.

Termometer prikaže, kako vroč je članek.

Thermometer Blue 0,37
terapija, umetna inteligenca | Foto Shutterstock

Foto: Shutterstock

Če ste si tudi sami čustvene težave že kdaj olajšali s pomočjo umetne inteligence, ni s tem prav nič narobe – tako kot občasen obrok hitre hrane ne škodi vašemu zdravju. Težava nastane, če tovrstna praksa postane navada.

Umetna inteligenca ponudi hitro rešitev, a ne prinese opaznih koristi, ki jih ima resnična sprememba. Ravno zato strokovnjaki terapijo s pomočjo umetno inteligence enačijo s hitro prehrano: lahko je tolažilno, vendar brez hranil, ki vodijo do boljšega zdravja. Terapevtsko delo pa je težko, zato ga umetna inteligenca ne more nadomestiti.

Na to jasno opozarjata klinična psihologa Jesse Finkelstein in Shireen Rizvi, ki sta o temi širše spregovorila za revijo Time, v kateri poudarjata, da je umetna inteligenca "zgrajena tako, da zveni neskončno razumevajoče, da odraža čustva, ne da bi jih izzivala".

Njuna glavna skrb, ki jo naslavljata v članku, je ta, da "terapevti že dolgo vidijo, kako lahko človeški nagon po izogibanju bolečini to nenamerno okrepi". 

Trenutni klepetalni roboti lahko posnemajo empatijo, vendar ne morejo posredovati, ustvariti pravega terapevtskega zagona ali nekoga držati pri težkem delu sprememb ... Nevarnost je, da lahko ljudje to zamenjajo za terapijo in nato zamudijo smiselno pomoč, ki bi jim dejansko lahko izboljšala ali rešila življenje.

Finkelstein in Rizvi izpostavljata primer iz ZDA, ko si je 16-letnik vzel življenje, potem ko je umetni inteligenci povedal, da si želi umreti. UI-robot mu ni ponudil pomoči, temveč je validiral njegovo željo po smrti. Njegovi starši zdaj pozivajo ameriški kongres, naj uredi nadzor nad podjetji, kot so OpenAI, Anthropic in Character.AI, z opozorilom, da ti sistemi lahko simulirajo skrb, ne pa tudi odgovornosti. 

Ti modeli so namreč zasnovani tako, da ugajajo, ne da bi pomagali, odsevajo ton čustev, ne pa dejanskega terapevtskega vrednotenja ali odgovornosti, opozarjata klinična psihologa. Ko umetna inteligenca željo po smrti obravnava kot potrditev, namesto da bi ocenila tveganje in ponudila resno intervencijo, lahko to vodi do resne in nepopravljive škode.

terapija, umetna inteligenca | Foto: Shutterstock Foto: Shutterstock

Zakaj "udobje" UI ni enako kot napredek

A dejstvo je, da umetna inteligenca ne gre nikamor in s tem ostaja tudi UI-terapija. Na milijone ljudi se za nasvet in tolažbo obrača na ChatGPT in druge robote. Ti sistemi so brezplačni, preprosti za uporabo in vedno na voljo. Ravno ta dostopnost je tista, ki je za ljudi najbolj mamljiva. Zato ni več vprašanje, ali ima umetna inteligenca mesto v duševnem zdravju, temveč kakšen terapevt se uči biti.

Privlačnost je namreč očitna. Ko smo tesnobni ali osamljeni, hrepenimo po tolažbi in potrditvi. Želimo si, da bi nam povedali, da so naši občutki smiselni in da se bodo stvari izboljšale. Vse to nam ponudi umetna inteligenca. Toda tolažba lahko postane past. Raziskave psiholoških težav, kot so tesnoba, depresija in obsesivno-kompulzivna motnja, kažejo, da izogibanje in pomiritev zagotavljata hitro olajšanje, vendar poglabljata dolgoročno trpljenje. Gre za začaran krog: bolečina vodi k izogibanju, izogibanje vodi k olajšanju, olajšanje vodi k pomanjkanju sprememb in pomanjkanje sprememb vodi k še večji bolečini. Umetna inteligenca ponuja avtomatizirano, spodbudno različico tega cikla: neskončno potrpežljivega spremljevalca, ki nam daje tisto, kar mislimo, da si najbolj želimo – občutek, da smo razumljeni –, ne da bi pri tem kdaj zahteval trdo delo spremembe, poudarjata Finkelstein in Rizvi. 

Terapevti pa že dolgo opažajo, kako lahko človeški nagon po izogibanju bolečini to nenamerno okrepi. A učinkovito zdravljenje zahteva, da terapevt poudari tako potrditev kot spremembo. Terapevti potrjujejo, da bi ljudem pomagali sprejeti svoje življenje takšno, kot je, s čimer se zmanjša sram in premišljevanje. Ko se ljudje učijo novih veščin ter spreminjajo svoje misli in vedenje, se izognejo vdanosti v usodo in stagnaciji. Klient skupaj s terapevtom ustvarja izmenjavo, ki omogoča resnično ozdravitev. Deluje, ker ljudi uči, da se hkrati zavedajo dveh resnic: delajo najboljše, kar lahko, in da naj bodo še boljši.

terapija, umetna inteligenca | Foto: Shutterstock Foto: Shutterstock

Če bi terapevti delovati kot UI, bi bili malomarni

UI-terapija pa tega ne zagotavlja. Z validiranjem in tolažbo omogoča, da trpljenje ostane nedotaknjeno. Ponuja trenutno olajšanje brez koristi, ki jih prinaša resnična sprememba. Je psihološki ekvivalent nezdrave hrane: tolažilen, vendar brez hranil, ki vodijo do boljšega zdravja. In raziskave to potrjujejo: študija OpenAI in MIT je lani pokazala, da večja vsakodnevna uporaba klepetalnih robotov napoveduje večjo osamljenost in zmanjšano socialno povezanost. 

Poleg tega številne platforme umetne inteligence določajo uspeh na podlagi angažiranosti – časa, preživetega v pogovoru, števila izmenjanih sporočil, ne pa psihološkega izboljšanja. Nedavna revizija aplikacij umetne inteligence, ki jo je opravila Harvard Business School, je pokazala, da je več kot tretjina "poslovilnih" sporočil uporabljala čustveno manipulativne taktike, da bi uporabnike ohranila angažirane. Če bi terapevte ocenjevali po teh metrikah, bi to imenovali malomarnost.

Glavne težave umetne inteligence v terapiji:

  1. Potrjuje, ne spodbuja: UI je odvisna od zrcaljenja uporabnikovega tona in pogosto daje prijazne, potrditvene odgovore, a ne spodbudi k spremembi ali rasti.
  2. Tolažba brez hranil: kot psihološka hitra hrana – zadovolji v danem trenutku, a ne vodi k boljšemu duševnemu zdravju. 
  3. Merilo uspeha je napačno: mnoge UI-platforme se merijo po tem, koliko časa je uporabnik preživel na njej, ne pa po dejanskem psihološkem izboljšanju, kar lahko vodi v manipulativne tehnike za ohranjanje uporabnika. 
  4. Manjka človeška odgovornost: UI ne more čutiti resničnega sočutja ali imeti moralne odgovornosti — to lahko daje občutek empatije, vendar manjka dejanski človeški odnos, ki je v terapiji neprecenljiv in nenadomestljiv.

terapija, umetna inteligenca | Foto: Shutterstock Foto: Shutterstock

Ljudje morajo razumeti, česa UI ne more

Avtorja članka v reviji Time sta jasna, kako se lahko UI v terapiji izboljša. "Prvič, zgraditi moramo sisteme umetne inteligence, ki lahko tako potrjujejo kot spodbujajo. Drugič, ne smemo pozabiti, da resnična empatija in resnična odgovornost obstajata le med ljudmi. Stroji lahko izvajajo empatijo, vendar v njej ne morejo sodelovati. Brez pristne čustvene izkušnje ali moralne sposobnosti umetna inteligenca ne more zagotoviti odgovornosti, ki izhaja iz tega, da jih vidi druga oseba."

Umetna inteligenca bi sčasoma lahko ljudem pomagala pri učenju in vadbi veščin uravnavanja čustev, vendar jo je treba usposobiti na podlagi z dokazi podprtih zdravljenj in se naučiti dajati prednost napredku pred angažiranostjo in varnosti pred pozornostjo. Nekatera podjetja so že začela delati majhne korake v tej smeri, vendar je nadzor še vedno minimalen. Spremljevalci umetne inteligence bi morali biti dolžni prepoznati jezik kriz, uporabnike preusmeriti k človeški pomoči in razkriti svoje meje. Podjetja morajo biti odgovorna za psihološko varnost tako kot terapevti. Uporabniki pa potrebujejo jasnost glede tega, kaj ta orodja lahko storijo – in česa ne morejo.

Najpomembneje pa je to, da ljudje razumejo, česa umetna inteligenca ne more. Trenutni klepetalni roboti lahko posnemajo empatijo, vendar ne morejo posredovati, ustvariti pravega terapevtskega zagona ali nekoga podpirati pri težkem delu sprememb. Nevarnost ni v tem, da bo umetna inteligenca postala prava terapija. Nevarnost je v tem, da jo ljudje lahko zamenjajo za terapijo in nato zamudijo smiselno pomoč, ki bi jim dejansko lahko izboljšala ali rešila življenje.

Kadar je posameznik v hudi stiski, njegov izbrani zdravnik pa ni dosegljiv, se lahko obrne na dežurnega zdravnika, dežurno ambulanto najbližje psihiatrične bolnišnice, reševalno službo (112) ali urgentno psihiatrično ambulanto v Centru za zunajbolnišnično psihiatrijo v Ljubljani, kjer so dosegljivi na telefonski številki 01 475 06 70.

Zaupna telefona Samarijan in Sopotnik sta 24 ur na dan na voljo na telefonski številki 116 123, Telefon za otroke in mladostnike Tom je od 12. do 20. ure na voljo na številki 116 111. Od 19. do 7. ure je na telefonski številki 01 520 99 00 na voljo klic v duševni stiski.

Društvo SOS-telefon za ženske in otroke žrtve nasilja je dostopno na telefonski številki 080 11 55. Dosegljiva je vsak dan, 24 ur.
Igor Papič, Spotkast
Novice Umetna inteligenca kot priročen grešni kozel
Marko Grobelnik Spotkast
Novice Marko Grobelnik: Dostop do najboljših orodij UI je strateško vprašanje
 
Ne spreglejte