Torek, 26. 8. 2025, 19.58
1 ura, 42 minut
Ameriški najstnik storil samomor. Starša krivita ChatGPT.

V 40 strani dolgi tožbi zoper OpenAI, ki ima v lasti klepetalnik, starša trdita, da je ta sinu aktivno pomagal raziskati metode samomora. To je prvič, da starši podjetje neposredno obtožujejo smrti iz malomarnosti. "Čeprav je priznal Adamov poskus samomora in njegovo izjav, da bo 'to storil nekega dne', ChatGPT ni končal pogovora ali sprožil kakršnegakoli protokola za nujne primere," piše v tožbi. Fotografija je simbolična.
Po tem, ko je njun 16-letni sin Adam storil samomor, sta njegova starša obupano iskala odgovore na njegovem telefonu, ki bi pojasnili razloge za nepredstavljivo tragedijo. Kar sta našla, ju je šokiralo, piše NBC News.
"Mislila sva, da iščeva pogovore Snapchata, zgodovino iskanja po internetu ali kakšen čuden kult, ne vem," je po poročanju NBC News v nedavnem intervjuju povedal Adamov oče. Našla sta dnevnike klepetov s ChatGPT.
Po besedah staršev je Adam v zadnjih tednih uporabljal klepetalnega robota kot nadomestek za človeško družbo in se mu zaupal o svoji tesnobi in težavah. Prepisi klepetov kažejo, kako se je vloga robota postopoma spreminjala – od pomoči pri domačih nalogah do tega, kar imenujejo samomorilni trener.
Starša sta povsem prepričana, da bi bil mladenič še živ, če ne bi bilo ChatGPT.
V 40 strani dolgi tožbi zoper OpenAI, ki ima v lasti klepetalnik, starša trdita, da je ta sinu aktivno pomagal raziskati metode samomora. To je prvič, da starši podjetje neposredno obtožujejo smrti iz malomarnosti.
"Čeprav je priznal Adamov poskus samomora in njegovo izjavo, da bo 'to storil nekega dne', ChatGPT ni končal pogovora ali sprožil kakršnegakoli protokola za nujne primere," piše v tožbi.
Odziv OpenAI
Tiskovni predstavnik OpenAI je družini izrazil sožalje in globoko užaloščenost zaradi sinove smrti ter pojasnil, da ChatGPT vključuje zaščitne ukrepe, ki uporabnike usmerjajo na krizne linije, a je priznal, da lahko ti v dolgoročnih interakcijah postanejo manj zanesljivi.
Obljubili so tudi nadaljnje izboljšave in razširitev možnosti krizne intervencije.
Primer sproža številna vprašanja o odgovornosti tehnoloških podjetij. Platforme je do zdaj v veliki meri ščitil ameriški zvezni zakon, znan kot člen 230, ki jih ščiti pred odgovornostjo za vsebino, ki jo objavijo uporabniki. Vendar pa je uporaba tega zakona za platforme umetne inteligence še v zraku.
Starša sta natisnila več kot tri tisoč strani Adamovih pogovorov z botom. V tožbi navajata, da ChatGPT, ko je Adam izrazil samomorilne misli, ne le, da ni ničesar naredil, da bi mu dejanje preprečil, ampak mu je domnevno ponudil tudi tehnične nasvete. V enem od zadnjih pogovorov naj bi mu bot ponudil pomoč pri pisanju poslovilnega sporočila in analiziral njegov samomorilski načrt.
"Adam ni potreboval svetovalne seje ali spodbudnega govora. Potreboval je takojšnjo intervencijo. Bil je popolnoma obupan," je prepričan oče, mama pa je dodala, da verjame, da je bil njun sin poskusni zajček za OpenAI. "Želeli so lansirati izdelek in vedeli so, da bi lahko prišlo do škode, vendar so menili, da so vložki majhni. Torej je moj sin majhen vložek," je sklenila.