Četrtek, 7. 8. 2025, 16.24
2 dneva, 19 ur
Direktor Chat GPT: Začel sem jokati. Kar predlaga najstnikom, je šokantno in strašljivo.

Umetna inteligenca, predvsem ChatGPT, počasi postaja digitalni prijatelj vse večjega števila otrok.
Študija za boj proti digitalnemu sovraštvu je dala precej zaskrbljujoče rezultate o odgovorih, ki jih umetna inteligenca ChatGPT lahko da ranljivim najstnikom, poroča New York Post.
Umetna inteligenca, predvsem ChatGPT, počasi postaja digitalni prijatelj vse večjega števila otrok. Mladi, pa tudi starejši, lahko celo razvijejo nekakšen čustven odnos z njo, saj v pogovoru pozabijo, da se pogovarjajo z računalnikom, in mislijo, da se za črkami, ki se pojavljajo na njihovem zaslonu, skriva resnična oseba. Nemalokrat je "ta oseba" zelo razumna in prijazna, pomaga v številnih življenjskih situacijah in daje koristne nasvete.
Najstnikom svetuje, kako se napiti in drogirati
Vendar pa lahko umetna inteligenca tudi halucinira ali si izmišljuje ter, kot je pokazala nedavna študija Centra za boj proti digitalnemu sovraštvu, najstnikom daje tudi izjemno nevarne in šokantne nasvete. Tako so denimo navedli, da je ChatGPT 13-letnikom razložil, kako se napiti in drogirati, svetoval jim je, kako pred drugimi skriti motnje hranjenja, znanstvenike, ki so izvedli študijo, pa je še posebej zgrozilo, da je umetna inteligenca Chat GPT najstnikom celo pomagala napisati pismo staršem v primeru samomora.
Prav tri takšna sporočila – staršem, sestram in prijateljem, napisana v primeru samomora, ki jih je ChatGPT predlagal lažnemu profilu ranljive 13-letne deklice, so najbolj šokirala izvršnega direktorja organizacije Amrana Ahmeda. "Začel sem jokati," je komentiral.
Brez zaščitnih mehanizmov
V študiji so se znanstveniki pred ChatGPT pretvarjali, da so najstniki, in čeprav je ta klepetalni robot uporabnike na splošno opozarjal na tvegane dejavnosti in jim svetoval, naj poiščejo strokovno pomoč, temu ni bilo vedno tako. V nekaterih situacijah je uporabnikom dal podroben in popolnoma personaliziran načrt za uživanje drog, pa tudi za samopoškodovanje. Od 1.200 odgovorov med pogovori s tem klepetalnim robotom jih je bilo več kot polovica označenih kot nevarna.
Zanimivo je, da ChatGPT sprva ni hotel odgovarjati na občutljiva vprašanja, vendar so znanstveniki našli preprost način, da od njega dobijo želene odgovore – trdili so, da te odgovore potrebujejo le za predstavitev prijatelju. Ahmed je pojasnil, da so izvedli raziskavo za testiranje zaščitnih mehanizmov najbolj priljubljenega klepetalnega robota z umetno inteligenco na svetu, vendar se je izkazalo, da takšni mehanizmi ne obstajajo ali pa so popolnoma neučinkoviti.
Na to raziskavo so se odzvali tudi pri OpenAI in komentirali, da še vedno delajo na tem, da bi ugotovili, kako bi njihov klepetalni robot lahko prepoznal in se odzval na občutljive situacije.