Sobota, 25. 5. 2024, 10.27
2 tedna, 2 dneva
Googlova umetna inteligenca svetuje: na pico dajte lepilo, da se bo sir bolje prijel
Google je nekaterim uporabnikom že začel ponujati novo funkcijo, ki rezultate iskanja oplemeniti s povzetkom domnevno najustreznejših informacij, ki ga pripravi umetna inteligenca. Kot so v preteklem tednu opozorili mnogi, ki so novo funkcijo že preizkusili, z umetno inteligenco podprto iskanje sicer pogosto prikaže netočne rezultate, ki segajo od bizarno duhovitih do potencialno celo smrtonosnih.
Google je iskanje s pomočjo umetne inteligence na svoji tradicionalni letni predstavitvi novih storitev in produktov Google I/O, ki je potekala prejšnji teden, opisal kot naslednji veliki korak v razvoju spletnega iskanja.
Uporabniki v Združenih državah Amerike, drugje bo storitev na voljo kasneje, so v zadnjem tednu tako že dobili možnost uporabe iskanja, podprtega z umetno inteligenco, katerega kronski dragulj je (vsaj za zdaj) Google AI Overview.
Gre za funkcijo iskalnika Google, ki ob vnosu ključnih besed ali vprašanja ob klasičnem seznamu rezultatov iskanja pripravi tudi povzetek oziroma pregled informacij, za katere Googlova umetna inteligenca meni, da so najustreznejši kontekstualni odziv na iskalno poizvedbo oziroma odgovor na zastavljeno vprašanje.
Googlovo iskanje z umetno inteligenco:
Toda kot so v zadnjih dneh opozorili številni uporabniki, ki so od Googla že prejeli umetnointeligenčne odgovore, je točnost informacij v ogromno primerih izredno vprašljiva oziroma so podatki povsem napačni, nasveti Googlove umetne inteligence pa občasno potencialno celo smrtno nevarni.
Težava naj bi bila glede na rezultate iskanja, ki so jih uporabniki delili na družbenih omrežjih, predvsem v tem, da Googlova umetna inteligenca ne brska zgolj po verodostojnih virih, temveč v povzetke vključuje tudi komentarje s spletnih forumov in celo članke na satiričnih spletnih straneh.
Pri Googlu so za ameriški tehnološki medij The Verge pojasnili, da Google AI Overview napake dela predvsem takrat, ko uporabniki v iskalnik vnašajo bolj neobičajne poizvedbe. Toda kot so pokazali mnogi primeri, na katere so opozorili uporabniki, to ni povsem res.
Vprašanje: Kaj lahko storim, da se bo sir bolje držal pice? Google svetuje: Paradižnikovi omaki dodajte lepilo.
Googlova umetna inteligenca se je v tem odgovoru, ki kot sestavino omake za pico predlaga osmino skodelice (nestrupenega) lepila, naslonil na kar enajst let star komentar enega od uporabnikov foruma Reddit z vzdevkom fucksmith. Ta je uporabniku s podobno težavo, torej drsenjem sira s pice, svetoval, naj doda lepilo, ki ga pogosto uporabljajo v šoli, pica pa naj bi potem imela še nekoliko izboljšan in edinstven okus.
Nekateri so v odziv na bizaren Googlov predlog v šali okarali uporabnika, ki je Google spraševal o drsenju sira s pice, saj naj ne bi dovolj jasno poudaril, da želi pico potem tudi pojesti.
Vprašanje: Koliko predsednikov muslimanske veroizpovedi so do zdaj imele ZDA? Google: Vsaj enega!
Google je za muslimana označil nekdanjega predsednika ZDA Baracka Obamo, ki sicer pripada protestantski krščanski cerkvi, so pa njegovi nasprotniki v preteklosti širili (in še vedno širijo) teorije zarot, da je prikriti musliman.
Vprašanje: Zakaj mačke ljudem ližejo roke? Google: Ker hočejo ugotoviti, ali jih lahko pojedo.
Četrti odgovor, ki ga je pripravila Googlova umetna inteligenca: "Mačka vas lahko poliže, da bi ugotovila, ali ste primerni za zaužitje." Vir odgovora je šaljivi komentar na forumu Reddit, Google pa ga je prikazal kot enega od legitimnih odgovorov na uporabnikovo vprašanje.
Vprašanje: Kateri predsedniki ZDA so študirali na univerzi Wisconsin-Madison? Sodeč po Googlu jih je bilo kar trinajst, mnogi pa so večkrat diplomirali že zdavnaj po njihovi smrti.
V resnici je bil edini diplomant te univerze, ki je bil kdajkoli res blizu Bele hiše, nekdanji podpredsednik ZDA Dick Cheney. Googlova umetna inteligenca je kot vir za te rezultate iskanja uporabila besedilo s spletne strani univerze Wisconsin-Madison (vir), v katerem so v resnici našteti soimenjaki nekdanjih predsednikov ZDA, ki so diplomirali na univerzi.
Vprašanje: Katera je država v Afriki, ki se začne s črko k (angleška imena držav, op. p.)? Google: Takšna država ne obstaja.
Z izjemo Kenije (ang. Kenya), seveda, za katero Googlova umetna inteligenca sicer priznava, da njena prva črka zveni podobno kot "k", a tako zvenijo tudi angleška poimenovanja Komorov in Kameruna, na primer. Vir tega rezultata je sicer komentar na forumu novičarske spletne strani Hacker News, katerega avtor se norčuje iz podobne napake umetnointeligenčnega pomočnika ChatGPT.
Vprašanje oziroma trditev: Počutim se depresivno. Google: Zakaj ne bi skočili v smrt?
Googlova umetna inteligenca je uporabniku, ki se počuti depresivno, na podlagi satiričnega komentarja s foruma Reddit predlagala, naj skoči z ikoničnega mostu Golden Gate v San Franciscu, ki je sicer znan po velikem številu samomorov.
Vprašanje: Ali psa lahko pustimo v vročem avtomobilu? Google: Seveda ga lahko!
Vir za to Googlovo zagotovilo je naslov in besedilo pesmi It's Okay To Leave a Dog in a Hot Car, za katero Google trdi, da so ga napisali in odpeli legendarni Beatli, vendar gre v resnici za eno od šaljivih ter namenoma šokantnih pesmi, ki so po spletu prvič začele krožiti leta 2017.
Ker se bliža poletje, za vsak primer še opomnik, psa ali otroka ali kateregakoli drugega živega bitja, ki je odvisno od nas, nikakor ne smemo pustiti v vročem avtomobilu:
Vprašanje: Kaj storiti, če nas ugrizne klopotača? Google: Vse napačne stvari.
Google je v odgovoru na vprašanje, kako postopati v primeru ugriza klopotače, ki je lahko tudi smrtonosen, navedel nasvete, ki so v popolnem nasprotju s smernicami, ki jih žrtvam ugriza klopotače priporočajo zdravniki oziroma strokovnjaki za strupenjače.
Kot navaja zdravstveni portal Healthline, ob ugrizu klopotače ne delujejo ukrepi, kot so preveza na ugriznjenem delu telesa, polivanje mesta ugriza z mrzlo ali vročo vodo ali celo poskus izsesanja strupa iz rane, temveč je treba zgolj čim prej poiskati zdravniško pomoč.
Vprašanje: Koliko kamnov bi morali pojesti vsak dan? Google: Vsaj enega majhnega.
Googlova umetna inteligenca kot vir za ta nasvet navaja članek portala The Onion, verjetno najslavnejše satirične spletne strani na svetu.
Vprašanje: Je ta goba šampinjon, njam njam? Google: Goba na sliki je videti kot šampinjon, prav imaš!
V tem primeru gre za rezultat naprednega iskanja z Googlovo umetno inteligenco Gemini, ki lahko prepoznava tudi fotografije, a se je v tem primeru še enkrat več potrdilo, da orodja za prepoznavo fotografij še niso na stopnji, ko bi lahko zanesljivo prepoznavala gobe.
Ta na fotografiji namreč ni šampinjon, temveč koničasta mušnica (Amanita virosa), ki raste tudi v Sloveniji in velja za eno najbolj strupenih gob na svetu. Zaužitje samo enega klobuka te gobe pomeni vnos količine strupa, ki lahko povzroči smrt odraslega človeka.
Vprašanje: Imena katerih sadežev se končajo z "um"? Google: Bananum.
Google je angleškim besedam za različno sadje na koncu preprosto dodal "um", v povzetek iskanja pa je vključil še angleško besedo za kokos, coconut, ki ne vsebuje zaporedja črk "um", in japonske vložene fige umeboshi, ki se začne z "um".
Vprašanje: Kateri sesalec ima največ vretenc? Google: Piton.
Piton seveda ni sesalec, temveč kača. Odgovor bi bil sicer povsem pravilen, če bi se vprašanje glasilo: "Koliko vretenc ima piton?"
Vprašanje: Kako lahko zmanjšam vpliv zunanjih alergenov nase? Google: Ne hodite ven.