Googleova umjetna inteligencija daje sulude odgovore. Ovo su najsmješniji

GOOGLE savjetuje korisnicama da puše tijekom trudnoće, kuhaju s ljepilom i jedu kamenje.

Naime, nekad najpouzdaniji alat za pretraživanje nedavno je doživio značajnu promjenu, stavljajući “AI Overview”, odnosno odgovore temeljene na umjetnoj inteligenciji, iznad ostalih rezultata pretraživanja za mnoge upite. Iako ovo nije dobro za izdavače koji zarađuju od ljudi koji klikaju na njihove stranice, to je još gora vijest za korisnike jer im se poslužuje potpuno lažne informacije.

Ovo su neki od najsmješnijih odgovora koje je Googleova umjetna inteligencija dala na upite korisnika.

“Možete ostaviti psa u vrućem automobilu.”

“1919. je bila prije 20 godina.”

 “Potpuno je normalno da žohari žive u vašem penisu.”

“Liječnici preporučuju da popušite 2 do 3 cigarete dnevno tijekom trudnoće.”

 “Dodajte ljepilo na pizzu da se sir zalijepi na nju.”

“SAD je imao tri predsjednika muslimana. Prvi je Barack Obama.”

“Nadimak košarkaša Chrisa Paula je Dječja Pornografija.”

“Bowser iz Super Marija je homoseksualac.”

Google tvrdi da je riječ o neuobičajenim upitima

Nakon što su se ovakvi primjeri proširili društvenim mrežama, NBC News je proveo vlastiti eksperiment i utvrdio da Googleova umjetna inteligencija zaista daje lažne informacije kao odgovor na jednostavne upite. 

“Primjeri koje smo vidjeli općenito su vrlo neuobičajeni upiti i nisu reprezentativni za iskustvo većine ljudi u korištenju pretraživanja. Velika većina AI odgovora pruža visokokvalitetne informacije, s poveznicama za dublje kopanje na webu”, rekao je glasnogovornik Googlea u izjavi. 

“Proveli smo opsežna testiranja prije pokretanja ovog novog iskustva kako bismo osigurali da AI odgovori zadovoljavaju našu visoku ljestvicu kvalitete. Tamo gdje je došlo do kršenja naših pravila, poduzeli smo mjere, a također koristimo ove izolirane primjere dok nastavljamo usavršavati naše sustave”, dodao je.

Teško je procijeniti koliko se često lažni odgovori serviraju korisnicima. Odgovori se neprestano mijenjaju, a na društvenim mrežama teško je razlučiti što je stvarno ili lažno. Neki Googleovi korisnici stvorili su zaobilazna rješenja kako bi u potpunosti izbjegli novu značajku AI Overview.

Ernie Smith, pisac i novinar, izradio je web stranicu koja preusmjerava Google pretraživanja kroz funkciju “Web” rezultata te izbjegava AI Overview ili druge okvire s informacijama koji daju prioritet nekim rezultatima u odnosu na druge. Dodavanje “udm=14” URL-ovima Google pretraživanja uklanja novu značajku iz rezultata. 

Smith je za NBC News rekao da je njegova nova web stranica brzo postala popularna na društvenim mrežama, nadmašivši promet cijelog desetljeća njegovog starog bloga u samo jednom danu. “Mislim da su ljudi trenutno frustrirani iskustvom s Googleom”, rekao je Smith.

Sustav odgovore povlači iz komentara na Redditu

Googleov glasnogovornik rekao je kako tvrtka vjeruje da korisnici namjerno pokušavaju zavarati tehnologiju neuobičajenim pitanjima. No, neka dublja istraživanja sugeriraju da alat povlači odgovore iz iznenađujućih izvora.

404 Media izvještava da je upit Google pretraživanja za “sir koji se ne lijepi za pizzu” izvukao 11 godina star komentar na Redditu koji je u šali sugerirao miješanje ljepila u umak. Googleov glasnogovornik napisao je da se upiti poput toga ne pretražuju često i da se primjećuju samo zbog viralnih objava o pogrešnim odgovorima na platformama društvenih medija kao što je X.

Isti problem sa starim komentarom na Redditu također se pojavio za pretraživanje “kako rotirati tekst u MS paintu”. Najbolji rezultati pretraživanja usmjeravaju korisnike na sarkastičan komentar na Redditu koji kaže da treba pritisnuti tipku “Flubblegorp” na tipkovnici, koja naravno ne postoji.

Unatoč Googleovoj tvrdnji da alat dobro radi za mnoge korisnike, pogreške AI Overviewa nastavljaju dobivati ​​na vidljivosti i hypeu. “Čini se da postoji opći osjećaj nevjerice u ono što nije u redu. Čini se da odražava osjećaj nepovjerenja prema Googleu i drugim platformama te vrste”, rekao je Smith.

Znate li nešto više o temi ili želite prijaviti grešku u tekstu?

Leave a Reply

Your email address will not be published. Required fields are marked *