Umjetna inteligencija izmišlja svaki treći odgovor

Umjetna inteligencija izmišlja svaki treći odgovor
N&P:D.A.

Novo istraživanje Europske radio signalne unije otkriva alarmantne stope pogrešaka među popularnim AI chatbotovima. Sustavi redovito izmišljaju informacije, pa čak i navode lažne izvore.

Pitali su ChatGPT o rezultatima izbora, traže od Claudea da sažme vijesti ili od Perplexityja traže pozadinske informacije o sukobu na Bliskom istoku: Milijuni Nijemaca svakodnevno se oslanjaju na AI chatbotove kao izvore informacija. 800 milijuna ljudi diljem svijeta koristi samo ChatGPT svaki tjedan. Za mnoge, digitalni asistenti već zamjenjuju tradicionalne Google pretrage.

Ali to povjerenje je rizično, kako pokazuje nedavna studija Europske radiodifuzne unije (EBU). Udruženje 68 javnih emitera iz 56 zemalja sustavno je testiralo pouzdanost najpopularnijih AI sustava.

Alarmantan rezultat: ChatGPT, Claude, Gemini i drugi chatbotovi izmišljaju do 40 posto svojih odgovora i predstavljaju ih kao činjenice.

Halucinacije: AI uvjerljivo laže

Popularni chatbot ChatGPT čvrsto tvrdi da je Papa Franjo još uvijek živ. Microsoft Copilot, prisutan u uredskim programima Word i Excel, između ostalih, ne zna da je Švedska u NATO-u. A Google Gemini smatra ponovni izbor Donalda Trumpa “mogućim”, iako se to odavno dogodilo.

“Sustavi zvuče uvjerljivo, iako opetovano tvrde potpuno lažne stvari”, upozorava ekonomist Peter Posch s Tehničkog sveučilišta u Dortmundu. “To ih čini posebno opasnima za neiskusne korisnike jer pogreške često nisu odmah vidljive.”

Takve pogreške mogu nastati na dva načina: Prvo, odgovori AI-a ponekad se temelje na zastarjelim podacima o obuci. Chatbotovi poput ChatGPT-a obučavani su s tekstovima starim nekoliko mjeseci ili godina – slično tražilici koja nije ažurirana tri godine. Ono što je tada bilo istina danas je možda odavno zastarjelo.

S druge strane, postoje i prave halucinacije: AI spaja nedostajuće informacije generirajući statistički vjerojatne nizove riječi – čak i ako su oni činjenično netočni. Ponekad čak izmišlja izvore koji ne postoje ili povezuje činjenice koje ne pripadaju zajedno.

Moderni chatbotovi sada mogu provoditi ažurna online istraživanja ako se to izričito zatraži u unosu (tzv. “prompt”). Tada često daju pouzdanije rezultate. Ali mnogi korisnici nisu svjesni toga – a umjetna inteligencija ne traži automatski ažurne informacije osim ako se to ne zatraži. Studija je imala za cilj istražiti upravo to.

Prijetnja demokraciji

Ali što to znači za društvo u kojem sve više ljudi dobiva informacije od chatbotova? Posljedice su već vidljive: Lažne informacije se brzo šire društvenim mrežama jer korisnici dijele “činjenice” generirane umjetnom inteligencijom bez provjere. Učenici i studenti uključuju izmišljene informacije u svoj rad. Građani mogu donositi odluke o glasanju na temelju lažnih tvrdnji.

Ono što je posebno podmuklo jest to što mnogi korisnici nisu ni svjesni da chatbotovi mogu halucinirati. Pretpostavljaju da tehnologija radi objektivno i činjenično – opasna zabluda. Sustavi umjetne inteligencije upozoravaju na potencijalne pogreške u svojim uvjetima korištenja, ali tko ih čita?

Šteta uglednom novinarstvu

Drugi problem odnosi se na kredibilitet etabliranih medija. Chatbotovi redovito tvrde da njihove izmišljene informacije dolaze s ARD-a, ZDF-a ili Tagesschaua, iako te novinske kuće nikada nisu izvijestile o tome – ili o nečem sasvim drugom. Korisnici gube povjerenje u ugledne izvore kada umjetna inteligencija zloupotrijebi njihova imena za širenje lažnih informacija.

Studija EBU-a testirala je chatbotove sa stotinama činjeničnih pitanja: o povijesnim događajima, znanstvenim nalazima i aktualnim vijestima. Ovisno o temi, stopa pogrešaka kretala se od 15 do 40 posto. Nijedna od testiranih umjetne inteligencije nije se besprijekorno pokazala.

Zašto je umjetna inteligencija u krivu

Problem leži u sustavu: Chatbotovi zapravo ne razumiju što govore. Na temelju ogromnih količina teksta izračunavaju koje će se riječi vjerojatno slagati. Ne mogu provjeriti je li rezultirajuća izjava istinita. Nemaju činjenično znanje, samo statističke obrasce.

Tehnološke tvrtke svjesne su ovih nedostataka i rade na rješenjima. Integriraju baze podataka, poboljšavaju izvorne informacije i ponovno obučavaju sustave. Milijarde se ulažu u razvoj. Ipak, halucinacije ostaju temeljni, neriješeni problem tehnologije.

Što korisnici mogu učiniti sada

EBU preporučuje jasna pravila za postupanje s chatbotovima: Nikada ne vjerujte slijepo. Uvijek dvaput provjerite važne informacije. Za vijesti i činjenice oslanjajte se na etablirane medije, a ne na umjetnu inteligenciju. Oprez se posebno preporučuje kada su u pitanju političke teme, zdravstveni problemi ili financijske odluke.

Škole i sveučilišta moraju podučavati medijsku pismenost: Kako prepoznati dezinformacije koje generira umjetna inteligencija? Koji su izvori pouzdani? Njemačka vlada planira kampanje za podizanje svijesti, ali one stižu kasno. Milijuni ljudi već dugo koriste tehnologiju svaki dan.

Dok tehnologija ne postane pouzdanija, vrijedi sljedeće: Chatbotovi mogu biti korisni za kreativne zadatke ili kao pomagala za pisanje. Nisu prikladni kao provjeravači činjenica ili izvori vijesti, ili se barem nitko ne bi trebao oslanjati na njih 100 posto.

Ako želite ostati informirani, ne možete izbjegavati ugledne medije u kojima rade ljudski urednici, provjeravaju izvore i procjenjuju tvrdnje i dokaze. Digitalna revolucija može promijeniti mnogo toga, ali potreba za pažljivim istraživanjem ostaje.



https://presseportal.zdf.de/pressemitteilung/internationale-studie-unter-gemeinsamer-beteiligung-von-ard-und-zdf-zur-nachrichtenqualitaet-von-ki-systemen

https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf

Izvor: tagesschau.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.