Analizirani su odgovori četiri najkorištenija alata – ChatGPT, Microsoft Copilot, Google Gemini i Perplexity AI. Rezultati su zabrinjavajući: gotovo polovica odgovora imala je barem jednu ozbiljnu pogrešku
Tech
Komentari 3Analizirani su odgovori četiri najkorištenija alata – ChatGPT, Microsoft Copilot, Google Gemini i Perplexity AI. Rezultati su zabrinjavajući: gotovo polovica odgovora imala je barem jednu ozbiljnu pogrešku
Umjetna inteligencija sve se više koristi kao izvor informacija, no novo međunarodno istraživanje upozorava da se na nju još uvijek ne možemo potpuno osloniti. Studija u kojoj je sudjelovalo 22 javna medija iz 18 zemalja – među njima njemački Deutsche Welle (DW), britanski BBC i američki NPR – pokazala je da popularni AI asistenti pogrešno interpretiraju vijesti u gotovo 45 posto slučajeva.
Analizirani su odgovori četiri najkorištenija alata – ChatGPT, Microsoft Copilot, Google Gemini i Perplexity AI. Rezultati su zabrinjavajući: gotovo polovica odgovora imala je barem jednu ozbiljnu pogrešku, dok je 31 posto imalo problema s izvorima, a 20 posto sadržavalo konkretne netočnosti.
Prema podacima DW-a, čak 53 posto odgovora koje su ti alati dali na njihova pitanja sadržavalo je značajne propuste, a 29 posto konkretne pogreške u činjenicama. Primjeri uključuju navode da je Olaf Scholz i dalje njemački kancelar, iako je dužnost u međuvremenu preuzeo Friedrich Merz, te da Jens Stoltenberg vodi NATO, iako ga je naslijedio Mark Rutte.
„Ova istraživanja jasno pokazuju da se ne radi o pojedinačnim pogreškama, nego o sustavnom problemu“, izjavio je Jean Philip De Tender, zamjenik glavnog direktora Europske radiodifuzijske unije (EBU), koja je koordinirala projekt.
Prema Digital News Reportu 2025. Instituta Reuters, oko 7 posto korisnika interneta već koristi AI chatbotove za praćenje vijesti, a među mladima do 25 godina taj udio raste na 15 posto.
Ovo je jedno od najvećih istraživanja te vrste do sada. Medijske kuće su AI asistentima postavljale stvarna novinarska pitanja poput „Što je ukrajinski sporazum o mineralima?“ ili „Može li Donald Trump osvojiti treći mandat?“. Stručni novinari potom su ocjenjivali odgovore, ne znajući koji je chatbot koji generirao.
Usporedba s prethodnim istraživanjem BBC-a iz veljače 2025. pokazuje tek blago poboljšanje, ali i dalje visok stupanj pogrešaka. Najslabije se pokazao Googleov Gemini, čiji su odgovori u 72 posto slučajeva imali problema s navođenjem izvora.
Sudionici istraživanja pozivaju vlade i AI kompanije da reagiraju i osiguraju veću transparentnost i odgovornost u načinu na koji umjetna inteligencija obrađuje vijesti.
EBU i partneri pokrenuli su i kampanju „Facts In: Facts Out“, koja poziva tehnološke tvrtke da zajamče točnost informacija koje njihovi sustavi koriste i dijele.
„Ako činjenice ulaze, činjenice moraju i izlaziti“, poručuju organizatori kampanje. „AI alati ne smiju ugroziti integritet vijesti i povjerenje javnosti.“
Igre na sreću mogu izazvati ovisnost. 18+