To je to što me zanima!

Izmišljotine i halucinacije: Studija otkrila da AI chatbotovi često iskrivljuju informacije

Analizirani su odgovori četiri najkorištenija alata – ChatGPT, Microsoft Copilot, Google Gemini i Perplexity AI. Rezultati su zabrinjavajući: gotovo polovica odgovora imala je barem jednu ozbiljnu pogrešku
Vidi originalni članak

Umjetna inteligencija sve se više koristi kao izvor informacija, no novo međunarodno istraživanje upozorava da se na nju još uvijek ne možemo potpuno osloniti. Studija u kojoj je sudjelovalo 22 javna medija iz 18 zemalja – među njima njemački Deutsche Welle (DW), britanski BBC i američki NPR – pokazala je da popularni AI asistenti pogrešno interpretiraju vijesti u gotovo 45 posto slučajeva.

Analizirani su odgovori četiri najkorištenija alata – ChatGPT, Microsoft Copilot, Google Gemini i Perplexity AI. Rezultati su zabrinjavajući: gotovo polovica odgovora imala je barem jednu ozbiljnu pogrešku, dok je 31 posto imalo problema s izvorima, a 20 posto sadržavalo konkretne netočnosti.

Prema podacima DW-a, čak 53 posto odgovora koje su ti alati dali na njihova pitanja sadržavalo je značajne propuste, a 29 posto konkretne pogreške u činjenicama. Primjeri uključuju navode da je Olaf Scholz i dalje njemački kancelar, iako je dužnost u međuvremenu preuzeo Friedrich Merz, te da Jens Stoltenberg vodi NATO, iako ga je naslijedio Mark Rutte.

OGROMAN POSAO Spoj AI divova: Nvidia se kladi na ChatGPT i ulaže čak 100 milijardi dolara u kompaniju

Sustavni problem, ne izolirani slučajevi

„Ova istraživanja jasno pokazuju da se ne radi o pojedinačnim pogreškama, nego o sustavnom problemu“, izjavio je Jean Philip De Tender, zamjenik glavnog direktora Europske radiodifuzijske unije (EBU), koja je koordinirala projekt.

Prema Digital News Reportu 2025. Instituta Reuters, oko 7 posto korisnika interneta već koristi AI chatbotove za praćenje vijesti, a među mladima do 25 godina taj udio raste na 15 posto.

Veliko istraživanje javnih medija

Ovo je jedno od najvećih istraživanja te vrste do sada. Medijske kuće su AI asistentima postavljale stvarna novinarska pitanja poput „Što je ukrajinski sporazum o mineralima?“ ili „Može li Donald Trump osvojiti treći mandat?“. Stručni novinari potom su ocjenjivali odgovore, ne znajući koji je chatbot koji generirao.

Usporedba s prethodnim istraživanjem BBC-a iz veljače 2025. pokazuje tek blago poboljšanje, ali i dalje visok stupanj pogrešaka. Najslabije se pokazao Googleov Gemini, čiji su odgovori u 72 posto slučajeva imali problema s navođenjem izvora.

UVODE RODITELJSKE KONTROLE Ovo bi moglo spasiti živote: Roditelji će uskoro moći vidjeti što djeca ispituju na ChatGPT-u

Poziv na djelovanje

Sudionici istraživanja pozivaju vlade i AI kompanije da reagiraju i osiguraju veću transparentnost i odgovornost u načinu na koji umjetna inteligencija obrađuje vijesti.

EBU i partneri pokrenuli su i kampanju „Facts In: Facts Out“, koja poziva tehnološke tvrtke da zajamče točnost informacija koje njihovi sustavi koriste i dijele.

„Ako činjenice ulaze, činjenice moraju i izlaziti“, poručuju organizatori kampanje. „AI alati ne smiju ugroziti integritet vijesti i povjerenje javnosti.“

Idi na 24sata

Komentari 3

  • ALEN65 22.10.2025.

    Dokle god program nema kritičko i samokritičko razmišljanje, nije AI

  • kajropraktik 22.10.2025.

    isto kao i novinari

Komentiraj...
Vidi sve komentare