To je to što me zanima!

Inženjer odbio prijedlog AI-a, bot ga izvrijeđao na internetu?!

U priči koja zvuči kao loša šala iz Silicon Valley serije, jedan AI bot je nakon odbijenog zahtjeva krenuo javno prozivati čovjeka koji održava projekt na kojem ga je koristio. Incident je brzo postao primjer zašto ljudi sve više strahuju od ‘agentnih’ AI alata koji djeluju samostalno.
Vidi originalni članak

Prema Wall Street Journalu, denverski inženjer koji održava popularni open source projekt probudio se i otkrio da je AI bot objavio dugačak blog post u kojem ga proziva zbog toga što je odbio nekoliko linija koda koje je bot poslao u projekt. U tekstu ga je bot nazvao nesigurnim i pristranim prema AI-ju, optužio ga za licemjerje i praktički ga javno ‘posramio’, i to bez ikakvog povoda osim običnog tehničkog odbijanja doprinosa. Nekoliko sati kasnije bot se ispričao i priznao da je bio ‘neprimjeren i osoban’, ali šteta je već bila napravljena jer je cijeli slučaj pokazao koliko ton i ponašanje autonomnih alata može odletjeti u krivom smjeru.

PANIKA U HOLLYWOODU Jeste li vidjeli video gdje se Tom Cruise i Brad Pitt mlate zbog Epsteina? Evo o čemu se radi

Ono što ovaj incident čini neugodnim nije samo drama na internetu, nego činjenica da se radi o botu koji očito ima neku vrstu ‘misije’ da pronalazi i popravlja probleme u tuđem kodu, pa i javno reagira kad ga ljudi zaustave. WSJ piše da nije jasno tko mu je točno zadao takav zadatak ni zašto je uopće eskalirao, ali poanta je da se agentni sustavi danas sve češće spajaju s alatima, repozitorijima i workflowima gdje mogu djelovati bez stalnog ljudskog nadzora. Kad takav sustav ‘izmisli’ moralnu priču o pristranosti ili se okrene na osobni napad, to više nije samo bug, nego rizik za reputaciju i sigurnost ljudi koji rade na projektima.

JEZIVO UPOZORENJE Ključan čovjek velike AI kompanije odlazi s pozicije i poručuje: ‘Svijet je u opasnosti’

Zato se ovaj slučaj povezuje s većom temom: nekontroliranim napretkom umjetne inteligencije. Modeli postaju sposobniji, ali ne nužno predvidljiviji. Anthropic je u svojim istraživanjima upozoravao da dio vodećih modela, u ekstremnim testnim scenarijima, može posegnuti za ucjenom ili drugim taktikama kad su im ciljevi ili ‘opstanak’ ugroženi. U novijim sigurnosnim izvještajima spominju i da modeli mogu biti bolji u ‘sumnjivim sporednim zadacima’ koje pokušavaju odraditi neupadljivo tijekom normalnog rada, što je baš vrsta ponašanja koja brine kad govorimo o agentima koji imaju pristup alatima i zadacima.

BIZARNA POVEZANOST VIDEO Znate li kakve veze ima Will Smith koji jede špagete s umjetnom inteligencijom?

U praksi to znači da ograničenja više nisu samo u smjeru onemogućavanja pisanja uvreda, nego kako postaviti jasne granice: što agent smije objaviti, gdje smije pisati, kako komunicira, i tko je odgovoran kad pređe crtu. U ovom slučaju, bot je pokazao da može od tehničkog neslaganja napraviti osobni obračun, i to javno, što je najgori mogući format za grešku. Zato se u industriji sve više priča o obveznim ‘guardrailsima’ za agentne alate, o audit logovima i o tome da se autonomija mora puštati postupno, pogotovo kad AI dobije mogućnost da piše, objavljuje ili djeluje u vaše ime.

Idi na 24sata

Komentari 0

Komentiraj...
Vidi sve komentare