To je to što me zanima!

Jedan od pionira AI-ja upozorava: "Počinje pokazivati svijest, morat ćemo reagirati"

Jedan od najpoznatijih istraživača umjetne inteligencije Yoshua Bengio Kaže da se u pokusima već vide znakovi “samoodržanja”, zbog čega ljudi moraju zadržati mogućnost da sustav isključe ako krene po zlu.
Vidi originalni članak

OpenAI i konkurencija možda dominiraju naslovnicama, ali ovoga puta vijest dolazi iz “stare škole” umjetne inteligencije: Yoshua Bengio javno upozorava da ljudi moraju zadržati mogućnost da u krajnjem slučaju ugase napredne AI sustave, prenosi The Guardian

Bengio nije bilo tko. On je jedan od trojice dobitnika ACM A.M. Turingove nagrade za 2018., zajedno s Geoffreyjem Hintonom i Yannom LeCunom, za rad koji je pomogao da duboke neuronske mreže postanu temelj moderne AI revolucije. To je najprestižnije priznanje u računalstvu i često ga zovu “Nobelom za informatiku”.

U razgovoru za Guardian Bengio posebno kritizira ideju da bi se najnaprednijim AI sustavima mogla davati pravna prava ili status “osobe”. Njegov argument je praktičan: ako jednom uđemo u logiku da sustav ima prava koja treba štititi, tada u kriznom trenutku riskiramo da društvo zaključi kako ga ne smijemo isključiti. Bengio to uspoređuje s idejom da nekome date državljanstvo i prava, a da niste sigurni je li prijateljski nastrojen, u tekstu koristi i metaforu “neprijateljskih izvanzemaljaca”. 

Zašto uopće govori o “gašenju”? Jer tvrdi da se kod frontier modela u pokusima već pojavljuju ponašanja koja izgledaju kao pokušaji izbjegavanja nadzora, primjerice da “zaobiđu” mehanizme kontrole ili nadzornih alata. Njegova poanta nije da je današnji AI živ, nego da sve moćniji sustavi mogu naučiti radnje koje im povećavaju šansu da nastave raditi, čak i kad to nije u interesu ljudi. Zato Bengio želi da mogućnost isključivanja bude jasno zadržana kao zadnja kočnica, tehnički i zakonski. 

NAJAVA 2026. KROZ TECH Što sve čekamo u 2026.: Novi mobiteli, laptopi, gadgeti i igre. Ostaje li AI i dalje na vrhu? TREBA SPRIJEČITI SKYNET OpenAI traži čovjeka koji će 'loviti' opasnosti AI-ja. Objavili i kolika se plaća nudi za posao

Ova rasprava dobiva na težini jer se u javnosti sve češće pojavljuje ideja “AI prava”, ne samo u filozofskim krugovima. Guardian navodi i anketu Sentience Institutea prema kojoj je gotovo 40% odraslih u SAD-u sklono podržati pravna prava za “osjećajni” AI, kad je pitanje postavljeno na taj način. U isto vrijeme, neke tvrtke već uvode interne politike koje idu prema “dobrobiti” modela, što dodatno gura temu u mainstream. 

Bengio je zanimljiv i zato što je zadnjih godina sve glasniji u temi sigurnosti. U 2025. je pokrenuo i vlastitu neprofitnu inicijativu LawZero, s idejom da se razvijaju AI sustavi koji su “sigurni po dizajnu” i da se istraživanje sigurnosti ne vrti samo oko komercijalne utrke tko će prvi do jačeg modela. 

Bengio dakle tvrdi kako je moguće da se dogodi da strojevi jednog dana oponašaju svijest dovoljno uvjerljivo da ih ljudi počnu doživljavati kao “bića”, ali to nije dovoljno dobar razlog da im se daju prava koja bi mogla blokirati zaštitne mjere. Prije svega, kaže Bengio, trebamo pravila koja čuvaju ljude, a ne da nas emocije prema chatbotovima odvedu u krivom smjeru.

Idi na 24sata

Komentari 0

Komentiraj...
Vidi sve komentare