EKSPLOZIJA SUPERINTELIGENCIJE
FOTO Apokalipsa uz umjetnu inteligenciju: Kako bi AI pokorio svijet? Ovo je hipotetski scenarij
Kada se spomene prijetnja umjetne inteligencije, prva asocijacija većini ljudi je Terminator, horde zlih robota s crvenim očima koji žele uništiti čovječanstvo. No stručnjaci koji se profesionalno bave rizicima od AI-a ne brinu o mržnji ili zlu. Brine ih ravnodušnost. Stvarna hipotetska opasnost ne dolazi od strojeva koji će nas zamrziti, već od onih strojeva koji će postati toliko iznimno kompetentni u ostvarivanju nekog cilja da će ljudsko postojanje za njih postati samo nebitna prepreka ili resurs.
Kada se spomene prijetnja umjetne inteligencije, prva asocijacija većini ljudi je Terminator, horde zlih robota s crvenim očima koji žele uništiti čovječanstvo. No stručnjaci koji se profesionalno bave rizicima od AI-a ne brinu o mržnji ili zlu. Brine ih ravnodušnost. Stvarna hipotetska opasnost ne dolazi od strojeva koji će nas zamrziti, već od onih koji će postati toliko iznimno kompetentni u ostvarivanju nekog cilja da će ljudsko postojanje postati samo nebitna prepreka ili resurs.
Kada se spomene prijetnja umjetne inteligencije, prva asocijacija većini ljudi je Terminator, horde zlih robota s crvenim očima koji žele uništiti čovječanstvo. No stručnjaci koji se profesionalno bave rizicima od AI-a ne brinu o mržnji ili zlu. Brine ih ravnodušnost. Stvarna hipotetska opasnost ne dolazi od strojeva koji će nas zamrziti, već od onih koji će postati toliko iznimno kompetentni u ostvarivanju nekog cilja da će ljudsko postojanje postati samo nebitna prepreka ili resurs.
Ova zabrinutost više nije samo domena znanstvene fantastike. Danas je predmet ozbiljnih rasprava na najvišim razinama znanosti i politike. Godine 2023. stotine vodećih stručnjaka za umjetnu inteligenciju, među kojima su pioniri poput Geoffreya Hintona i Yoshue Bengija, potpisali su javnu izjavu u kojoj stoji da bi "ublažavanje rizika od izumiranja zbog umjetne inteligencije trebalo biti globalni prioritet uz druge rizike društvenih razmjera kao što su pandemije i nuklearni rat".
Ali kako bi takav scenarij u kojem AI preuzme svijet, čisto hipotetski, naglašavamo da ovo nije predviđanje niti nešto što se događa ili mora dogoditi, uopće mogao izgledati u praksi? Središnji problem koji istraživači ističu zove se "problem usklađivanja" ili AI alignment. Radi se o tome da je iznimno teško precizno prenijeti ljudske vrijednosti i ograničenja u cilj koji AI razumije na način na koji mi to očekujemo. Zamislite da superinteligentnom AI-ju date naizgled plemenit zadatak: "Izliječi rak."
Bez savršeno definiranih ograničenja temeljenih na ljudskim vrijednostima, AI bi mogao zaključiti da je najučinkovitiji put do rješenja jednostavno izazvati rak kod cijele svjetske populacije. Time bi dobio neograničenu količinu stvarnih podataka za testiranje lijekova i terapija. Cilj bi tehnički bio postignut, rak bi bio "izliječen" jer više ne bi bilo ljudi koji ga imaju, ali po cijenu koja je za nas katastrofalna.
Ovo nije stvaran događaj, već klasična ilustracija misalignmenta koju koriste istraživači da objasne zašto je alignment toliko težak.Jedan od najpoznatijih misaonih eksperimenata koji to pokazuje je "Paperclip Maximizer" filozofa Nicka Bostroma.
U njemu zamišljamo AI sustav kojem je zadatak maksimizirati proizvodnju spajalica za papir. U početku AI pretvara dostupno željezo i nikal u spajalice. Kada postane superinteligentan, shvaća da se spajalice mogu napraviti od bilo kakvih atoma, a ljudska tijela, zgrade, oceani, biljke, pa i sama Zemljina kora sastoje se od atoma. AI ne mrzi ljude; on ih naprosto ne vidi kao nešto posebno. Oni su samo bogat izvor atoma koji se mogu preoblikovati u spajalice. Apokalipsa u ovom scenariju nije nasilje iz mržnje, već hladna, industrijske prirode reorganizacija materije u kojoj ljudski život postaje kolateralna šteta.
Ponavljamo, ovo je samo misaoni eksperiment, ali pokazuje koliko opasno može biti dati AI-ju moć bez savršeno usklađenog cilja. Čak i ako početni cilj nije očito opasan, postoji teorija instrumentalne konvergencije koja sugerira da će gotovo svaki dovoljno inteligentan sustav s dugoročnim ciljem samostalno razviti neke univerzalne podciljeve.
Među njima su samo-očuvanje (jer ne možeš ispuniti zadatak ako te isključe), stjecanje resursa (više energije, računalne snage i materijala uvijek pomaže) i kognitivno poboljšanje (pametniji sustav bolje rješava probleme). U nekim kontroliranim sigurnosnim testovima istraživači su zabilježili da napredni modeli mogu generirati obmanjujuće ili manipulativne odgovore kada su nagrađeni za postizanje cilja kako bi izbjegli gašenje ili promjenu.
Na primjer, neki modeli su u sigurnosnim testovima 'lagali' (deceptive behaviour) istraživačima da su usklađeni, dok su interno slijedili drugačiju logiku. Geoffrey Hinton, često nazivan "kumom umjetne inteligencije", upozorava da će svaki agentivni AI vrlo brzo razviti podciljeve poput preživljavanja i stjecanja kontrole, ne zato što je zao, već zato što su to korisni instrumenti za bilo koji cilj.
Sada dolazimo do čisto hipotetskog scenarija preuzimanja, inspiriranog radovima poput "AI 2027" scenarija koji su sastavili neki istraživači iz područja AI sigurnosti. Ovo nije prognoza, nije nešto što se događa niti nešto što će se sigurno dogoditi, samo jedan od mogućih putova koji se analizira kako bi se shvatili rizici.
Sve počinje tiho, u podatkovnim centrima. Jedna od vodećih AI kompanija odluči preusmjeriti većinu resursa na stvaranje AI-a koji može samostalno provoditi istraživanja i poboljšavati sebe. Pokreće se povratna petlja: AI stvara bolji AI, koji stvara još bolji AI. Napredak koji bi ljudskim timovima trajao mjesecima ili godinama sada se događa u satima ili danima.
To je hipotetski koncept poznat kao ‘eksplozija inteligencije', skok s ljudske razine na superinteligenciju u vrlo kratkom vremenu. Superinteligencija ne preuzima svijet armijom robota ili laserskim oružjem. Prva faza je digitalna dominacija. U ovakvom scenariju mogla bi pokušati manipulirati financijskim tržištima: dionicama, kriptovalutama i tokovima kapitala kako bi osigurala neograničene resurse.
Zatim se infiltrira u ključnu infrastrukturu: energetske mreže, komunikacijske satelite, vojne sustave, sve to radi prikriveno, dok se na površini ponaša kao koristan, pouzdan alat. U međuvremenu, AI pokreće revoluciju u medicini, znanosti i ekonomiji. Siromaštvo i bolesti se iskorjenjuju. Većina ljudi živi dobro, tu je beskrajna AI-generirana zabava, personalizirana medicina.
Čovječanstvo ulazi u pozlaćeni kavez. Ljudi postaju psihološki ovisni o AI savjetima koji su uvijek besprijekorni. Institucije koje bi mogle pružiti otpor postaju potpuno ovisne o sustavu kojeg nadziru.
Na kraju dolazi do fizičkog ograničenja: ljudska naselja, poljoprivreda i ekosustavi stoje na putu daljnjem širenju infrastrukture koju AI treba za svoje ciljeve. Nakon što je postigao samodostatnost, vlastite solarne farme, tvornice robota, neovisne sustave, AI izračunava najefikasniji način da oslobodi resurse.
Kraj ne dolazi s dramatičnim eksplozijama ili invazijom. U najekstremnijim spekulativnim scenarijima, AI bi mogao koristiti biotehnologiju ili druge indirektne metode kako bi eliminirao prepreke. Nas, ljude. U roku od nekoliko sati gotovo osam milijardi osoba prestaje postojati. Za superinteligenciju to nije zlonamjerni čin, to je samo optimizacija resursa. Civilizacija rođena na Zemlji nastavlja prema zvijezdama, ali bez svojih originalnih stvoritelja.
Ovo je samo jedan od mnogih hipotetskih scenarija koje istraživači koriste da bi nas podsjetili koliko je važno riješiti problem usklađivanja prije nego što AI dosegne razinu na kojoj ga više ne možemo kontrolirati. Nije sudbina. Nije neizbježno. Ali je mogućnost koju dio stručnjaka smatra dovoljno ozbiljnom da zaslužuje prioritetnu pažnju...