
Svetski ekonomski samitu u Davosu, između ostalih, ugostio je i dvojicu verovatno najuticajnih ljudi na svetu u oblasti veštačke inteligendcije - Daria Amodeia i Demisa Hasabisa. Njih dvojica su govorili o tome kako će izgledati svet nakon uspostavljanja Globalne veštačke inteligencije (AGI) koja će biti daleko sposobnija od čoveka.
Kako će novi modeli veštačke intelgencije uticati na poslove, na zdravlje, kulturu, bezbednost, na život svakog od nas, samo su neki od odgovora koje ovde možete da pronađete.
“Petlja” - AI uči samu sebe
Naslov razgovora je „dan posle AGI“. Možda malo ispred vremena jer prvo treba da razgovaramo o tome koliko brzo i lako ćemo do toga doći, a zatim o posledicama. Krenimo od vremenskog okvira. Dario, prošle godine rekao si da ćemo do 2026–2027 imati model koji može da uradi sve što čovek može, na nivou Nobelovca, u više oblasti. Sada smo u 2026. Da li i dalje stojiš iza te procene?
Dario Amodei: Uvek je teško znati tačno kada će se nešto dogoditi, ali mislim da ta procena neće biti mnogo promašena. Mehanizam koji sam zamišljao je sledeći: napravićemo modele koji su vrlo dobri u programiranju i u istraživanju veštačke inteligencije, a zatim ćemo te sposobnosti koristiti da ubrzamo pravljenje sledeće generacije AI modela. To stvara povratnu “petlju*” koja ubrzava razvoj.
Već danas, kada je reč o modelima koji pišu kod, imam inženjere u kompanije koji kažu „više ne pišem kod. Pustim model da ga napiše, a ja ga zatim uredim i radim stvari oko toga“. Mislim da smo možda 6 do 12 meseci udaljeni od trenutka kada model radi većinu, možda i sve ono što rade softverski inženjeri. Od početka do kraja.
Zato je pitanje: koliko brzo se ta “petlja” zatvara? Ne može se svaki deo tog procesa ubrzati veštačkom inteligencijom. Tu su čipovi, proizvodnja čipova, vreme treniranja modela… Postoji velika neizvesnost. Lako je zamisliti da to traje nekoliko godina, ali mi je veoma teško da zamislim da bi moglo da traje znatno duže od toga. Ako moram da nagađam rekao bih da će se ovo odvijati brže nego što ljudi zamišljaju. Ključni pokretač biće to što kodiranje, a sve više i istraživanje, ide brže nego što očekujemo. Teško je predvideti koliko će nas taj eksponencijal ubrzati, ali nešto brzo i veliko će se dogoditi.
Demise, prošle godine si bio oprezniji. Rekao si da postoji 50% šanse da ćemo do kraja decenije dobiti sistem koji može da ispolji sve kognitivne sposobnosti koje ljudi imaju. Kako sada gledaš na to? Da li i dalje stojiš iza te procene?
Demis Hasabis: I dalje sam na sličnoj vremenskoj liniji. Napredak je zaista izuzetan, ali neke oblasti inženjerskog rada, kodiranje, ili recimo matematika lakše je automatizovati zato što je moguće proveriti izlaz. Da znate da li je rezultat tačan. U prirodnim naukama je teže, jer nećete nužno znati da li je hemijsko jedinjenje koje ste “izgradili”, ili predikcija iz fizike koju ste dobili, zaista ispravna. Možda jeste, ali morate da testirate eksperimentalno, što zahteva vreme.
Trenutno nedostaju I neke sposobnosti, ne samo rešavanje postojećih problema ili konjektura, već i osmišljavanje pitanja, teorije, hipoteze. To je viši nivo naučne kreativnosti. Nije jasno da li sistemi već danas idu ka tome. Ne mislim da je nemoguće, ali nedostaje još jedan ili dva ključna sastojka.
Ostaje da se vidi da li “petlja” samopoboljšanja na kojoj svi radimo može da se zatvori bez čoveka u petlji. To bi moglo dramatično ubrzati stvari, ali nosi i rizike o kojima bi svakako trebalo da razgovaramo.

Šta bih pitao vanzemaljce
Kako bi izgledao „dan posle AGI*“ i zatvaranje “petlje“. Kolike su šanse da dobijemo modele koji zaista praktično pokreću sami sebe jer je to ključ za scenario „pobednik nosi sve“. Da li ćemo to videti, ili će ovo ipak biti normalna tehnologija u kojoj i pratioci mogu da sustignu lidera?
Hasabis: Mislim da je ovo normalna tehnologija u mnogim aspektima. Već sada pomaže u kodiranju i u nekim aspektima istraživanja. Ali potpuno zatvaranje “petlje” je nepoznanica! Moguće je da će vam za to biti potreban sam AGI*, bar u nekim domenima. Posebno tamo gde je svet “neuredniji”, gde ne možete brzo da verifikujete odgovor, gde imate NP-teške probleme.
Takođe, pod AGI ubrajam i fizičku veštačku inteligencija, robotiku i slične stvari, gde hardver u “petlji” može ograničiti brzinu samopoboljšanja. U oblastima poput kodiranja i matematike mogu da zamislim zatvaranje “petlje”. Pitanje je kako se granice inženjeringa i matematike prenose na rešavanje prirodnih nauka.
Dario, prošle godine objavili ste esej „Machines of Loving Grace“, prilično optimističan tekst o potencijalima. Čujem da radiš na nastavku, na ažuriranju, novom eseju. Nije još objavljeno, ali možeš li nam dati mali uvid: šta je tvoj glavni zaključak godinu dana kasnije?
Amodei: Moj osnovni stav se nije promenio. Uvek sam mislio da će AI biti neverovatno moćan. Demis i ja se oko toga slažemo. Pitanje je samo kada tačno. Pošto je moćan, uradiće mnoge divne stvari: pomoći će da izlečimo rak, možda da iskorenimo tropske bolesti, pomoći će nam da bolje razumemo univerzum… Ali postoje i ogromni, ozbiljni rizici. Ne mislim da su neizbežni, nisam “doomer*“, ali moramo da ih shvatimo ozbiljno i da ih adresiramo.
„Machines of Loving Grace“ sam napisao zato što je bilo lakše i zabavnije pisati o pozitivnim scenarijima nego o negativnim. Ali konačno sam, tokom odmora, uspeo da napišem i esej o rizicima. Čak i tu, pišem kao optimista, kako da prevaziđemo rizike, kako da napravimo plan borbe.

Uokvirio sam to scenom iz filma “Kontakt“ (na osnovu knjige Karla Segana), gde međunarodni panel bira čoveka koji će predstavljati čovečanstvo u susretu sa vanzemaljcima, i pita: „Ako biste mogli da postavite jedno pitanje, šta bi to bilo?“ Kandidat kaže: „Pitao bih kako ste uspeli? Kako ste prošli kroz tehnološku adolescenciju, a da se niste uništili?“ Taj okvir mi je ostao u glavi 20 godina. Mi sada kucamo na vrata neverovatnih sposobnosti, u suštini, gradimo mašine od peska. Mislim da je tehnološki napredak bio neizbežan, ali način na koji ćemo ga upravljati nije.
U sledećih nekoliko godina suočićemo se sa pitanjima: kako držati pod kontrolom visoko autonomne sisteme koji su pametniji od bilo kog čoveka? Kako sprečiti zloupotrebu od strane pojedinaca, recimo u bioterorizmu? Kako sprečiti zloupotrebu od strane država, naročito autoritarnih režima? Koji su ekonomski efekti, pre svega pomeranje radne snage? I šta nismo ni predvideli? Za svaku od tih oblasti biće potrebna kombinacija: šta možemo mi kao lideri kompanija, šta možemo zajedno i šta moraju šire institucije, poput vlada. Koliko god da se u svetu dešava “ludih stvari” van AI, moj utisak je da se ovo odvija toliko brzo i nosi toliku krizu da bi skoro sav napor trebalo usmeriti na pitanje kako da prođemo kroz ovo.
Studenti, budite vešti u korišćenju AI alata
Govorio si o uticaju na poslove, čak da bi polovina “entry-level“ kancelarijskih poslova mogla nestati u narednih pet godina. Ali, do sada nismo videli jasan uticaj AI na tržište rada…
Hasabis: Mislim da će se u kratkom roku desiti nešto što liči na uobičajenu evoluciju kada dođe probojna tehnologija: neki poslovi će biti poremećeni, ali će se stvoriti novi. Možda vredniji i smisleniji. Ove godine ćemo videti početke uticaja AI na juniorske pozicije: ulazne poslove, prakse, stažiranja. Ima naznaka usporavanja zapošljavanja u tim segmentima, i mi to osećamo.
Ali to može biti nadoknađeno činjenicom da su ovo izvanredni kreativni alati dostupni skoro svima, gotovo besplatno. Kada bih danas govorio studentima, rekao bih im da postanu neverovatno vešti u korišćenju ovih alata. Čak i nama koji ih gradimo ponekad nedostaje vremena da istražimo “višak mogućnosti” današnjih modela, a kamoli sutrašnjih. To može biti čak i bolje od tradicionalne prakse, u smislu da vas ubrza i omogući da preskočite nekoliko stepenika.
A ono što se dešava posle dolaska AGI — to je druga priča. Tada ulazimo na potpuno nepoznat teren.
Dario, da li misliš da će to trajati duže nego što si rekao?
Amodei: U suštini imam sličan stav. Slažem da nije bilo uticaja AI na tržište rada, ali sada možda vidimo prve naznake, naročito u softveru i kodiranju. I u kompaniji koju vodim mogu da sagledam vreme kada će, prvo na juniorskom nivou, a zatim i na srednjem nivou, biti potrebno manje ljudi, ne više.
Procenu od jedne do 5 godina i dalje bih zadržao. Na prvi pogled ne deluje usklađeno sa mojom prethodnom tvrdnjom da bismo mogli imati AI bolju od ljudi u svemu za godinu, dve. Ali tu postoji zaostatak i dinamika zamene: tržište rada se prilagođava. Istorijski, 80% ljudi je radilo u poljoprivredi, pa je automatizacija to promenila; zatim su postali fabrički radnici, pa radnici znanja. Dakle, postoji adaptabilnost.
Moj strah je da će, kako eksponencijal bude nastavio da se uvećava, u nekom trenutku između jedne i 5 godina, to će preplaviti našu sposobnost prilagođavanja. Mislim da Demis kaže slično, samo što se razlikujemo u proceni koliko brzo se “petlja” zatvara.
Koliko ste sigurni da vlade razumeju razmere ovoga i da već razmišljaju o merama?
Hasabis: Ni približno dovoljno! Stalno me iznenađuje, čak i kada ovde sretnem ekonomiste, profesore koliko oni malo razmišljaju o tome šta dolazi. Ne govorimo samo o gubicima poslova. Ako sve tehnički bude uspešno biće ogromna produktivnost i bogatstvo, ali onda je pitanje kako to što pravednije raspodeliti. Ne znam da li imamo institucije koje to mogu da urade, ali to bi trebalo da bude cilj.
Postoje i dublja pitanje kao što su smisao i svrha. Poslovi nam ne daju samo ekonomski oslonac, već i identitet, strukturu života. Optimista sam da ćemo naći nove izvore smisla. Već danas radimo stvari koje nemaju veze sa ekonomskom dobiti, kao što su umetnost, ekstremni sportovi, stvaralaštvo. Možda će postojati još sofisticiranije verzije toga. I možda ćemo istraživati zvezde, što takođe menja perspektivu. Ali i na mojoj vremenskoj liniji, 5 do 10 godina, to nije mnogo vremena. O tome treba razmišljati sada.
Koliki je rizik od popularnog otpora prema AI, da države i vlade, pod pritiskom, donesu pogrešne odluke? Setimo se globalizacije 90-ih kada je došlo do pomeranja poslova da vlade nisu reagovale dovoljno. Postoji li i sada sličan rizik?
Hasabis: Postoji ozbiljan rizik. Strah i briga oko poslova i egzistencije su razumljivi. Mislim da je važno da industrija pokaže više jasnih primera nedvosmislenog dobra, ne samo da priča, već da demonstrira: rešavanje bolesti, nove energije, napredak u nauci. Možda industrija danas nema dovoljno balansa u tom smeru.
Tu je i geopolitička dimenzija i to ne samo kao konkurencija među kompanijama, već i odnosi SAD I Kine. Bez međunarodnog razumevanja i minimalnih standarda bezbednosti pri primeni, biće teško. Ovo je tehnologija koja prelazi granice i utiče na celo čovečanstvo.
Kini ne bih prodavao čipove
Dario, geopolitičko okruženje je postalo sve komplikovanije. SAD sada ima drugačiji pristup prema Kini: „idi što brže možeš“, uz stav da ne treba prodavati najnaprednije čipove Kini. Istovremeno su odnosi SAD i Evrope napeti. U realnom svetu - da li su geopolitički rizici porasli i šta bi trebalo uraditi, posebno kada deluje da administracija radi suprotno od onoga što ti predlažeš?
Amodei: Mi smo samo jedna kompanija koja pokušava da radi najbolje što može u svetu kakav jeste, koliko god da je lud. Moje preporuke se nisu promenile. Neprodavanje najnaprednijih čipova je jedna od najvećih stvari koje možemo uraditi da bismo kupili vreme i bezbednije upravljali ovim procesom.
Rekao sam i ranije: više bih voleo Demisovu vremensku liniju, da imamo 5 do 10 godina. Moguće je da je on u pravu, a ja grešim. Ali pretpostavimo da sam ja u pravu i da se to može uraditi za godinu, dve, zašto ne bismo usporili na Demisov tempo? Problem je geopolitička trka jer postoje protivnici koji razvijaju istu tehnologiju sličnom brzinom! Teško je napraviti sprovediv sporazum da i oni i mi usporimo. Ako, međutim, ne prodajemo ključne čipove, onda ovo više nije takmičenje SAD i Kine. To postaje takmičenje između mene i Demisa. I ja verujem da mi to možemo da rešimo…
Administracija, koliko razumem, tvrdi „moramo da im prodajemo čipove da bismo ih vezali za američke lance snabdevanja“…
Amodei: Nije u pitanju samo tajming, već i značaj tehnologije. Da je ovo neki telekom, mogli biste reći, da, to je širenje američkog tehnološkog uticaja, gradnja data-centara sa Nvidia čipovima umesto Huawei… i to ima logike. Ali, ja ovo vidim kao pitanje sličnije nuklearnoj tehnologiji. Prodavati to autoritarnim režimima zbog profita je, po mom mišljenju, isto kao prodavati nuklearno oružje Severnoj Koreji uz argument: „To je dobro jer je Boeing zaradio i piše “made in USA”! Ta analogija pokazuje kako ja vidim taj kompromis: to jednostavno nema smisla. Uradili smo razne agresivnije mere prema Kini i drugima, ali mnogo toga je manje efikasno od ove jedne mere.
Još jedno pitanje o rizicima. “Doomeri“ često upozoravaju na scenario zlonamerne, svemoćne AI. Obojica ste bili donekle skeptični prema ekstremnoj verziji tog argumenta. Ali u poslednjih godinu dana videli smo modele sposobne za obmanu i dvoličnost. Da li sada drugačije gledate na taj rizik?
Amodei: Od početka rada Anthropic razmišljamo o tom riziku. Naša rana istraživanja bila su vrlo teorijska. Pioniri smo u ideji mehanističke interpretabilnosti, da “pogledamo u model“, da razumemo njegovu unutrašnju logiku, da vidimo zašto radi to što radi. To je nalik pokušaju da se razume mozak. Kako je vreme prolazilo sve bolje dokumentujemo loša ponašanja modela kada se pojave i radimo na tome da ih rešimo.
Ostajem skeptičan prema “doomerizmu” u smislu, „propali smo, ništa ne možemo.“ Mislim da su ovi rizici realni, ali rešivi. Ali ako radimo zajedno, kroz nauku, možemo da pravilno kontrolišemo i usmeravamo ono što gradimo. Ako se stvari rade loše, ako se jurca bez zaštitnih ograda, postoji rizik da nešto ozbiljno pođe po zlu.
Da završimo širim pitanjem: da li si u poslednjih godinu dana postao optimističniji u vezi sa potencijalima ili više zabrinut zbog rizika?
Hasabis: Radim na ovome više od 20 godina. Razlog zbog kojeg sam posvetio karijeru AI je uverenje u potencijal. AI treba da bude ultimativni alat za nauku i razumevanje univerzuma. Time sam opsednut od detinjstva. O rizicima razmišljamo takođe odavno. Znali smo da je to tehnologija dvostruke namene i da je mogu zloupotrebiti loši akteri.
Snažno verujem u ljudsku domišljatost. Pitanje je samo da li ćemo imati dovoljno vremena, fokusa i saradnje najboljih umova da rešimo ove probleme. Ako imamo to, rešili bismo tehničke i bezbednosne izazove. Ako nemamo, ako se trka ubrza i svako juri svoj projekat… onda je mnogo teže obezbediti tehničku bezbednost sistema. I dalje mislim da je to rešiv problem, ako imamo prostor i vreme.
Kada se ponovo budemo videli, nadam se sledeće godine, šta će se do tada promeniti?
Amodei: Najvažnije je pratiti pitanje: da li AI sistemi mogu da grade AI sisteme. Kako to bude išlo, znaćemo da li ćemo do cilja stići za nekoliko godina ili ćemo se suočiti sa ogromnim ubrzanjem i velikom vanrednom situacijom pred nama!
Hasabis: Slažem se i ostaćemo u bliskom kontaktu oko toga. Pored toga, postoje i druge važne ideje: svetski modeli, kontinuirano učenje. Mislim da to moramo “provaliti“. Ako samopoboljšanje samo po sebi ne donese očekivani skok onda će ove druge stvari biti ključne. I robotika bi mogla da ima svoj „probojni“ trenutak.
*Uputstvo za čitanje skraćenica:
• AGI (Artificial General Intelligence) – „opšta“ veštačka inteligencija, sistem koji može da obavlja širok spektar intelektualnih zadataka na nivou čoveka (ili iznad), a ne samo jednu stvar.
• „Petlja“ (feedback loop) – Veštačka inteligencija pomaže da se napravi još bolja veštačka inteligencija (AI piše kod → AI radi istraživanje → AI pravi bolji AI) i to ubrzava razvoj sledećih modela koji onda još više ubrzavaju naredni krug.
• SOTA modeli (State Of The Art) – najnapredniji modeli, trenutno najbolji rezultati u nekoj oblasti (najbolje performanse na testovima).
• „Doomeri“ – ljudi koji veruju da je razvoj AI veoma verovatno katastrofalan, da vodi u kolaps društva ili gubitak kontrole.
• NP – pojam iz teorije računarske složenosti. „NP-hard“ su posebno teški problemi za koje ne znamo brz (efikasan) opšti način rešavanja.
• Fermijev paradoks – pitanje “Ako je svemir ogroman i verovatno ima mnogo planeta pogodnih za život, zašto ne vidimo tragove vanzemaljskih civilizacija”? „Gde su svi?“ je popularna formulacija.
Ko su Hasabis i Amodei
Demis Hasabis - Osnivač i direktor Google DeepMind, jedne od najvažnijih AI istraživačkih organizacija. Poznat po revolucionarnim dostignućima poput AlphaGo-a i AlphaFold-a koji su promenili način na koji razumemo igre, biologiju i naučna istraživanja. Hasabis je bivši šahovski vunderkind i dugogodišnji zagovornik AI kao alata za razumevanje univerzuma. Omiljeni citat: „AI treba da bude ultimativni alat za nauku — ako ga izgradimo na pravi način.“
Dario Amodei - Jedan od najuticajnijih ljudi u savremenom razvoju veštačke inteligencije. Suosnivač je i izvršni direktor kompanije Anthropic, koja razvija napredne AI modele (Claude) sa posebnim fokusom na bezbednost, kontrolu i etičku upotrebu AI. Pre Anthropica radio je u OpenAI-ju i ima pozadinu u neuronaukama. Omiljeni citat: „Ne brine me da li je AI moćan — brine me da li ćemo biti spremni da živimo sa tom moći.“


















