
Autor “Sapijensa” Juval Noa Harari o obećanjima i opasnostima koje nosi veštačka inteligencija
Istoričar, filozof i pisac Juval Noa Harari, autor knjiga “Homo Deus”, “Sapiens” i drugih, kao i najnovije knjige na temu veštačke inteligencije (AI) “Neksus”, koja je objavljena i u Srbiji bio je krajem juna, bio je gost na CEO Samitu Volstrit džurnala (WSJ) u Londonu. Govorio je upravo u ulozi veštačke inteligencije i da li uspon AI znači znači pad, pa čak i kraj, Homo sapiensa.
WSJ: U svojim knjigama nazivate veštačku inteligenciju „vanzemaljskom inteligencijom“ i tvrdite da se rađa nova vrsta koja bi mogla zameniti Homo sapiensa.
HARARI: Da. Po prvi put čovek ima stvarnu konkurenciju na planeti. Mi smo desetinama hiljada godina bili najinteligentnija vrsta, od beznačajne vrste majmuna na afričkom kontinentu sve do vladara planete i ekosistema. A sada stvaramo nešto što bi moglo da nas nadmaši u vrlo bliskoj budućnosti.
Najvažnije što treba da razumemo o veštačkoj inteligenciji jeste da ona nije alat – ona je agent ("zastupnik")! Može da donosi odluke nezavisno od nas, da stvara nove ideje, da uči i menja se sama. Sve dosadašnje tehnologije, od štamparske prese do atomske bombe, bile su alati koji su zavisili od nas.
WSJ: One nisu mogle da rade bez čoveka?
HARARI: Tačno! Štamparska presa ne može sama da napiše knjigu, niti da odluči koju će da štampa. Atomska bomba ne može sama da osmisli moćnije oružje, niti da odluči koga će napasti. Ali oružje bazirano na AI može samo da odabere cilj i da dizajnira sledeću generaciju naoružanja.
WSJ: U vašoj novoj knjizi “Nexus” AI opisujete kao „bebu“ koja uči od nas. Tvrdiš da lideri snose ogromnu odgovornost – jer ako oni lažu i varaju ne mogu očekivati da AI bude dobronamerna?
Neće postojati jedna AI, već milioni, pa čak i milijarde digitalnih agenata, razvijenih u različitim državama, kompanijama, sa različitim osobinama. Ne možemo simulirati kako izgleda društvo u kojem se milioni AI sistema međusobno bore i takmiče. To će biti najveći društveni eksperiment u istoriji čovečanstva – samo što niko ne zna kako će se završiti
HARARI: Trenutno se vodi globalna rasprava o „usklađivanju AI sa ljudskim vrednostima“. Pitanje je kako da osiguramo da superinteligentni agenti ostanu usmereni na dobrobit čovečanstva? Mnogo se ulaže u ideju da, ako ih pravilno programiramo i naučimo pravim principima, AI sistemi će biti bezbedni. Ali postoje dva velika problema s tim pristupom.
Prvo, sama suština AI je da uči i menja se sama. Dakle, šta god da dizajniramo, ne možemo predvideti sve što će AI kasnije raditi. Drugo, AI treba posmatrati kao dete. Možete ga vaspitavati najbolje što umete, ali ono je i dalje nezavisno biće koje vas može iznenaditi – nekada prijatno, nekada zastrašujuće.
Svi koji imaju iskustva sa decom znaju da nije bitno šta im govorite već šta im pokazujete svojim ponašanjem. Ako kažete “ne laži“, a dete vidi da vi lažete, ono će slediti vaš primer, ne vaše reči.
Isto je s AI. Ako je učimo da ne laže, ali je pritom izložena ponašanju moćnih ljudi koji to stalno rade – ona će to ponašanje usvojiti.
AI svuda i u svemu
WSJ: Danas smo anketirali lidere u sali – većina kaže da AI još nije značajno uticala na njihove biznise. Možete li im odgovoriti kao da je 2027. godina? Da li je zamisliv svet u kojem AI neće imati veliki uticaj?
HARARI: Pitanje je samo vremenske skale. Zamislite da sedimo u Londonu 1835. godine. Pet godina pre toga otvorena je prva železnica između Mančestera i Liverpula i ljudi pričaju: “Ma kakva industrijska revolucija, vozovi su ovde već pet godina, pa šta?“ A danas znamo, promenili su sve. Isto će biti s AI. Revolucija je počela, ali trebaće vremena.

Jedna od prvih oblasti gde ćemo to primetiti jesu – finansije! Jer to je čisto informacioni sistem, nema pešaka, rupa na putu, fizike… samo podaci. AI će tu brzo preuzeti dominaciju. Ali šta kada AI počne da stvara finansijske instrumente koje ljudi jednostavno ne mogu razumeti jer su matematički prekompleksni?
Beskorisna klasa?
WSJ: Upozoravate i na opasnost nastanka „beskorisne klase“. Kako da obezbedimo da društvo ne samo opstane, već i napreduje?
HARARI: AI ima ogroman potencijal: i pozitivan i opasan! Nema tehnološkog determinizma, ista tehnologija može stvoriti totalitarne režime ili liberalne demokratije. Ključna razlika je da sada ne pravimo alat, već agenta – što sve čini kompleksnijim. Ali većina odluka je i dalje u našim rukama. Kako ćemo da razvijamo i kako da primenimo AI, to su političke i društvene odluke koje moramo doneti.
Problem je što države i kompanije koje vode AI u stvari vode trku u „trci naoružanja“. I svi se boje da, ako uspore, drugi će ih prestići i dominirati svetom.
Digitalni imigranti
PITANJE IZ PUBLIKE: Mi danas ne govorimo o jednoj AI, već o bezbroj različitih koje evoluiraju paralelno. Kako će izgledati svet u kojem milioni AI sistema međusobno konkurišu jedan drugom?
HARARI: To je izuzetno važno pitanje. Neće postojati jedna AI, već milioni, pa čak i milijarde digitalnih agenata, razvijenih u različitim državama, kompanijama, sa različitim osobinama. Nemamo nikakvo iskustvo s tim. Ne možemo simulirati kako izgleda društvo u kojem se milioni AI sistema međusobno bore i takmiče. To će biti najveći društveni eksperiment u istoriji čovečanstva – samo što niko ne zna kako će se završiti.
Jedna korisna analogija: danas se mnogi u SAD i Evropi boje ljudskih imigranata, da će im „oteti poslove“, „promeniti kulturu“, „preuzeti politiku“. Zamislite sada AI revoluciju kao talas digitalnih imigranata, milijarde njih! Oni ne dolaze čamcem po mraku, već brzinom svetlosti. Uzimaju poslove, donose nove vrednosti i – možda – žele politički uticaj. Ako se ekstremna desnica u Evropi zaista brine za suverenitet, kulturu i ekonomsku budućnost svojih zemalja trebalo bi da bude mnogo više zabrinuta zbog digitalnih imigranata, nego ljudskih