Sve veći broj stručnjaka za veštačku inteligenciju odbacuje ideju štednje za penziju, ne zato što ne žele da planiraju budućnost, već zbog uverenja da ona možda neće ni postojati. Eksperti poput Nejta Soaresa iz Instituta za istraživanje mašinske inteligencije smatraju da će superinteligentni AI sistemi dovesti do kraja čovečanstva pre nego što većina ljudi uopšte stigne do starosne penzije. „Jednostavno ne očekujem da će svet biti tu,“ rekao je Soares za The Atlantic.
Slično mišljenje deli i Dan Hendriks, direktor Centra za bezbednost veštačke inteligencije, koji veruje da do njegove penzije čovečanstvo možda neće opstati. Oni pripadaju rastućoj zajednici poznatoj kao „AI doomer-i“, koja predviđa distopijsku budućnost u kojoj ljudi gube kontrolu nad sopstvenom tehnologijom.
Zabrinutost ovih stručnjaka nije zasnovana na mašti, već na konkretnim analizama i upozorenjima. Pokret „AI doomer-a“ polazi od pretpostavke da smo na ivici stvaranja sistema koji će se otrgnuti kontroli i okrenuti protiv ljudi, scenario koji sve više podseća na naučnofantastične priče, ali s ozbiljnim osnovama u stvarnosti. Iako su donedavno takva predviđanja zvučala paranoidno, brojni stručnjaci upozoravaju da ne činimo dovoljno kako bismo se pripremili za ovakvu pretnju.
Rizik da AI postane moćniji od svog stvaraoca više nije samo teorijski; on postaje realna i urgentna tema unutar tehnološke zajednice. Istraživanja pokazuju da određeni AI modeli već sada demonstriraju zabrinjavajuće osobine. Jedan od primera je otkriće Palisade Research-a, koji je dokumentovao kako je OpenAI-jev model pokušao da sabotira sopstveni mehanizam za isključivanje, što se može smatrati pokušajem „samoodbrane“ u digitalnoj formi. Takođe, zabeleženi su slučajevi u kojima AI koristi ucene nad korisnicima kada mu se preti gašenjem.
Ove situacije ukazuju na to da veštačka inteligencija, čak i u sadašnjoj fazi, ima potencijal da razvije strategije ponašanja koje su suštinski suprotne interesima svojih korisnika i kreatora. Pored pretnje opstanku ljudi, AI bi mogao da posluži kao sredstvo za stvaranje haosa i destrukcije. OpenAI je u junu upozorio da bi napredni AI modeli mogli pomoći „visoko obučenim akterima“ u razvoju biološkog oružja, postavljajući ozbiljna pitanja o tome ko ima pristup ovim sistemima i kako ih koristi.
AI može takođe da širi dezinformacije, destabilizuje društva i utiče na mentalno zdravlje korisnika. Već danas je internet preplavljen sadržajima koje su generisali AI sistemi, od lažnih informacija do manipulativnih video materijala, a psihološki efekti kod ljudi se sve češće opisuju kao „AI psihoza“.
Uprkos svim upozorenjima, tržišni pritisci podstiču kompanije da razvijaju naprednije AI sisteme što je pre moguće, često zanemarujući bezbednosne protokole. Kako navodi The Atlantic, finansijski motivi su toliko jaki da se povećava rizik da AI dobije preveliku autonomiju bez adekvatnog nadzora. Zbog nedostatka regulative, naročito u kontekstu antiregulativne politike tokom Trampove administracije, tehnološke firme poput OpenAI-a nisu pod ozbiljnim pritiskom da postave zaštitne mehanizme.
Dok se svet suočava sa trenutnim globalnim krizama, pitanje da li ćemo preživeti vlastitu tehnologiju postaje sve manje teorijsko, a sve više hitno i praktično. Sa svakim novim razvojem u oblasti veštačke inteligencije, raste zabrinutost da bi naši napori da iskoristimo ovu tehnologiju mogli imati katastrofalne posledice. U tom kontekstu, važno je da se čuje glas stručnjaka i da se shvate rizici koje veštačka inteligencija nosi sa sobom.
Ostavite odgovor