top of page

AI i neproliferacija: Ograničenja i izazovi generativnih AI modela

  • Writer: Katerina Stojkoska
    Katerina Stojkoska
  • Dec 1, 2024
  • 4 min read

Updated: Mar 3


Diskusije o uticaju veštačke inteligencije na nacionalnu i globalnu bezbednost sve su češće teme stručnih konferencija (foto: dvidshub.net)
Diskusije o uticaju veštačke inteligencije na nacionalnu i globalnu bezbednost sve su češće teme stručnih konferencija (foto: dvidshub.net)

Razvoj generativne veštačke inteligencije (AI) otvorio je nova pitanja u vezi sa njenim uticajem na neproliferaciju oružja za masovno uništenje (WMD). Iako AI obećava značajna unapređenja u analizi i otkrivanju pretnji, stručnjaci skreću pažnju na ograničenja i izazove poput ugrađenih restrikcija za kreiranje štetnih informacija, problem halucinacija, dostupnosti visokokvalitetnih podataka, infrastrukture i potrebnih energetskih resursa.


U trenutnoj fazi razvoja generativne AI, procene o njenoj korisnosti za zlonamerne aktere često su preuveličane. Iako modeli omogućavaju lak pristup informacijama o raznim temama, njihova upotrebljivost za razvoj i primenu WMD ostaje ograničena iz nekoliko razloga.


Blokiranje generisanja štetnih informacija i halucinacije

Prvo, većina modela obučena je da odbije pružanje štetnih informacija, uključujući uputstva za kreiranje WMD. Ipak, neki stručnjaci su demonstrirali mogućnost zaobilaženja tih restrikcija pomoću tehnika poput "jailbreak-a" čime modeli pružaju informacije koje su obučeni da blokiraju. "Jailbreaking" se odnosi na manipulaciju modelom kako bi se otključala njegova ograničenja ili ponašanja, što potencijalno može dovesti do generisanja nenamernih ili neprikladnih izlaza.


Drugo, dobro poznat problem "halucinacija" u modelima, gde oni generišu netačne informacije, smanjuje poverenje zlonamernih korisnika u njihove rezultate. AI modeli

sadrže i element slučajnosti. Drugim rečima, tačni proizvodnje nisu garantovani, a ovi modeli

često generišu netačne proizvodnje koji se nazivaju halucinacijama. Konačno, čak i uz pristup korisnim informacijama, zlonamerni akteri se suočavaju sa barijerama implicitnog znanja, ključnim know-how veštinama koje se ne mogu naučiti samo iz teksta.


Drugo, dobro poznat problem "halucinacija" u modelima, gde oni generišu netačne informacije, smanjuje poverenje zlonamernih korisnika u njihove rezultate. Konačno, čak i uz pristup korisnim informacijama, zlonamerni akteri se suočavaju sa barijerama implicitnog znanja, ključnim "know-how" veštinama koje se ne mogu naučiti samo iz teksta.


Kako generativni AI modeli napreduju, mogućnost njihove zloupotrebe opada. Na

primer, učestalost grešaka se smanjuje, a sposobnost razmišljanja poboljšava. Ovo ističe potrebu za stalnim praćenjem i uspostavljanjem jasnih smernica za upotrebu AI u kontekstu WMD. Stručnjaci pozivaju na uspostavljanje standarda i redovno ocenjivanje novih modela kako bi se obezbedilo odgovorno korišćenje.


Pored tehničkih izazova, generativna AI suočava se sa pitanjima usklađenosti sa ljudskim vrednostima. Pojam "usklađivanje" (alignment) odnosi se na obezbeđivanje da izlaz modela bude konzistentan sa ljudskim vrednostima, namerama i etičkim standardima. Neusklađenost može dovesti do širenja dezinformacija, podsticanja štetnih stereotipa ili donošenja odluka koje negativno utiču na zajednice.


Na primer, AI može pretvoriti sve dostupne resurse u robu koja nije važna za ljudsku dobrobit, što može dovesti do otpada, nestašica i oštećenja životne sredine.


Stručnjaci upozoravaju da bi razvoj veštačke opšte inteligencije (AGI), a potom i superinteligencije, mogao dodatno pogoršati ove izazove. Ako AGI sistemi nisu pravilno usklađeni sa ljudskim vrednostima, mogli bi ostvariti ciljeve koji su u suprotnosti sa ljudskim interesima, izazivajući nenamerne posledice.


Da bi se sprečili takvi scenariji, tehnološki developeri nastoje da usklade svoje modele sa ljudskim vrednostima tokom faze dizajniranja.


Razvoj AI nerazdvojan je od izgradnje i jačanja kapaciteta data centara koji zahtevaju odgovarajuću energentsku infrastrukturu (ilustracija: WIX AI)
Razvoj AI nerazdvojan je od izgradnje i jačanja kapaciteta data centara koji zahtevaju odgovarajuću energentsku infrastrukturu (ilustracija: WIX AI)

Ograničenost kvalitetnih podataka, energetskih resursa i infrastrukture

Pored tehnoloških i etičkih izazova, ograničenja u rastu generativne AI postaju sve vidljivija. Jedno od ključnih ograničenja je nedostatak visokokvalitetnih podataka za obuku modela. Iako su prvi modeli trenirani na podacima prikupljenim s interneta, mnogi od tih podataka su lošeg kvaliteta ili zaštićeni autorskim pravima.


Prognoze pokazuju da bi do 2028. godine mogli iscrpeti dostupne ljudske tekstove na internetu. Tehnološke kompanije istražuju alternativne pristupe, uključujući generisanje sintetičkih podataka za obuku, ali ovaj pristup nosi rizik pada kvaliteta modela zbog sve manje raznovrsnosti podataka.


Istraživači ukazuju na dva ključna problema na koja bi kompanije mogle naići u ranoj fazi razvoja AI, poznatoj kao pre-trening. Prvi je pristup računarskoj moći. Konkretno, to znači nabavku specijalizovanih čipova koji se zovu GPU. To je tržište kojim dominira čip kompanije Nvidia, giganta iz Santa Klare. Drugi izazov su potrebni energetski resursi.

Drugi problem je energetske prirode. Na primer, jedna ChatGPT pretraga troši deset puta više energije nego obična Google pretraga, što dodatno povećava opterećenje na energetske resurse. S obzirom na globalne klimatske ciljeve, neke kompanije istražuju upotrebu nuklearne energije za pokretanje ovih centara, ali implementacija takvih rešenja ostaje izazovna.


Prema studijama, AI trenutno troši oko 4.3 GW energije u celom svetu, što je brojka slična energetskoj potražnji za male zemlje. Data centri su okosnica AI infrastrukture koja ima energetski otisak. Za napajanje ovih postrojenja mnoge firme se još uvek oslanjaju na neobnovljive izvore kao što su ugalj i prirodni gas. Ovo ne samo da utiče na globalno zagrevanje već i unazađuje proglašene ciljeve održivosti.


Nuklearna energija se smatra čistim izvorom zbog niske emisije ugljenika tokom životnog ciklusa i to ga čini održivim rešenjem. Međutim, rarspave oko nuklearne energije i dalje traju zbog izazova sa upravljanjem radioaktivnog otpada i bezbednosnih rizika povezanih sa samim postrojenjima.


Pitanje ekonomske održivosti

Na kraju, pitanje ekonomske održivosti generativne AI takođe postaje ključno. Iako kompanije ulažu milijarde dolara u razvoj AI infrastrukture, trenutni finansijski povraćaj ostaje ograničen. Bez revolucionarnih aplikacija koje bi opravdale ova ulaganja, postoji rizik da će interesovanje investitora oslabiti, što bi moglo usporiti dalji razvoj AI.


Kroz 16 poslovnih funkcija, analizirano je 63 upotrebe tehnologije koje mogu rešavati specifične poslovne izazove na načine koji proizvode jedan ili više merljivih rezultata. Primeri uključuju sposobnost generativne AI da podrži interakcije sa kupcima, generiše kreativni sadržaj za marketing i prodaju, kao i da piše kompjuterski kod na osnovu promptova na prirodnom jeziku.


Najnovija istraživanja procenjuju da bi generativna AI mogla dodati ekvivalent od 2,6

triliona do 4,4 triliona dolara godišnje kroz 63 analizirane upotrebe – za poređenje,

celokupni BDP Velike Britanije u 2021. godini iznosio je 3,1 trilion dolara.


Generativna AI je tehnologija s ogromnim potencijalom, ali i značajnim ograničenjima. Razumevanje ovih izazova i uspostavljanje odgovarajućih standarda za njihovo rešavanje ključni su za osiguranje da AI doprinese globalnoj bezbednosti, a ne njenom ugrožavanju.


  • facebook
  • twitter

©2023 Balkanska bezbednosna mreža. Odbrana i bezbednost iz ugla novinara i urednika sa prostora Jugoistočne Evrope.

bottom of page