AI generisana fotografija čoveka zarobljenog u algoritmu (Magločistač)
Gledajući iz ugla korisnika alatki veštačke inteligencije (eng. artificial intelligence – AI), Srbija ne zaostaje mnogo za drugim zemljama sveta jer ima pristup većini postojećih servisa.
Međutim, kada je reč o onima koji stvaraju AI modele i sisteme, u toj poziciji ćemo se teško naći jer nemamo dovoljno ni kapaciteta niti resursa, ocenio je u razgovoru za Magločistač Vladan Joler, univerzitetski profesor iz Novog Sada.
I ta razlika između korisnika i kreatora AI sistema u budućnosti će biti sve uočljivija.
„Sadašnji modeli, koji su fundamentalni, imaju milijarde i milijarde parametara, a za njihovu izradu je potrebna ogromna količina podataka, hardvera, vremena i sredstava. Mi u Srbiji ćemo verovatno uvek biti zatočeni na strani postojećih korisnika ili ćemo moći tek malo da modifikujemo postojeće sisiteme. Mi smo tako u novoj neotehnokolonijalnoj poziciji“, smatra Joler.
S druge strane, iz perspektive korisnika je u ovom trenutku, dodaje on, izuzetno važno razumeti kako ti sistemi funkcionišu, jer jedino tako možemo kritički da ih posmatramo i prihvatamo informacije koje nam pružaju:
„Jako je bitno da mi imamo barem nekakav uvid u to kako veštačka inteligencija zapravo radi i koje su prednosti i mane takvih sistema, jer oni određuju ono što mi vidimo i ono šta nam se prezentuje, utiču na naše živote tako što moderiraju našu komunikaciju, informativni prostor i sve ostalo“.
Veštačka inteligencija u različitim oblicima postoji već dugo u našim životima, naglašava dalje Joler navodeći primere Gugla i Fejsbuka, ali toga uglavnom nismo bili svesni – sve do pojave ChatGPT-a.
„Ti sistemi su odavno integrisani u moderaciju i procese u kojima se za nešto odlučuje da li će se pojaviti na našem ekranu. Dakle, izloženi smo tome odavno pre ChatGPT-a, a da toga nismo ni bili svesni. Tek pojavom jezičkih modela dobijamo mogućnost da se i mi poigramo sa nekim određenim modelima, mada je veliki broj tih modela iza očij u javnosti“, objašnjava Joler.
Jedan AI sistem se formira prikupljanjem podataka za njegovu obuku tj. trening, što podrazumeva određivanje parametara modela koji donose odluke u novim situacijama na osnovu prethodno viđenih podataka iz dostupne baze.
Pitanje je, međutim, da li su ti podaci uvek objektivni i tačni?
„Unutar pojma algoritamske transparentnosti imamo jedan deo koji se bavi transparentnošću trening podataka za AI. To je bitno zbog toga što se ono što se nalazi u tim trening podacima preslikava u realnost. Ti modeli su vrsta neke statističke kompresije i načina odlučivanja koji se bazira na tim podacima. Tu govorimo o pojmu pristrasnosti veštačke inteligencije, odnosno o greškama kojima ona podleže“, pojašnjava Joler.
Ta pravila igre, ističe dalje on, ne nastaju sama, već ih određuju velike kompanije i jednom kada ih odrede, te vrednosti se zatim preslikavaju na sve korisnike koji će dobijati rezultate moderirane tim vrednostima.
„Tu je veza između transparentnosti i pristrasnosti tih modela. Mi treba da imamo pristup trening podacima i da razumemo kako to funkcioniše da bismo mogli kritički da razumemo koji su pozitivni ili negativni efekti toga“, zaključuje Vladan Joler.
Tako treba imati u vidu da je ChatGPT (GPT – skraćenica od Generative Pre-trained Transformer) baziran na izreci da hiljadu puta izgovorena (čitaj: napisana) laž postaje istina.
I baš takvu istinu će vam jedan ovakav bot saopštiti na upit, a da li ćete vi takvu informaciju prihvatiti kao istinu, zavisi samo od vaše odluke.
„Mi tek treba da naučimo kako da živimo sa tim sistemima. Potreban nam je jedan novi set razumevanja svega toga da bi uopšte imali mogućnost da napravimo te odluke. Trenutno više ne možete biti sigurni kada će ono što ste napisali juče ili prekjuče postati deo sistema ChatGPT-a i kada se on apdejtuje“, objašnjava Vladan Joler.
Za kritički pristup AI modelima kao što je sve popularniji ChatGPT fundamentalno je razumeti način na koji ti modeli dolaze do istine koju izgovaraju, a to je jedan proces statističke obrade:
“Kao istinu vi dobijete nešto što je statistička sredina podataka koji su korišćeni. Međutim, istina ne mora biti ono što je najčešće i zato je važno da razumete kako sve to funkcioniše kako biste mogli da kritički sagledavate i postavljate kritička pitanja“.
U kontekstu statističke istine čiju je formulu i pravila definisanja u vidu algoritma neko morao da odredi, tehnologija nikad ne može biti neutralna sa etičkog aspekta, naglašava Vladan Joler.
Kako kaže, i sam interfejs, recimo, Instagrama definiše šta je moguće ili ne, a unutar te definicije se nama oblikuje realnost slika koje dobijamo.
“Dakle, forma definiše tu neneutralnost, a da ne govorimo o tome šta se dešava unutar toga gde imate sisteme koji funkcionišu na gomili nevidljivih pravila, što su zapravo svi algoritmi“.
Sada se, dodaje on, „sve više ide u pravcu statističkih pravila, i čim se ti sistemi razbiju na sastavne delove, dobija se gomila odluka koje je neko morao da napravi, a svaka ta odluka jeste neka vrsta neneutralnosti i neko je doneo odluku da je na Fejsbuku moguće li nemoguće da se pojavi nešto“, pojašnjava Joler.
Na pitanje kakva je sudbina onih koji nisu kadri da razumeju AI sisteme ili time ne žele da se bave, u atmosferi kada AI postaje deo i alat radnih procesa, Joler odgovara:
„Njeni korisnici su u povlašćenoj situaciji u odnosu na one koji je ne koriste jer određene stvari mogu da odrade brže i lakše uz podršku alata. Jasno je da će postojati svet onih koji koriste AI i onih koji je ne koriste, i prvi će biti brži i efikasniji, ali uz određenu cenu“.
Naime, kao najveći rizik primene AI on, s druge strane, izdvaja hiperprodukciju sadržaja:
„Slike, informacije i sadržaje ćemo sve teže razlikovati od onoga što je napravljeno ’ljudski’. To može da dovede do zasićenja informativnog prostora sadržajem koji je proizveden od strane tih sisitema. Uticaj na naš informativni prostor može biti veoma izazovan u smislu razlikovanja sadržaja. Većina izazova je u polju informacija, dezinformacija ili korišćenja vlasničkih slika u trening podacima bez odobrenja“.
Sve ovo, kako dodaje, dodatno će zakomplikovati zakonska regulativa, koja u Srbiji još nije ni dotakla ovu oblast, dok je Evopa preuzela incijativu na tom polju donoseći različite vrste akata, sa kojima bi Srbija trebalo da se sinhronizuje u jednom momentu.
„Međutim, na globalnom nivou mi sada imamo mnogo veći problem jer će se u Americi sa Trampovom administracijiom najverovatnije ići ka potpunoj deregulaciji, za šta se zalaže i Mask, gde bi svako mogao da radi šta hoće. Evropa za sada jeste zadržala tvrđu poziciju, ali je pitanje do kada će istrajati u tome jer je i ona u novoj društveno-političkoj situaciji“, smatra Joler.
Koje će nam sve promene u narednim decenijama doneti primena veštačke inteligencije, možemo tek da naslućujemo, kaže Vladan Joler.
Ono što je sigurno, jeste da će kompanije koje su vlasnici velikih sistema, te sisteme i dalje razvijajti, te da ćemo imati „još veće raslojavanje unutar hiperbogatog sloja tehmodula u odnosu na ostatak sveta“.
„Vidimo da se na taj način oblikuje i neki politički prostor. I sa kapitalom i sa moći koja dolazi sa vlasništvom nad velikim platformama i tehnologijama, oblikuju se pravila igre u tom tehnološkom prostoru“, objašnjava Joler.
Drugi pravac, koji se retko pominje, ističe dalje on, jeste materijalizam tih sistema jer je za proizvodnju i funkcionisanje AI potrebna ogromna količina energije, a ta energija mora da dođe iz nekih izvora:
“Već sada imamo situaciju gde se mnoge zemlje povlače iz tih ekoloških projekcija koliko stepeni zagrevanja planeta treba da dozvolimo ili ne – uglavnom iz te tehnološke pozicije, jer je potrebna ogromna količina energije“.
Kao primer Joler navodi kompaniju “Majkrosoft” koja sada ulaže milijarde u izgradnju postrojenja pored nuklearne elektrane odakle će crpeti energiju u narednih 20 godina, jer im samo za potrebe treninga treba ogromna količina energije.
„Trka za energijom, za podacima, za metalima i pravljenjem novih lanaca snabdevanja će biti jako izazovni u budućnosti. Verujem da ćemo imati i ratove za energiju, za metale, uz trku za prikupljanjem podataka kako bi neki model bio sve moćniji“, zaključuje Vladan Joler.
Vladan Joler je univerzitetski profesor, istraživač i umetnik čije su aktivnosti usmerene na presek digitalnih prava, kritičke kartografije i forenzičkog mapiranja savremenih tehnoloških sistema. Profesor je na Odseku za nove medije Akademije umetnosti u Novom Sadu i suosnivač SHARE Fondacije, u okviru koje predvodi SHARE Lab, laboratoriju posvećenu istraživanju algoritamske transparentnosti, digitalnog rada i nevidljivih tehnoloških infrastruktura. Njegova dela, poput Anatomy of an AI System (2018) i Facebook Algorithmic Factory (2016), razotkrivaju složene mreže eksploatacije koje se nalaze u osnovi tehnologija u svakodnevnoj upotrebi. U saradnji sa profesorkom Kate Crawford, kreirao je i Calculating Empires, monumentalnu vizuelizaciju istorije tehnologije i moći, izloženu u Fondaciji Prada. Njegovi radovi nalaze se u stalnim postavkama muzeja kao što su MoMA i Victoria & Albert Museum, a nedavno je objavio i knjigu Black Box Cartography, u kojoj sabira svoja istraživanja o nevidljivim strukturama savremenog digitalnog sveta.
Ovaj tekst je nastao u okviru projekta „Mladi i mediji za demokratski razvoj“ koji Magločistač realizuje u partnerstvu sa Beogradskom otvorenom školom i uz podršku Švedske. Stavovi i mišljenja izneti u ovom tekstu ne predstavljaju nužno i mišljenje partnera i donatora.
Komentari odražavaju stavove njihovih autora, ne nužno i stavove redakcije portala Magločistač. Na našem sajtu biće objavljeni svi pristigli komentari, osim komentara koji sadrže govor mržnje, psovke i uvrede ili nisu u vezi sa temom članka koji se komentariše. Govor mržnje je definisan Zakonom o javnom informisanju i medijima, koji u članu 86. kaže: „Idejama, mišljenjem, odnosno informacijama, koje se objavljuju u medijima ne sme se podsticati diskriminacija, mržnja ili nasilje protiv lica ili grupe lica zbog njihovog pripadanja ili nepripadanja nekoj rasi, veri, naciji, polu, zbog njihove seksualne opredeljenosti, rodnog identiteta ili drugog ličnog svojstva bez obzira na to da li je objavljivanjem učinjeno krivično delo”. Pre nego što budu objavljeni, komentari moraju biti odobreni od strane naših moderatora, pa vas molimo za malo strpljenja.