U Srbiji i zvanično legalizovana tzv. dividenda lažova kao legitiman izvor prihoda političara

U Srbiji i zvanično legalizovana tzv. dividenda lažova kao legitiman izvor prihoda političara

Izvor: Pixabay.com

18.03.2025

Ne, tako nešto ne postoji. Ali postoji fenomen dividende lažova koji se koristi u teoriji igara, u ekonomiji, a sa pojavom tzv. deepfake sadržaja sve češće se navodi i u kontekstu politike i medija. Na koji način je dividenda lažova povezana sa medijskom i informacionom pismenošću, te ekspanzijom veštačke inteligencije, pročitajte u tekstu koji je pred vama da ne biste i sami postali – žrtve lažova.


Fotografija Donalda Trampa i Vladimira Putina “na dejtu”, video Volodimira Zelenskog kako izvodi trbušni ples u crvenom kostimu, potom onaj na kojem Džo Bajden obećava da će podržati borbu Ukrajine protiv Rusije, zatim fotografija i video u kom se francuski predsednik Emanuel Makron navodno ljubi sa nepoznatim muškarcem, pa još jedan video Zelenskog koji plače zbog Trampove pobede…

Sve ovo su neki od manipulativnih sadržaja koji su obeležili 2024. godinu, a koji su – kako se to danas kaže – generisani pomoću veštačke inteligencije – VI (eng. artificial intelligenceAI).

Veštačka inteligencija (VI) je grana računarskih nauka koja se bavi razvojem sistema i mašina sposobnih da obavljaju zadatke koji obično zahtevaju ljudsku inteligenciju.

Počeci razvoja veštačke inteligencije sežu u 50-te godine prošlog veka, kada Alan Tjuring (1912–1954), britanski matematičar, logičar i pionir računarskih nauka, često nazivan “ocem veštačke inteligencije”, postavlja osnove sa “Tjuringovim testom” i konceptom mašina koje mogu misliti.

VI postaje zvanična naučna disciplina 1956. godine. U to vreme, prvi programi rešavaju logičke probleme i igraju šah.

Period stagnacije u razvoju VI nastupio je već 1960. godine zbog ograničenja u procesorskoj snazi, koji je trajao do 90-tih godina, kada dolazi do razvoja mašinskog učenja I neuronskih mreža. IBM-ov Deep Blue 1997. pobeđuje šahovskog šampiona Garija Kasparova.

Od 2010. do danas razvoj VI beleži vrtoglavi uspon – duboko učenje, obrada velikih podataka i napredak u računarskoj snazi dovode do impresivnih dostignuća.

Sadržaji proizvedeni sličnom tehnologijom nisu mimoišli ni domaći medijski prostor, pa je tako Viši sud u Beogradu prošle godine zabranio Pinku da u svom televizijskom programu emituje tzv. deepfake audio i video-priloge o Draganu Đilasu.

Kada je reč o audio-sadržajima, kraj 2024. obeležio je i slučaj ‘Zobenica’, o kojem su se mogle čuti oprečne tvrdnje u vezi sa verodostojnošću snimka u kom Damir Zobenica, tadašnji potpredsednik Skupštine AP Vojvodine, u telefonskom razgovoru daje zadatak aktivistima SNS-a da izazovu incidente i vređaju opozicione predstavnike na mestima gde se održavaju protesti zbog stradanja 15 ljudi na Železničkoj stanici u Novom Sadu.

Da je ovaj primer u Srbiji izazvao značajnu pažnju, kako zbog manipulacije na visokim nivoima vlasti, tako i zbog šireg fenomena poznatog kao dividenda lažova (eng. liar’s dividend) – u kojem čak i stvarni dokazi mogu biti dovedeni u pitanje tvrdnjama da su manipulativni – za Magločistač ocenjuje Nataša Kilibarda, istraživačica i digitalna forenzičarka CRTE.

Dividenda lažova je izraz koji potiče i koristi se u teoriji igara i ekonomiji da bi opisao situaciju u kojoj osoba ili strana koja laže ima koristi od svoje obmane. Kada neko laže ili daje pogrešne informacije, može ostvariti određenu korist ili prednost jer drugi učesnici u igri ili situaciji veruju u te informacije i postupaju u skladu s njima.

Ovaj termin se, međutim, sve češće koristi i u kontekstu politike i medija, a vezano za dezinformacije i lažne vesti, posebno kada je reč o onim sadržajima koji su proizvedeni deepfake tehnologijom.

“Kao što smo u značajnoj meri prikazali u analizi Istinomera, audio-snimak u ovom slučaju bio je autentičan, uprkos tvrdnjama samog Zobenice da je u pitanju veštačka inteligencija. Ove tvrdnje su korišćene kao spin za skretanje pažnje sa problematičnog sadržaja snimka, ali i za diskreditaciju onih koji su ukazivali na odgovornost Damira Zobenice”, objašnjava Kilibarda.

Ovaj slučaj, prema njenim rečima, dobro oslikava kako se tehnologije poput veštačke inteligencije i deepfake-a, čak i kada de facto nisu korišćene, mogu zloupotrebiti u propagandne svrhe, stvarajući opštu zbunjenost i sumnju javnosti u autentičnost dokaza.

Time se, kaže Kilibarda, dodatno otežava razlučivanje istine od laži što, indikativno, manipulativnim akterima pruža prostor za relativizaciju odgovornosti i diskreditaciju političkih oponenata.

Deepfake – opasna alatka u medijski i digitalno nepismenom okruženju

Kreiranje tzv. deepfake sadržaja primarno na društvenim mrežama, prema oceni Nataše Kilibarde, potencijalno je posebno opasno u državama poput Srbije, koja zakonski još nije uredila ovu oblast i koja ima problem sa stepenom medijske i digitalne pismenosti.

Deepfake je tehnologija koja koristi veštačku inteligenciju (uglavnom duboko učenje i neuronske mreže) za kreiranje lažnih audio-vizuelnih sadržaja koji izgledaju ili zvuče kao pravi.

Termin deepfake nastao je kombinovanjem reči deep learning (duboko učenje) i fake (lažan), a prvi put se pojavio 2017. godine na internetu, kada je jedan korisnik Reddit-a, pod imenom deepfakes, počeo da objavljuje lažne video-snimke poznatih ličnosti generisane uz pomoć dubokog učenja.

A takvi sadržaji generisani veštačkom inteligencijom u vidu fotografija, video-snimaka i audio-materijala, koji se munjevitom brzinom šire na društvenim mrežama, uveliko su već prisutni na našem govornom području.

Ovakvi sadržaji su, dodaje Kilibarda, često prisutni i u Telegram grupama i kanalima s proruskim, nacionalističkim i ekstremno desnim stavovima, gde se koriste za manipulaciju, dezinformacije, propagandu ili spin.

“Ciljne grupe ovih sadržaja obično su široko definisane, oslanjajući se na tzv. zakon velikih brojeva. Činjenica da je značajan deo publike u Srbiji i regionu medijski i digitalno nepismen, olakšava širenje ovakvog tipa manipulacija”, objašnjava Kilibarda.

S druge strane, dodaje, čak i medijski obrazovani pojedinci mogu nasesti na lažne sadržaje upravo zbog sofisticiranosti alata za generativnu veštačku inteligenciju i prirode društvenih mreža, što je posebno slučaj kod konzumenata sadžaja na telefonima ili tabletima, gde – u moru informacija – i pažnja na bitne detalje može opasti.

Poseban problem je, pak, to što, naglašava Kilibarda, portali bliski vlasti u Srbiji, pa čak i televizije s nacionalnim frekvencijama, koriste sliku ili video koji su generisani veštačkom inteligencijom i sličan VI sadržaj za manipulaciju, diskreditaciju političkih oponenata, čime dodatno doprinose normalizaciji ovakvih praksi u javnom prostoru.

U Evropi usvojen Akt o veštačkoj inteligenciji, u Srbiji ni na vidiku

U Srbiji oblast veštačke inteligencije i upotrebe sadržaja generisanog uz njenu pomoć trenutno nije jasno i specifično zakonski regulisana, posebno kada je reč o dezinformacijama.

Krivični zakonik, Zakon o javnom informisanju i medijima ili Zakon o zaštiti podataka o ličnosti pružaju tek okvir za sankcionisanje određenih oblika manipulacije i zloupotrebe, ali u tom smislu ne prepoznaju direktno sadržaje generisane veštačkom inteligencijom.

Na ovom polju, ako je za utehu, nije se puno odmaklo ni u svetu.

Evropska unija (EU) je učinila pionirski poduhvat usvajajući Akt o veštačkoj inteligenciji – prvu sveobuhvatnu uredbu te vrste na svetu (!) – koji je stupio na snagu u avgustu 2024, a države članice su imale rok do februara ove godine da odrede nacionalna nadležna tela koja će nadgledati primenu pravila za sisteme veštačke inteligencije i sprovoditi aktivnosti nadzora.

Cilj ove uredbe je da se uspostavi usklađeno unutrašnje tržište za veštačku inteligenciju u EU, podstakne uvođenje te tehnologije i stvori podsticajno okruženje za inovacije i ulaganja.

Nataša Kilibarda iz CRTE ističe da će značajan deo prava i obaveza kompanija i pojedinaca koji iz Srbije deluju na području EU biti obuhvaćen ovim evropskim zakonom, kao što je to bio slučaj i sa GDPR-om (The general data protection regulation).

“Jedan od problema u našoj zemlji je što se regulativa u Srbiji sporo prilagođava brzom razvoju tehnologije. Na primer, dezinformacije generisane VI tehnologijom često ne podležu postojećim zakonima o lažnim vestima i širenju panike, jer zakonodavac ne prepoznaje tehničke specifičnosti ovih sadržaja, niti jasno definiše odgovornost za njihovo širenje”, smatra Kilibarda.

Drugi izazov je, prema njenoj oceni, nedostatak transparentnosti i kontrole nad upotrebom VI alata u političkim kampanjama, propagandi i na platformama sa nacionalnom pokrivenošću, gde su ovakvi sadržaji već uočeni, dok uz sve to mehanizmi zaštite od dezinformacija – poput sistemske edukacije o digitalnoj pismenosti ili regulacije rada platformi – nisu adekvatno razvijeni.

Srbija je u značajnom riziku da postane prostor za nekontrolisanu upotrebu VI tehnologija u manipulativne svrhe. Upravo imajući sve to u vidu, neophodno je uvesti specifične zakone i regulative koji prepoznaju izazove generativne VI, uključujući odgovornost za plasiranje manipulativnih sadržaja, ali i edukovati javnost o alatima za prepoznavanje dezinformacija i podizati nivo digitalne pismenosti”, ističe Nataša Kilibarda.

Bez sistemske reakcije, smatra ona, VI generisani sadržaji mogu dodatno ugroziti poverenje u medije, produbiti polarizaciju i omogućiti neetičko ponašanje aktera na društvenoj i političkoj sceni.

A dok čekamo regulativu, kako da se sami zaštitimo?

Slično kao i kod tradicionalnih medija, pre svega “žute štampe”, najpre treba da se zapitamo da li sadržaj koji je pred nama izaziva jaku emocionalnu reakciju je – ako izaziva – velika je verovatnoća da se radi o nekom obliku manipulacije.

“Kako prirodno privlače pažnju i izazivaju jake emocionalne reakcije kod ljudi, fotografije i snimci koji su obogaćeni grafičkim detaljima i emotivno nabijenim elementima imaju visok potencijal za viralnost. Takav sadržaj se brzo širi sa platforme na platformu dosežući stotine hiljada korisnika, pa je samim tim demantovanje ovakvih dezinformacija često otežano”, objašnjava za Magločistač Nataša Kilibarda, istraživačica i digitalna forenzičarka u CRTI.

Ukoliko želimo da se zaštitimo od ovog obilka dezinformacija, kao prvi korak provere sumnjivog sadržaja, savetuje se klasična obrnuta pretraga fotografija na bilo kom pretraživaču, kako bismo utvrdili postoji li negde na internetu slična fotografija u svom izvornom obliku. 

Taj je korak, prema rečima stručnjaka, “alfa i omega” provere vizualnog sadržaja koju mogu primenjivati svi konzumenti sadržaja.

“Čitaocima su svakako dostupni i brojni besplatni alati za detekciju VI generisanih sadržaja poput InVID, WeVerify, Deepware ili Forensically koji pomažu u analizi fotografija i video-snimaka. Ovi alati omogućavaju osnovu provere poput analize metapodataka, otkrivanja tragova digitalne manipulacije ili ispitivanja originalnosti sadržaja”, objašnjava Nataša Kilibarda za one koji žele da uđu u dublju analizu spornog sadržaja.

Nešto obučenijim pojedincima dostupni su, dodaje ona, napredniji alati koji kombinuju osnove programiranja, specijalizovane jezičke modele za detekciju ili softvere koji koriste kompleksne algoritme za otkrivanje neusklađenosti u svetlosti, senkama i proporcijama na fotografijama, ali se mogu kombinovati i VI tehnologije sa manuelnom analizom i OSINT metodama, čime se osigurava dublja provera izvora i konteksta.

Saveti za prepoznavanje sadržaja kreiranih veštačkom inteligencijom

Proverite izvor, obratite pažnju na to ko deli sadržaj. Nepoznati ili sumnjivi profili ili portali često objavljuju manipulativne materijale.

Analizirajte vizuelne detalje, obratite pažnju na neprirodne detalje, zamućenja poput iskrivljenih ruku, asimetričnih lica, neusklađenih senki ili nepravilnih odsjaja na fotografijama.

Zapitajte se koju poruku sadržaj šalje, jer šokantni grafički materijal kreiran da izazove emocije kod publike neretko postaje viralan bez obzira na svoju neautentičnost i manipulativnu prirodu.

Proverite metapodatke, koristite besplatne alate poput InVID-a za analizu metapodataka i poreklo sadržaja.

Koristite obrnutu pretragu fotografija, alatima poput Google Reverse Image Search ili TinEye proverite da li je slika ranije objavljena i u kom kontekstu.

Budite umereno skeptični i ne donosite zaključke na osnovu naslova ili površnog pregleda sadržaja sa društvenih mreža, radite na svojoj digitalnoj i medijskoj pismenosti.


Ovaj tekst je nastao u okviru projekta „Mladi i mediji za demokratski razvoj“ koji Magločistač realizuje u partnerstvu sa Beogradskom otvorenom školom i uz podršku Švedske. Stavovi i mišljenja izneti u ovom tekstu ne predstavljaju nužno i mišljenje partnera i donatora.

Podelite sa prijateljima:

Jedan Komentar na
“U Srbiji i zvanično legalizovana tzv. dividenda lažova kao legitiman izvor prihoda političara”

Posmatrač says:

Alal vera kako ste “istražili” istoriju AI i preskočili sve što se dešavalo 70ih i 80ih. To je to “profesionalno novinarstvo” na delu.

Leave a Reply

Vaša email adresa neće biti objavljenja. Obavezna polja su markirana *

Upišite tekst *

Komentari odražavaju stavove njihovih autora, ne nužno i stavove redakcije portala Magločistač. Na našem sajtu biće objavljeni svi pristigli komentari, osim komentara koji sadrže govor mržnje, psovke i uvrede ili nisu u vezi sa temom članka koji se komentariše. Govor mržnje je definisan Zakonom o javnom informisanju i medijima, koji u članu 86. kaže: „Idejama, mišljenjem, odnosno informacijama, koje se objavljuju u medijima ne sme se podsticati diskriminacija, mržnja ili nasilje protiv lica ili grupe lica zbog njihovog pripadanja ili nepripadanja nekoj rasi, veri, naciji, polu, zbog njihove seksualne opredeljenosti, rodnog identiteta ili drugog ličnog svojstva bez obzira na to da li je objavljivanjem učinjeno krivično delo”. Pre nego što budu objavljeni, komentari moraju biti odobreni od strane naših moderatora, pa vas molimo za malo strpljenja.