Osnaživanje, stil i inspiracija spajaju se u svakom izdanju našeg magazina.
|
January 30, 2026

Veštačka inteligencija postala je dostupna, jeftina, ne zahteva programersko znanje i ne kontroliše se. Sjajna uvertira da mizoginija dobije novu formu: deepfake pornografija
Zastanite na trenutak i pokušajte da zamislite sledeće: unosite svoje ime u pretraživač i iskače vam eksplicitni snimak. Na njemu, žena opšti sa nekolicinom partnera, ali to vas ne šokira. Šokira vas to što ona ima vaše lice. Kako se osećate? O čemu mislite?
Deepfake pornografija je, zahvaljujući razvoju veštačke inteligencije, postala realna opasnost sa kojom se suočavaju sve žene. Samo tokom prošle godine napravljeni su milioni ovakvih snimaka. Samo u Australiji je 7.000 žena bilo prinuđeno da se suoči sa pitanjima iz našeg prvog pasusa. Samo što za njih situacija nije bila imaginarna, već vrlo, vrlo stvarna.
Deepfake se pojavio kao termin još 2017. godine i to na Redditu. Sporna tema vodila je do niza lažnih seks-snimaka poznatih ličnosti. Od tada, do danas, na udaru deepfake bili su holivudski glumci, političari, čak i papa. Noelle Martin, advokatica i borkinja za ljudska prava, jedna je od prvih anonimnih žena koje su istupile i progovorile o svom iskustvu sa deepfake pornografijom. Noelle je imala samo 18 godina kada je, iz puke dosade, počela da gugla svoje ime. Umesto starog profila na My Space, ona je našla stotine lažnih snimaka i fotografija seksualne sadržine. Na svima je bilo njeno lice.
– Bilo mi je muka – opisala je Noelle svoju prvu reakciju za australijski Marie Claire.
Iako je znala da nije ona na tim snimcima, osetila je gotovo fizičku odbojnost i potrebu da se sakrije i očisti. Osećanja vrlo slična onima koje opisuju žrtve seksualnih napada. Zatim su usledila pitanja: Da li je ovo još neko video? Da li je video neko ko me poznaje? Da li će uticati na moju porodicu? Na moj posao? Stvar je samo postala gora kada je ušla u policijsku stanicu, spremna da se obračuna sa počiniocima i shvatila da nema odakle da počne. Zakoni ne poznaju ovu temu. Tako je Martinova, danas tridesetogodišnjakinja, postala jedna od prvih aktivistkinja koja se bavi ovom temom.
Прикажи ову објаву у апликацији Instagram
Danas je situacija još i gora, nego u vreme kada je Noelle krenula u borbu. Veštačka inteligencija pružila je zlostavljačima alate koji stvaraju vrlo realistične snimke. Na udaru se može naći bilo koja osoba koja je u nekom trenutku uploudovala svoju fotografiju na internet. To znači – svaka od nas. Nedavna analiza NBC News-a pokazala je da su sajtovi koji hostuju deepfake lako dostupni putem Google pretrage, kao i da autori koriste onlajn čet-platformu Discord kako bi nudili personalizovane snimke. Cena pravljenja petominutnog deepfake snimka do skora je iznosila 65 dolara, danas je besplatna za sve one koji koriste AI. Zahvaljujući razvoju veštačke inteligencije i alata, ovakva vrsta osvetničke pornografije iz incel svemira stigla je do mainstreema. Procene pokazuju da je u 2023. bilo napravljeno 500.000 deepfake fajlova. Prošle godine? Preko osam miliona! Od te cifre čak 90 odsto čini upravo pornografiju čije su žrtve (ne uglavnom, nego gotovo u potpunosti) žene. Neki filmovi se prave sa namerom da se od žena iznude usluge ili novac, neke zarad direktnog uznemiravanja, neke iz puke zabave, ali posledice za žene koje su žrtve su iste.
Sramota, poniženje, dehumanizacija… Ovo je prvo što osete žene koje vide svoj lažni pornografski snimak. Najčešće opisuju da su se osetile prljavo, zloupotrebljeno, napadnuto. Većina ih je doživela potpuno odbacivanje od strane društva. Partnerima je teško da poveruju da je snimak lažan, porodica takođe izrazi sumnju, o javnosti da i ne pričamo. U potrazi za odgovorom na pitanje: da li je to zaista ona? čak i porodica i prijatelji ulaze u krug gledanja i distribucije filma, umesto da mu stanu na put. Stigma i strahovi koje osećaju žrtve deepfake pornografije, po mišljenju psihologa, vrlo su slični onima koje osećaju žrtve silovanja.
Paris Hilton, žena čiji je intimni video buknuo na internetu, bez njenog pristanka, u trenutku kada je ova tehnologija bila nova i kada nije bilo zakona da je zaštite, stala je iza zahteva da se deepfake pornografija zabrani. Njena poruka koju je poslala sa Kapitol Hila pre nekoliko dana odjeknula je u svetskim medijima: To nije skandal. To je zloupotreba.
Прикажи ову објаву у апликацији Instagram
Iako je ova tema živa već nekoliko godina, tek kada postanete žrtva deepfake pornografije ili upoznate neku od žena koja je proživela ovu formu zlostavljanja, shvatite koliko smo nezaštićene. Zakonskih okvira nema, pa nemate nikakvu mogućnost da dokažate da to niste vi, da pokrenete postupak protiv onoga ko je vaš lažni snimak kreirao, da naterate platforme da ga uklone… Kada se jednom dogodi, deepfake postaje noćna mora uživo. Na prste jedne ruke mogu se nabrojati države koje su preduzele ozbiljne korake da spreče njeno širenje:
Ujedinjeno Kraljevstvo (UK) – Vlada je usvojila stav da je deljenje ili pretnja deljenjem intimnih slika, uključujući deepfake, bez pristanka krivično delo. Kriminalizovano je stvaranje i distribucija deepfake sadržaja, a Online Safety okvir omogućava da ostvarite svoja prava pred online platformama koje su registrovane u UK.
Australija je 2024. usvojila izmene krivičnog zakonika kojima se uvode prekršaji/krivična dela za deljenje materijala seksualnog sadržaja, bez pristanka osoba koje u njemu učestvuju. Uključen je AI-obrađen materijal.
Južna Koreja je takođe pooštrila režim: po izveštajima, kazne za proizvodnju/distribuciju deepfake pornografije su povećane, a uvedena je i odgovornost za posedovanje/gledanje (što je neuobičajeno strogo u poređenju s drugim državama).
Evropska unija (EU) je donela Direktivu 2024/1385 o borbi protiv nasilja nad ženama i porodičnog nasilja, a u materijalima Evropskog parlamenta se navodi da direktiva adresira i nepristanak u vezi sa AI-generisanim (deepfake) slikama i zaštitu žrtava. Takođe, sve članice su u obavezi da što pre donesu adekvatne zakone.
Kanada neke kanadske provincije imaju posebne akte koji sankcionišu distribuciju intimnih fotografija bez pristanka.
Ne, ali daje bar neko polazište. Bez zakonskog okvira, žrtve nemaju nikakav zaklon. Policija i sudovi ne mogu da reaguju, platforme nisu u obavezi da učine sadržaj nedostupnim. Onoga trenutka kada je zakon usvojen deepfake biva jasno označen kao kriminalno delo, krivica se prebacuje sa žrtve na zlostavljača i šalje se jasna poruka javnosti: Ovo nije u redu. Ipak, zakoni nisu svemogući. AI tehnologija učinila je deepfake pornografiju širokorasprostranjenom, a njeno stvaranje lakim. Sadržaj se stvara za manje od minute, a za još nekoliko postaje globalno dostupan. Šteta je nastala i njene posledice je nemoguće ukloniti u potpunosti.
Zato se u javnosti sledećim korakom smatra stvaranje okvira koji omogućava da se smanji dostupnost alata za stvaranje ovog sadržaja, odnosno da se sankcionišu i zabrane sve one aplikacije i servisi koji dozvoljavaju stvaranje deepfake. Cilj je da se utvrdi odgovornost platformi u celoj ovoj epidemiji: da li one znaju za sadržaj, da li podstiču njegovu distribuciju, da li su dovoljno brze u uklanjanju i da li profitiraju od njega. Takođe, jedan od koraka je nametanje obaveze korisnicima da se svaki materijal koji je obrađen od strane veštačke inteligencije označi posebnim vodenim žigom, kako bi se jasno raspoznavao deepfake.
Ipak, ako pitate žrtve i analitičare, jedina stvar koja zaista može da stane na put lažnim pornografskim snimcima jeste promena narativa u javnosti. U ovom trenutku, prvo i uobičajeno pitanje koje se postavlja kada dođemo u susret sa deepfake pornografijom jeste: Kako znaš da nije ona? Žrtvu stavljamo u položaj da se pravda partneru, porodici, okruženju, a potom i celoj javnosti. Deepfake je pitanje moći i kontrole nad ženskim telom i pravi cilj bi trebalo da bude da se ovakva pornografija označi kao digitalno nasilje i/ili zlostavljanje. Krivica, sa žene kao žrtve, treba da bude prebačena na nasilnika. Nije sramota što se lažni snimak sa vašim licem pojavio, sramota je napraviti ga, distribuirati, profitirati od njega. Tek kada se ovo težište prebaci, deepfake će izgubiti moć nad nama.
Foto: Marcus Winkler/Pexels.com