SVATKO MOŽE BITI META
Opasan trend s razornim posljedicama nekontrolirano se širi: Žrtve traže pravdu
Brzorastući problem zlonamjernih deepfake videozapisa predstavlja ozbiljnu prijetnju privatnosti i suglasnosti, a sve više žrtava se bori za pravdu. Ovaj široko rasprostranjen fenomen donosi ozbiljne konsekvence, posebno za ženske osobe.
Mlada studentica inženjeringa iz regije New England u SAD-u, poznata pod pseudonimom Taylor, postala je meta zlonamjernih deepfake pornografskih videozapisa. U ovom slučaju, nepoznati počinitelji su koristili naprednu tehnologiju umjetne inteligencije kako bi postavili njezino lice u eksplicitne pornografske materijale, piše CNN.
Izložba koju kreira umjetna inteligencija prvi put u Zagrebu, tema je i budućnost umjetnosti
Pored toga, ti počinitelji otkrili su informacije o njezinoj stvarnoj školi i adresi prebivališta, potičući nepoznate muškarce na komunikaciju putem društvenih medija.
Naglašava se zabrinutost zbog činjenice da u ovom trenutku u Sjedinjenim Američkim Državama ne postoje federalni zakoni koji zabranjuju stvaranje i dijeljenje deepfake pornografije bez pristanka.
Traje inicijativa za donošenje saveznog zakona
U Sjedinjenim Američkim Državama trenutno traje inicijativa za donošenje saveznog zakona koji bi proglasio nezakonitim praksu stvaranja i dijeljenja deepfake pornografije bez pristanka, a isto tako bi se izmijenio članak 230. Zakona o komunikacijskoj pristojnosti, koji pruža internetskim platformama određenu zaštitu od odgovornosti za sadržaj koji korisnici postavljaju.
FOTO: Unsplash
Deepfake pornografija postaje sve raširenija, s posebnim naglaskom na njezinu prisutnost među ženskim žrtvama. Broj takvih videozapisa na internetu udvostručava se svakih šest mjeseci između 2018. i 2020. godine. Alarmantno je da čak 96 posto deepfake videozapisa sadrži seksualno eksplicitan sadržaj i obuhvaća žene koje nisu dale svoj pristanak.
Zahvaljujući napretku u području umjetne inteligencije, proces stvaranja uvjerljivih deepfake videozapisa postaje sve pristupačniji i jednostavniji.
Iskorištavanje eksplicitnih videozapisa s omiljenim celebrityjem ili 'običnim ljudima'
Danas je dovoljno imati samo jednu ili dvije slike lica osobe, a korisnički prijateljske aplikacije omogućuju kreiranje deepfake videozapisa.
FOTO: Unsplash
Počinitelji također primaju narudžbe za eksplicitne videozapise s omiljenim celebrityjem, bivšim partnerom ili učiteljem, naplaćujući veoma malo novca. Te prakse nisu više skrivena niša, već su postale mainstream.
To predstavlja ozbiljan rizik za mlađe generacije koje bi mogle smatrati gledanje deepfake pornografije svojih omiljenih glumica ili kolegica kao nešto normalno.
Žrtve trpe razorne posljedice
Žrtve trpe razorne posljedice, uključujući ozbiljne emocionalne tegobe poput anksioznosti i OCD-a.
Kampanja "My Image My Choice" ističe potrebu za usvajanjem federalnih zakona koji bi sankcionirali počinitelje i platforme koje dopuštaju stvaranje i širenje deepfake pornografije bez pristanka. Osim toga, takvi zakoni bi prisilili platforme da uklone takav sadržaj.
Ovo bi potencijalno imalo dubok utjecaj na poslovni model koji se temelji na kršenju suglasnosti i privatnosti žena.
Komentari
VAŽNO Ako ne vidite komentare ne znači da smo ih zabranili ili ukinuli. Zahvaljujući pravilima Europske unije o privatnosti podataka treba napraviti sljedeće: 1. Logirati se na Facebook u ovom browseru i omogućiti korištenje kolačića (cookies). Logirati se možete ovdje: https://www.facebook.com/ 2. Uključiti third party cookies u svom browseru. Ako koristite Chrome to možete učiniti na chrome://settings/cookies. Pozivamo čitatelje/komentatore da u svojim komentarima njeguju civiliziranu raspravu. Portal Direktno ne može se smatrati odgovornim za komentare koji sadrže uvrede, klevete, govor mržnje, huškanje i/ili poziv na nasilje. Takvi komentari bit će obrisani, a u posebno ekstremnim slučajevima mogu biti i potpuno onemogućeni. Sporne komentare čitatelji mogu prijaviti na [email protected], uz priloženu poveznicu na pripadajući članak i navođenje autora i sadržaja spornoga komentara.