DRAMATIČAN PORAST
Lažne vijesti su gorući problem u svijetu: Stručnjaci navode pet savjeta za njihovo prepoznavanje
Širenje dezinformacija i lažnih vijesti već je neko vrijeme gorući problem u svijetu. Broj otkrivenih tzv. "deepfakeova" diljem svijeta udeseterostručio se od 2022. do 2023. godine.
Europa je doživjela nevjerojatan porast slučajeva od 780 posto, dok je Sjeverna Amerika zabilježila još dramatičniji porast od 1,740 posto. Izvješća pokazuju da je više od 4000 slavnih postalo žrtvama "deepfakeova", a predviđa se da će globalno gospodarstvo izgubiti 40 milijardi dolara do 2027. godine zbog rastuće prijetnje korištenja umjetne inteligencije kada je riječ o lažnim vijestima. U svjetlu toga, stručnjaci AIPRM-a sastavili su pet profesionalnih savjeta za uočavanje lažnih vijesti i kako se zaštititi od utjecaja izmišljenih sadržaja.
Prva točka je da lažne vijesti često koriste emocionalne okidače kako bi iskrivile prosudbu osobe. Zatim su tu čudne crte lica, neobičan oblik lica i ušiju. Također, bitno je pripaziti na neusklađenost između audio i vizualnih znakova, osobito kod zvukova slova poput M, B i P. Dezinformacije su rangirane kao najveći rizik za 2024., a "deepfake" se pojavljuje kao jedna od najvećih AI prijetnji. Navedeno je i pet profesionalnih savjeta stručnjaka za umjetnu inteligenciju u tome kako se izboriti s "deepfake" tehnologijom.
Prvo što se savjetuje je provjera izvora i konteksta. Lažne vijesti šire se brže od pravih na X-u (nekadašnjem Twitteru), što je zabrinjavajući trend s obzirom na to da se 30 posto ljudi oslanja na društvene medije kao redoviti izvor vijesti. Važno je ispitati vjerodostojnost izvora koji stoje iza sadržaja koji se konzumira. Važno je utvrditi dolaze li informacije od neke ugledne novinske kuće ili drugog provjerenog izvora. Ako je izvor nepoznat ili izgleda sumnjivo, bilo bi dobro provjeriti autentičnost sadržaja pomoću pouzdanih novinskih organizacija ili platformi za provjeru činjenica poput Googleovih alata za provjeru činjenica.
Preporučuje se zastati i procijeniti
Isto tako, bitno je na umu imati da dezinformacije često djeluju na emocionalne okidače poput straha, ljutnje ili bijesa kako bi utjecale na ljudsku prosudbu. Kada se naiđe na sadržaj koji izaziva emocije, preporučuje se zastati i ponovno procijeniti kako bi bili sigurni je li to stvarna ili lažna informacija. Drugi je savjet promatrati izraze lica i pokrete jer "deepfakeovi" nekad teško mogu replicirati detalje izraza lica i prirodnih pokreta. Ključna područja za pažljivo ispitivanje su mikroizrazi oko očiju i usta.
Važno je pripaziti na neprirodne obrasce treptanja, nepovezane pokrete očiju ili trzave pokrete glavom i provjeriti jesu li izrazi lica u skladu s prenesenim emocijama. Pojedinosti poput ujednačenosti zuba, teksture kose i strukture lica također mogu otkriti "deep fake". Na primjer, virusni "deep fake" Chrisa Uméa o Tomu Cruiseu koji izvodi trik s novčićem 2021. bio je toliko uvjerljiv da ga 78 posto gledatelja nije moglo razlikovati od stvarnog sadržaja.
Ključni su oblici lica i ušiju, a posebno je teško kopirati vjerodostojnost pokreta ušiju. Pauziranje snimke i ispitivanje crta lica može vam pomoći da uočite te nepravilnosti. Baš kao i s ozloglašenim "deepfakeom" Baracka Obame koji je Donalda Trumpa navodno nazvao "totalnim i potpunim kretenom". Treći savjet je koristiti alate za obrnuto pretraživanje slika i videozapisa. Preporuča se upotrijebiti alate za pretraživanje obrnutih slika i videozapisa kako biste pronašli podrijetlo vizualnog sadržaja.
FOTO: YouTube/Screenshot
Često se otkrivaju suptilnim digitalnim nedostatcima
Preporuka je da prijenos slika na Google Reverse Image Search može pomoći u prepoznavanju generirane umjetne inteligencije, manipulirane ili korištene izvan konteksta. Za videozapise, alati poput InVID-a mogu secirati snimke i provjeriti ima li izmjena ili prethodnih pojavljivanja. Ova pretraživanja omogućuju da se pronađu druge kopije slika na internetu, što pomaže u provjeri autentičnosti i otkrivanju potencijalne zlouporabe. Četvrti savjet je potražiti digitalne artefakte i nedosljednosti. Naime, "deepfakeovi" se često otkrivaju kroz suptilne digitalne nedostatke poput zamućenja ili neprirodne pikselizacije, osobito oko rubova lica ili objekata.
Treba obratiti pozornost na nedosljednosti u osvjetljenju, sjenama, refleksiji ili čak dodatnom prstu, što bi moglo ukazivati na manipulaciju. Ne treba zaboraviti provjeriti ima li u pozadini izobličenja ili nepravilnosti koje narušavaju cjelokupnu koherentnost scene. Viralni "deep fake" pape Franje u Balenciaginoj pufer jakni od prošle godine pokazao je jasne anomalije, poput iskrivljenih naočala spojenih s njegovim obrazom i zamagljenih prstiju sklopljenih oko tankog zraka umjesto šalice kave koju drži, ali je ipak zavarao mnoge na internetu. Jedan zabavan način da izoštrite svoje detektivske vještine je vježbanje igre "Which Face is Real" koju su osmislili profesori sa Sveučilišta Washington.
Što se više igra, to se bolje i lakše mogu prepoznati obrasci sadržaja generiranog umjetnom inteligencijom. Nadalje, treba provjeriti audio-vizualnu sinkronizaciju gdje se može uočiti "deep fake" koji se često svodi na pažljivo promatranje usana. Ljudska usta formiraju specifične oblike kada se izgovaraju određena slova, a te pokrete umjetna inteligencija teško replicira točno - gotovo trećina "deep fake" videozapisa bori se s podudaranjem zvukova kao što su M, B i P. Ako se primijeti da govornikovi pokreti usana nisu baš usklađeni sa zvukovima koje proizvode ili ako postoje neobičnosti u tonu ili visini, to je crvena zastavica.
This video isn’t actually Tom Cruise.
— Genevieve Roch-Decter, CFA (@GRDecter) January 12, 2023
It’s a deep fake made with AI.
Let’s take a look at the world of AI and what it means for investors: pic.twitter.com/dcKdKaxGWb
Česta je nepodudarnost govora i pokreta usana
Značajan primjer je deepfake video Marka Zuckerberga, gdje je suptilna nepodudarnost između njegovog govora i pokreta usana razotkrila manipulaciju. Stručnjak za umjetnu inteligenciju pri AIPRM-u, Christoph C. Cemper, komentirao je: "Svjetski ekonomski forum označio je dezinformacije kao najveći rizik za 2024., a krivotvorine se pojavljuju kao jedna od najalarmantnijih upotreba umjetne inteligencije. Ako naiđete na potencijalni deepfake, najbolje je da ga ne dijelite", istaknuo je.
"Snaga deepfakea leži u njegovoj sposobnosti širenja, a njegov utjecaj se smanjuje ako se ne proširi. Ako vidite da netko drugi to dijeli, odvojite trenutak da ga ljubazno obavijestite i uputite ga na pouzdane izvore za provjeru činjenica, osobito ako je krivotvorina razotkrivena. Osim toga, iskoristite značajke izvješćivanja na platformama društvenih medija kako biste ograničili njegov doseg", dodao je.
Stručnjak otkrio kako se manipulira mišljenjem Hrvata: 'Ovo treba zabraniti prije izbora'
"Od ključne je važnosti da svi igramo ulogu u podizanju svijesti - podijelite svoje iskustvo i uvide o tome kako ste prepoznali deepfake kako biste pomogli drugima da se suprotstave sličnim prijetnjama. Pazeći na sadržaj koji konzumiramo online, možemo se zajednički boriti protiv dezinformacija i zaštititi integritet našeg digitalnog okruženja", zaključio je stručnjak.
*Tekst je nastao u okviru projekta "Kako prepoznati govor mržnje, lažne vijesti i prikriveno oglašavanje?" kojeg je financijski podržala Agencija za elektroničke medije sredstvima Fonda za poticanje pluralizma i raznovrsnosti elektroničkih medija.
Komentari
VAŽNO Ako ne vidite komentare ne znači da smo ih zabranili ili ukinuli. Zahvaljujući pravilima Europske unije o privatnosti podataka treba napraviti sljedeće: 1. Logirati se na Facebook u ovom browseru i omogućiti korištenje kolačića (cookies). Logirati se možete ovdje: https://www.facebook.com/ 2. Uključiti third party cookies u svom browseru. Ako koristite Chrome to možete učiniti na chrome://settings/cookies. Pozivamo čitatelje/komentatore da u svojim komentarima njeguju civiliziranu raspravu. Portal Direktno ne može se smatrati odgovornim za komentare koji sadrže uvrede, klevete, govor mržnje, huškanje i/ili poziv na nasilje. Takvi komentari bit će obrisani, a u posebno ekstremnim slučajevima mogu biti i potpuno onemogućeni. Sporne komentare čitatelji mogu prijaviti na [email protected], uz priloženu poveznicu na pripadajući članak i navođenje autora i sadržaja spornoga komentara.