Deepfake napada: Kad se prevaranti predstavljaju kao državni zvaničnici
Deepfake kriza se nastavlja, iako je američki kongres u avgustu 2024. jednoglasno usvojio još jedan korak ka donošenju zakona protiv ove pošasti (Disrupt Explicit Forged Images and Non-Consensual Edits (Defiance) Act). To je prva zakonska odredba koja uređuje neki problem koji je u vezi s AI tehnologijom, što ipak ne sprečava prevarante da i dalje izmišljaju ozbiljne deepfake strategije.

Stručnjaci upozoravaju da će ovakvih sadržaja biti sve više i da velike platforme moraju da preduzmu sve da im stanu na put. Deepfake reklame na kojima se na primer vidi zamagljena slika popularne glumice Jenne Ortege su početkom 2024. godine pokazale kako ova tehnologija može da se zloupotrebi. Poslužile su kao reklama za igru u kojoj korisnici mogu da svlače i oblače Ortegu, a jedan od problema je bio i u tome što se koristila fotografija koja je snimljena u vreme kada je bila maloletna.
Ovo je tek jedan u nizu slučajeva, a sve su češće pogođeni i obični građani. Pomenuti zakonski akt žrtvama garantuje da mogu da tuže počinioce koji namerno „proizvode, distribuiraju i kupuju“ deepfake sadržaje, posebno kada se radi o lažnim porno filmovima i drugim sadržajima u koje je nečiji identitet umetnut bez njenog/njegovog pristanka. U pitanju je važan korak ka zaštiti žrtava, ali šta se dešava kada žrtva strada zbog lažnih glasovnih poruka?
FBI je pre nekoliko dana izdao upozorenje na malicioznu kampanju u okviru koje napadači koriste deepfake kako bi imitirali glasove državnih zvaničnika. Cilj je da se mete motivišu da kliknu na linkove preko kojih će zaraziti svoje računare. Većinu žrtava čine bivši vladini službenici, ali i svi koji su se našli u njihovim kontaktima.
Kreatori kampanje šalju glasovne poruke koje su kreirane uz pomoć AI alata, a ističe se da je nemoguće napraviti razliku između glasova u porukama i načina na koji govore oni koje AI imitira. Mnogo je već slučajeva u kojima kriminalci koriste AI za svakojake gadosti, pa niko više nije bezbedan. Deepfake je jedan od glavnih momenata u toj priči. Ova kampanja je još jedan dokaz da je opasnost ozbiljna.

Lažni pornografski sadržaji su pre nekoliko godina skrenuli pažnju mejnstrim javnosti na ovaj problem, ali je deepfake u međuvremenu ušao u sve sfere. Već neko vreme se približavamo svetu u kojem nećemo moći da budemo sigurni u verodostojnost bilo kojeg audio-vizuelnog snimka, što već utiče na gubljenje poverenja u medije, sudove i javne institucije.
Nakon što je platforma Pornhub u februaru 2018. objavila da će uklanjati deepfake sadržaje u kojima su lica poznatih ličnosti, ali i običnih građana, „lepljena“ na porno snimke koji na kraju izgledaju prilično realno, kompanija Naughty America odlučila je da ovakve sadržaje stavi u službu sopstvenog poslovanja, pa je lansirala servis koji korisnicima omogućava da sadržaje prilagode sopstvenom ukusu, i da uključe svoj lik u erotske klipove koje gledaju. Od tada deepfake sve više ulazi u mejnstrim, i postaje dostupan i običnim građanima.
Mlađe generacije su u posebnoj opasnosti, jer poznaju alate koji do skoro nisu mogli ni da se zamisle, a koriste ih i za opasne stvari. Vršnjačko nasilje je ozbiljan problem, a društvene mreže su situaciju samo pogoršale – onaj/a koji je napadnut/a više nema mira ni kod kuće. Napadači idu i dalje, pa su savladali deepfake (problem nije nepoznat ni u našim školama). Dvojica tinejdžera su u martu 2024. godine uhapšeni u Majamiju, a to je prvo hapšenje koje je u vezi s kreiranjem i deljenjem eksplicitnih AI sadržaja. Slične probleme smo imali i u našoj zemlji.
Eksperti preporučuju da se vodi računa o tome šta se deli na društvenim mrežama, ali taj savet nije naročito koristan. Napadačima je potrebno tek nekoliko običnih fotografija da bi mogli da naprave deepfake sadržaje, što znači da niko nije potpuno siguran sve dok ne obriše sve što je podelio na internetu. Čak i ako se to uspešno izvede, napadači do fotografija i snimaka glasa mogu da dođu i na druge načine (često su naručioci sadržaja prijatelji, kolege, čak članovi porodice), pa nam ostaje da se nadamo da nećemo privući pažnju neke grupe koja AI koristi kao alat za ucenjivanje. Ili da će se odgovarajući zakoni uskoro naći u ulozi zaštitnika.
Još jedna mera koja bi mogla da pomogne u borbi protiv opasnih deepfake sadržaja je uklanjanje iz rezultata pretraživanja, a iz kompanije Google kažu da aktivno rade na smanjivanju vidljivosti takozvane „sintetičke pornografije“. Tako je tokom aprila 2024. godine smanjen saobraćaj na web sajtovima na kojima se nalaze AI generisani erotski snimci (dva najveća ovakva sajta su zabeležila smanjenje broja poseta od 21 i 25%).