Kiedy w sieci zaczęły krążyć fałszywe filmiki, przedstawiające celebrytów w scenach pornograficznych, zwykli ludzie niespecjalnie się tym przejęli. Właściwie to podejrzewali, że takie filmy służą robieniu zamieszania wokół sławnych ludzi. Ale stworzenie deep fake’u z naszą twarzą może dotknąć każdego, zwłaszcza że hojnie udostępniamy swoje zdjęcia w sieci. Czas poznać prawdziwe zagrożenie.
Helen Mort, 35-letnia pisarka, dowiedziała się o tym od znajomego. Przyszedł do niej bardzo zmieszany i wydusił z siebie: „Widziałem twoje zdjęcia na stronie porno”. Pierwszą reakcją Helen było niedowierzanie. „Co? Jak? Zwariowałeś! Nigdy nie wrzucałam do sieci żadnych rozebranych zdjęć! Musiałeś się pomylić, to na pewno ktoś do mnie podobny”. Ale wystarczyło zajrzeć na stronę wskazaną przez znajomego, żeby się przekonać, iż to nie był ktoś podobny. To była osoba z twarzą Helen i nie było co do tego żadnych wątpliwości.
Jak to się dzieje
Helen nie mogła zrozumieć, jak to się mogło stać. W listopadzie 2020 roku nie słyszała o czymś takim, jak deep fake, czyli powszechnie dostępnej technice obróbki obrazów, w której można zastąpić jakąś postać w filmie czy na zdjęciu podobizną innej osoby, i ta zamiana jest praktycznie nie do wyśledzenia. Wszyscy wiemy, że w przemyśle filmowym od dawna wykorzystywane są technologie, dzięki którym na ekranie pojawiają się sztucznie wykreowane postacie, wyglądające jak prawdziwe. Można bez większego trudu stworzyć film, w którym grają dawno zmarli aktorzy. Robi się ciekawiej, gdy oglądamy w sieci film, w którym znany polityk wygłasza zupełnie absurdalne przemówienie, a my się dajemy nabrać, bo ta technologia – wykorzystująca sztuczną inteligencję – jest niemal doskonała. I obecnie powszechnie dostępna. Każdy może sobie ściągnąć na telefon bezpłatną aplikację, np. Reface, która daje możliwość wmontowania naszej twarzy w inną postać na klipie czy GIF-ie.
Indywidualne rysy twarzy są dopasowane do twarzy z filmu, zsynchronizowane z ruchami i dzięki algorytmowi sztucznej inteligencji możemy się doskonale bawić, oglądając siebie w różnych filmowych scenkach. Sztuczna inteligencja to wielkie osiągnięcie ludzkości, ale trzeba być doprawdy wielkim optymistą, żeby się nie domyślić, że będzie używana również w mało szlachetnych celach. Na przykład w pornografii. Krótko mówiąc, równie łatwo, jak śmieszny filmik, można zrobić wcale nieśmieszny film pornograficzny z wklejoną Twoją twarzą w miejsce twarzy aktorki. Ofiarą pornograficznego deep fake’u padły początkowo znane osoby, na przykład Emma Watson, Gal Gadot, Maisie Williams i Taylor Swift. Ale również zwykłe kobiety, takie jak Helen. Tego wieczoru, po dwóch kieliszkach wina, Helen odważyła się dokładniej przyjrzeć zdjęciom. Weszła na stronę pornograficzną, o której mowa, i przewinęła niezliczoną ilość zdjęć, na których osoba o jej twarzy była maltretowana i poniżana. Ktoś wykorzystał jej zdjęcia z Facebooka i Instagrama i wrzucił je na stronę pornograficzną. Twierdził, że jest jej chłopakiem i zachęcał innych, aby też generowali awatary tej „blond suki” i żeby sobie „ostro z nią używali”.
Trudno opisać szok, jakiego się doznaje, widząc siebie w sytuacjach zbiorowego brutalnego gwałtu czy duszenia. Szczególnie że zdjęcia przedstawiały uśmiechniętą twarz Helen wyciągniętą z wakacyjnych zdjęć, na których była beztroska i szczęśliwa. Niektóre obrazy nie były szczególnie realistyczne – montaż wyraźnie amatorski – ale inne przerażały swoją dosłownością, pokazując nawet jej tatuaże na ciele. Helen opowiedziała wszystko mężowi, poinformowana została także najbliższa rodzina. Mąż pomógł jej zgłosić sprawę na policję, zażądał od portalu usunięcia jej zdjęć i właściwie to było wszystko, co można zrobić. Helen czuła się bezradna, była w kompletnej rozsypce. Bała się wyjść z domu, problemem stało się pójście do supermarketu czy odebranie synka ze żłobka. Wyobrażała sobie, że każdy przechodzący mężczyzna ją rozpoznaje, patrzy na nią znacząco i śmieje się z niej. Nawet sen nie przynosił ukojenia, bo pod powiekami pojawiały sie obrazy brutalnych gwałtów.
SPRAWDŹ: Odwaga biegaczki [Raport WH i RW]