Deep fake - kiedy zaciera się granica

Jeśli używałaś darmowej aplikacji, aby zastąpić w krótkim filmiku twarz Hermiony Granger twarzą swojej wszechwiedzącej przyjaciółki, eksperymentowałaś z deep fake’ami. Ale co się dzieje w sytuacji, gdy pozornie niewinna zabawa przybiera groźne formy?

Deep fake fot.shutterstock.com

Kiedy w sieci zaczęły krążyć fałszywe filmiki, przedstawiające celebrytów w scenach pornograficznych, zwykli ludzie niespecjalnie się tym przejęli. Właściwie to podejrzewali, że takie filmy służą robieniu zamieszania wokół sławnych ludzi. Ale stworzenie deep fake’u z naszą twarzą może dotknąć każdego, zwłaszcza że hojnie udostępniamy swoje zdjęcia w sieci. Czas poznać prawdziwe zagrożenie.

REKLAMA

Helen Mort, 35-letnia pisarka, dowiedziała się o tym od znajomego. Przyszedł do niej bardzo zmieszany i wydusił z siebie: „Widziałem twoje zdjęcia na stronie porno”. Pierwszą reakcją Helen było niedowierzanie. „Co? Jak? Zwariowałeś! Nigdy nie wrzucałam do sieci żadnych rozebranych zdjęć! Musiałeś się pomylić, to na pewno ktoś do mnie podobny”. Ale wystarczyło zajrzeć na stronę wskazaną przez znajomego, żeby się przekonać, iż to nie był ktoś podobny. To była osoba z twarzą Helen i nie było co do tego żadnych wątpliwości.

Jak to się dzieje

Helen nie mogła zrozumieć, jak to się mogło stać. W listopadzie 2020 roku nie słyszała o czymś takim, jak deep fake, czyli powszechnie dostępnej technice obróbki obrazów, w której można zastąpić jakąś postać w filmie czy na zdjęciu podobizną innej osoby, i ta zamiana jest praktycznie nie do wyśledzenia. Wszyscy wiemy, że w przemyśle filmowym od dawna wykorzystywane są technologie, dzięki którym na ekranie pojawiają się sztucznie wykreowane postacie, wyglądające jak prawdziwe. Można bez większego trudu stworzyć film, w którym grają dawno zmarli aktorzy. Robi się ciekawiej, gdy oglądamy w sieci film, w którym znany polityk wygłasza zupełnie absurdalne przemówienie, a my się dajemy nabrać, bo ta technologia – wykorzystująca sztuczną inteligencję – jest niemal doskonała. I obecnie powszechnie dostępna. Każdy może sobie ściągnąć na telefon bezpłatną aplikację, np. Reface, która daje możliwość wmontowania naszej twarzy w inną postać na klipie czy GIF-ie.

Indywidualne rysy twarzy są dopasowane do twarzy z filmu, zsynchronizowane z ruchami i dzięki algorytmowi sztucznej inteligencji możemy się doskonale bawić, oglądając siebie w różnych filmowych scenkach. Sztuczna inteligencja to wielkie osiągnięcie ludzkości, ale trzeba być doprawdy wielkim optymistą, żeby się nie domyślić, że będzie używana również w mało szlachetnych celach. Na przykład w pornografii. Krótko mówiąc, równie łatwo, jak śmieszny filmik, można zrobić wcale nieśmieszny film pornograficzny z wklejoną Twoją twarzą w miejsce twarzy aktorki. Ofiarą pornograficznego deep fake’u padły początkowo znane osoby, na przykład Emma Watson, Gal Gadot, Maisie Williams i Taylor Swift. Ale również zwykłe kobiety, takie jak Helen. Tego wieczoru, po dwóch kieliszkach wina, Helen odważyła się dokładniej przyjrzeć zdjęciom. Weszła na stronę pornograficzną, o której mowa, i przewinęła niezliczoną ilość zdjęć, na których osoba o jej twarzy była maltretowana i poniżana. Ktoś wykorzystał jej zdjęcia z Facebooka i Instagrama i wrzucił je na stronę pornograficzną. Twierdził, że jest jej chłopakiem i zachęcał innych, aby też generowali awatary tej „blond suki” i żeby sobie „ostro z nią używali”.

Trudno opisać szok, jakiego się doznaje, widząc siebie w sytuacjach zbiorowego brutalnego gwałtu czy duszenia. Szczególnie że zdjęcia przedstawiały uśmiechniętą twarz Helen wyciągniętą z wakacyjnych zdjęć, na których była beztroska i szczęśliwa. Niektóre obrazy nie były szczególnie realistyczne – montaż wyraźnie amatorski – ale inne przerażały swoją dosłownością, pokazując nawet jej tatuaże na ciele. Helen opowiedziała wszystko mężowi, poinformowana została także najbliższa rodzina. Mąż pomógł jej zgłosić sprawę na policję, zażądał od portalu usunięcia jej zdjęć i właściwie to było wszystko, co można zrobić. Helen czuła się bezradna, była w kompletnej rozsypce. Bała się wyjść z domu, problemem stało się pójście do supermarketu czy odebranie synka ze żłobka. Wyobrażała sobie, że każdy przechodzący mężczyzna ją rozpoznaje, patrzy na nią znacząco i śmieje się z niej. Nawet sen nie przynosił ukojenia, bo pod powiekami pojawiały sie obrazy brutalnych gwałtów.

SPRAWDŹ: Odwaga biegaczki [Raport WH i RW]

REKLAMA

REKLAMA

Ratunek

Helen od kilku lat przyjmowała leki SSRI, które pomagały jej radzić sobie z depresją. Po tym zdarzeniu poprosiła lekarza o zwiększenie dawki, bo prześladowały ja koszmary. Najgorsza była bezradność, bo deep fake – jako nowe zjawisko – wpada trochę w lukę prawniczą. Jest tu oczywiście naruszenie dóbr osobistych, nękanie i bezprawne wykorzystanie wizerunku, ale bardzo trudno ustalić sprawcę. Co pomogło Helen? Pisanie zawsze było jej sposobem na uporządkowanie świata. Pewnego dnia siadła przy biurku i napisała długi wiersz na swoim blogu, szczegółowo opisujący jej doświadczenie. Ci, którzy jej to zrobili, chcieli ją upokorzyć, ale Helen, upubliczniając swoją historię, mogła pokazać, że to nie ofiary, tylko sprawcy powinni się wstydzić w takich sytuacjach.

Deep fake zemsty

Prawo nie nadąża za rozwojem sztucznej inteligencji. Rodzi się coraz więcej pytań z zakresu moralności i etyki. Czy jesteśmy w tym kompletnie bezradni?

Deep fake i pornografia

Chociaż deep fake’i przyciągają ogromną uwagę ze względu na potencjalne zagrożenia polityczne, zdecydowana większość z nich jest wykorzystywana do atakowania kobiet. Sensity AI – firma badawcza, śledząca filmy online z deep fake’ami od grudnia 2018 roku – konsekwentnie stwierdza, że od 90% do 95% z nich to pornografia. Około 90% z tego to porno, wykorzystujące wizerunki kobiet. Bardzo często jest to perfidna zemsta byłych partnerów. „To jest kwestia przemocy wobec kobiet” – mówi Adam Dodge, założyciel EndTAB – organizacji non profit, która edukuje ludzi na temat nadużyć związanych z technologią.

Co na to prawo?

Jak mówi w Dzienniku Gazecie Prawnej adwokat Adam Pązik, doktor nauk prawnych z Uniwersytetu Pedagogicznego w Krakowie: „Osoba, posługująca się techniką deep fake’u, powinna liczyć się z odpowiedzialnością za naruszenie dóbr osobistych (mimowolnego) »bohatera« tego rodzaju nagrania. W pierwszej kolejności naruszeniu ulega tu prawo do wizerunku (chronione zarówno przez kodeks cywilny, jak i prawo autorskie). W wielu przypadkach wykorzystywania wizerunku w ramach omawianej techniki dochodzi także do naruszania czci czy godności osobistej przedstawionej jednostki (np. gdy wykreowany przez sztuczną inteligencję obraz posługuje się wulgarnymi zwrotami czy wypowiada stwierdzenia całkowicie niezgodne ze światopoglądem określonego człowieka). Wówczas zaś, obok cywilnej, może pojawiać się odpowiedzialność karna (pokrzywdzony może bowiem zdecydować się na złożenie prywatnego aktu oskarżenia w przedmiocie przestępstwa – zniesławienia)”.

Pornografia typu deep fake może być zagrożeniem dla zdrowia psychicznego

Jest dobrze udokumentowanym zjawiskiem, że zobaczenie siebie na fałszywym filmie, w którym jesteśmy wykorzystywane seksualnie, jest dewastujące dla psychiki, podobnie jak upublicznienie swoich zdjęć w sieci. Ofiary niejednokrotnie, oprócz działań prawnych, muszą podjąć terapię z powodu zespołu stresu pourazowego (PTSD).

ZOBACZ TEŻ: Stres i alkohol. A Ty jak sobie radzisz?

Zobacz również:
Newsy do codziennego stosowania. Popij kawą.
ZOBACZ WIĘCEJ

Komentarze

 
DODAJ KOMENTARZ
REKLAMA