Dlaczego algorytmy dyskryminują kobiety?

Czy sztuczna inteligencja (AI) może utrwalać stereotypy dotyczące płci, a nawet dyskryminować kobiety? Tak. Stworzyli ją bowiem ludzie, którzy nie są wolni od uprzedzeń i przestarzałych wzorców zachowania.

sztuczna inteligencja fot. Shutterstock.com

Być może nie zdajesz sobie z tego sprawy, ale w Twoich zakupach na Amazonie, wieczorach z Netflixem i polubieniach postów na Facebooku pierwszoplanową rolę odgrywają algorytmy sztucznej inteligencji. Są to niewidzialne wzory i komendy rozpisane przez programistów, których celem jest to, by usprawniały funkcjonowanie wielkich korporacji, ale jednocześnie uprzyjemniły nam życie. Algorytmy działają dyskretnie, ale nie zmienia to faktu, że ich obecność w naszym życiu rośnie błyskawicznie.

REKLAMA

Co najciekawsze, mają one bezpośredni wpływ na nasze decyzje i potrafią coraz skuteczniej rozpoznawać nasze myśli, pragnienia i emocje. A skąd wzięło się pojęcie sztucznej inteligencji? Posługujemy się nim, bo komputery potrafią dokonywać dzisiaj nieprawdopodobnych obliczeń, przetwarzać miliardy informacji i wykrywać związki między zdarzeniami, które są niedostrzegalne dla ludzi. Potrafią to wszystko, bo przy ich budowie wykorzystuje się zasady działania ludzkiego mózgu.

ZOBACZ: 30 życiowych pytań, które musisz sobie zadać

To nie Ty decydujesz - to algorytmy

Inteligencja urządzeń sterowanych przez algorytmy będzie stale się zwiększać. Jej wyraźne przejawy dostrzeżemy m.in. na portalach społecznościowych. Na nich właśnie algorytmy dowodzą swojej siły i pokazują, jak dużą władzę mają nad nami. Na czym to polega? Wyobraź sobie, że zapraszasz do grona swoich znajomych na Facebooku jakąś osobę. Łączą was zapewne poglądy i sposób, w jaki spędzacie czas wolny. Po jakimś czasie, będąc na tej samej stronie, kupujesz sukienkę o określonym kolorze i kroju. To, jak wygląda i ile kosztuje, jest pewnego rodzaju wizytówką zarówno Twoich potrzeb, jak i pokazuje pośrednio, jaki styl życia prowadzisz. Publikując na swoim wallu zdjęcia z wakacji, które spędzasz z partnerem, pokazujesz, jak Ci się powodzi w życiu, i wysyłasz jednocześnie sygnały o tym, czym się zajmujesz, jaką możesz mieć pracę, ile zarabiasz. Jeśli lajkujesz czyjś wpis lub zdjęcie, wysyłasz algorytmom informacje o tym, jakie poglądy są Ci bliskie. Jeśli o drugiej w nocy odtwarzasz filmiki z miłymi pieskami, po pierwsze, pokazujesz, że możesz mieć kłopoty ze snem (czyżby początek depresji?), a po drugie, że poszukujesz pewnych konkretnych emocji.

Masz po prostu coś kupić

I teraz wyobraź sobie, że algorytmy potrafią połączyć te wszystkie ślady Twojej aktywności z wielu lat: kliki, polubienia, wyświetlenia, przeglądanie, wrzutki zdjęć, komentarze, a następnie błyskawicznie odkryć między nimi najbardziej subtelne związki. Potrafią je zinterpretować i de facto zrozumieć Ciebie. Mając coraz lepszy obraz Twojej osoby, mogą przewidzieć, jak będzie wyglądało Twoje życie nie tylko jutro, ale nawet za rok. Istnieją szczegóły dotyczące ludzkiego zachowania, zdrowia i emocji, których ludzie nie potrafią zrozumieć. Komputery uzbrojone w algorytmy mogą to zrobić, bo sztuczna inteligencja oznacza zdolność do obserwowania cech i wzorów, których ludzkie oko nie jest w stanie dostrzec.

Ale po co jej to wszystko, dlaczego ona to robi? Robi to, bo chce w idealny sposób dopasować treści wyświetlane na Twojej stronie do Twoich potrzeb emocjonalnych. Dać Ci poczucie przyjemności i bezpieczeństwa. Mówi się o tym, że każdy, kto dzisiaj korzysta z Instagrama, Twittera czy Facebooka, zanurzony jest w pewnej „bańce”. Jest to przestrzeń, w której spotyka się podobnych sobie ludzi, natyka się na informacje, które lubi. Czuje się w niej bezpieczny, bo żyje w świecie zgodnym z własnymi poglądami. I o to algorytmom – a właściwie właścicielom firm, które ich używają w celach komercyjnych – chodzi. Czując, że jesteśmy zanurzeni w bez- piecznej przestrzeni, chcemy w niej dłużej przebywać. A to oznacza większe szanse na to, że natkniemy się na reklamę, która zawiedzie nas do sklepu internetowego.

Chłopcy rządzą ze swoich garaży

Możesz to wszystko skomentować w ten sposób: wiem, że jestem manipulowana i się na to zgadzam. Przecież kiedy chcę, mogę wylogować się z tego sztucznego świata do rzeczywistości. Wyłączam smartfona, robię sobie reset od wirtualu. Poza tym – możesz dodać – wszystkie te rzeczy w równym stopniu dotyczą też mężczyzn. Nie róbmy ze mnie – kobiety – ofiary algorytmów. Zgoda, z wyjątkiem tego ostatniego zdania. Tu rzeczy są trochę bardziej skomplikowane. Nie uświadamiamy sobie tego na co dzień, ale za to, jak działa świat, odpowiadają w dużym stopniu mężczyźni. To oni są traktowani jako centrum rzeczywistości, jej podmiot. Potrzeby, życie, praca drugiej połowy światowej populacji są postrzegane jako „nisza”. I to właśnie mężczyźni mieli zasadniczy wpływ na to, jak wygląda dzisiaj współczesny internet i zasady obecne na portalach społecznościowych. To oni mieli ostatnie zdanie w projektowaniu sztucznej inteligencji. Pamiętasz mity założycielskie dotyczące takich firm, jak Microsoft czy Apple? Czy w tych wszystkich słynnych garażach, gdzie rodziły się pierwsze komputery osobiste, widoczne były jakieś kobiety? Nie!

Zaprojektowane dla mężczyzny

Oderwijmy się na moment od świata wirtualnego (zaraz do niego wrócimy), by przyjrzeć się innym fragmentom rzeczywistości. Niech naszą przewodniczką po niej będzie amerykańska dziennikarka Caroline Criado Perez, która jest autorką głośnej książki „Niewidzialne kobiety”. Jej lektura może szokować. Po jej przeczytaniu uświadamiamy sobie, że faktycznie – nasz świat jest „skrojony” przez mężczyzn i zdecydowanie pod mężczyzn.

Oto przykłady na to, jak mocno jesteś zanurzona w męskim świecie.

Jeśli bierzesz do ręki smartfona, możesz być pewna, że jego gabaryty dopasowane są do rozmiarów męskiej dłoni. Wiele badań rynkowych pokazuje, że kobiety nie kupują droższych smartfonów z górnej półki. Dlaczego? Bo one po prostu źle leżą w dłoni! Spróbuj znaleźć nowy model, który jest mały. To jest oczywiście możliwe, ale szybko poczujesz, że wybór jest mocno ograniczony.

Jeśli wchodzisz do gabinetu lekarskiego, możesz być pewna, że temperatura, która w nim panuje (jest ona regulowana przez sprzęt, który działa w oparciu o inteligentne algorytmy), dostosowana jest przede wszystkim do mężczyzny. Na przykład w Wielkiej Brytanii temperatura w większości gabinetów jest o pięć stopni niższa od temperatury, w której kobieta poczułaby się dobrze. Formułę określającą, ile ma być stopni w pomieszczeniu, opracowano w latach sześćdziesiątych XX wieku – uwzględniała metabolizm 40-letniego mężczyzny o wadze 70 kg. A jest on zasadniczo różny od metabolizmu kobiety.

Policjantki, które korzystają z kamizelek kuloodpornych, skarżą się często na bóle w klatce piersiowej. Wynika to z tego, że zarówno rozmiar kamizelek, jak i ich forma są zwykle projektowane pod sylwetkę mężczyzny.

Jeśli kierujesz samochodem i chcesz wydać polecenie asystentowi głosowemu, jest wielce prawdopodobne, że on Cię nie zrozumie. Oprogramowanie do rozpoznawania głosu jest o 70 proc. bardziej skuteczne w przypadku głosu mężczyzny. Dziennikarka opisuje przypadek, w którym asystent głosowy wysłuchiwał poleceń męża kobiety siedzącej za kierownicą, mimo tego, że siedział on z boku, na fotelu pasażera.

Kierując samochodem, jesteś w dużo większym stopniu narażona na niebezpieczeństwo utraty życia w porównaniu do mężczyzny. Wynika to z tego, że manekiny do testów zderzeniowych zostały zaprojektowane tak, aby przypominały sylwetkę mężczyzny.

Dziennikarka dowodzi, że cały ten dyskryminacyjny „design” obecny w fizycznej rzeczywistości przekłada się na funkcjonowanie świata wirtualnego. A więc algorytmy, które obserwują nasze zachowanie w sieci, muszą także reprezentować skrajnie męski punkt widzenia.

SPRAWDŹ: 3 aplikacje, które przydadzą Ci się w kuchni

REKLAMA

REKLAMA

Jestem Alexa. Jak mogę Ci służyć?

Gadżety technologiczne, zarządzane przez „męskolubne” algorytmy, nie będą zachowywać się ani neutralnie, ani z uwzględnieniem potrzeb kobiety. Mogą za to utrwalać popularne stereotypy na temat płci, obecne w kulturze. Jako że wchodzimy w czas moc- no rozwijającego się rynku asystentów głosowych, przyjrzyjmy się na chwilę przypadkowi asystentki o imieniu Alexa. Alexa potrafi udzielić odpowiedzi na coraz bardziej złożone pytania. Robi to z wdziękiem, używając głosu o kobiecej barwie. Jej rosnącej popularności towarzyszą badania, które pokazują, jak na Alexę reagują użytkownicy płci obojga. Wiele z tych badań wykazało, że zaprojektowano ją zgodnie z popularnym męskim stereotypem, że kobieta ma być grzeczna, uprzejma i uległa. Nie uwzględniono jednocześnie licznych sytuacji, w których mężczyźni będą zasypywać asystentkę wulgarnymi przekleństwami. A jak ona się zachowywała, wysłuchując męskich bluzgów i niezbyt wybrednych dowcipów i uwag? Przekuwała sytuację w żart. Dopiero po protestach kobiet i raporcie organizacji UNESCO postanowiono zmodyfikować zakres jej możliwych reakcji na słowną agresję. W 2017 roku Alexa została wyposażona w możliwość ucinania kontaktu z agresorem. W sytuacji gdy spotyka się z wulgarną werbalną agresją, odpowiada: „Nie mam zamiaru na to reagować”. Przy okazji problemu Alexy pojawiły się opinie, że asystentki cyfrowe nie powinny być domyślnie kobietami, a firmy technologiczne powinny sprawdzić, na ile możliwe jest stworzenia neutralnej płci maszynowej.

Algorytmy nie chcą, żebyś kierowała firmą

W portalach, sklepach internetowych i przeglądarkach dyskryminacja kobiet jest także obecna i jest lustrzanym odzwierciedleniem skoncentrowanego na mężczyznach „realu”. Wyobraź sobie, że jesteś Amerykanką, która postanowiła odpowiedzieć na ogłoszenie rekrutacyjne firmy Amazon. Kilka lat temu dział HR tej firmy postanowił zastosować aplikację, której zadaniem miała być analiza spływających do firmy CV. Warto dodać, że rekrutacja dotyczyła stanowisk kierowniczych. I co się okazało? Aplikacja oparta na sztucznej inteligencji dokonywała negatywnej selekcji kandydatur. Podania, w których występowało słowo „kobieta” lub padały nazwy szkół żeńskich, zostały potraktowane jako nieatrakcyjne z punktu widzenia interesów firmy. I szły na przemiał. Dopiero po nagłośnieniu problemu firma zdecydowała się na wycofanie aplikacji.

Przenieśmy się teraz do świata zarządzanego przez Google. Grupa badaczy postanowiła przesłać zdjęcia członków amerykańskiego Kongresu do usługi Google, która potrafiła analizować zdjęcia i zaopatrywać je w tagi. Badacze zauważyli, że w przypadku kobiet liczba adnotacji, które dotyczyły wyglądu fizycznego, była trzykrotnie większa niż w przypadku mężczyzn. Algorytmy odpowiedzialne za tagowanie do zdjęć kobiet dodawały z automatu takie określenia, jak „uśmiech”, „podbródek”, „włosy”, natomiast do zdjęć mężczyzn dodawały słowa w rodzaju: „urzęd- nik” „biznesmen”, „profesjonalista”. Jakie są tego konsekwencje? Kobiety zyskują niższy status społeczny i zawodowy. W świecie wirtualnym nie są kojarzone z aktywnością, władzą czy przedsiębiorczością – są od tego, żeby ładnie wyglądać.

Zatrudniajmy tych, którzy nie lubią ludzi

Jak to się stało, że w świecie Amazona, Google'a i innych koncernów technologicznych jest tyle szkodliwych mechanizmów? Amerykańska dziennikarka Emily Chang posługuje się ciekawym przykładem, który pokazuje, jak pewne zdarzenie z latach 70. doprowadziło do tych negatywnych procesów. Według Chang seksizm jest dzisiaj mocno obecny w całej Dolinie Krzemowej – miejscu, gdzie rodziły się komputery i dzisiejsza sztuczna inteligencja. Ale w latach 50. można było się łudzić, że w świecie komputerów będzie więcej miejsca dla kobiet. W początkach informatyki aktywnych było wiele programistek, które pracowały dla wojskowości czy organizacji NASA. Wszystko zaczęło się psuć w latach 70., kiedy branża zaczęła poszukiwać nowych specjalistów. Podobno przeprowadzono wtedy badania, które wykazały, że dobrzy programiści... nie lubią ludzi. Ten stereotyp utrwalił się mocno i miał wpływ na to, co działo się w branży komputerów przez następne lata. „Jeśli szukasz ludzi, którzy nie lubią ludzi, zatrudnisz znacznie więcej mężczyzn niż kobiet” – powiedziała w jednym z wywiadów Emily Chang. I tak dzieje się do dzisiaj. Obecność kobiet w firmach technologicznych nie przekracza 25 procent. Czy jest więc coś dziwnego w tym, że świat sztucznej inteligencji to projekcja męskich uprzedzeń i fantazji? 

AI potrzebuje kobiecej mądrości

Sztuczna inteligencja na dobre wkroczyła w nasze życie i będzie w nim coraz bardziej obecna. Na ile powinniśmy regulować jej zachowania, określać granice jej rozwoju? Dyskusje na ten temat się toczą. Uczestniczący w nich politycy i przedstawiciele koncernów technologicznych przyznają, że niekontrolowany rozwój technologii algorytmicznych może prowadzić do licznych zagrożeń. Jednym z nich jest pogłębianie podziałów w społeczeństwach i wzmacnianie stereotypów płci. Wśród specjalistów pojawiają się na szczęście coraz częściej opinie, że w świecie cyfrowych technologii można stopniowo likwidować różnice między płciami. Ale by tak się stało, w trakcie pracy nad tworzeniem nowych algorytmów nie możemy zadawać pytań tylko z jednego, męskiego punktu widzenia.

ZOBACZ TEŻ: Buduj siłę psychiczną - jak radzić sobie w sytuacjach, w których tracimy kontrolę

Komentarze

 
DODAJ KOMENTARZ
REKLAMA