NowościOprogramowanie

Technologia automatycznego rozpoznawania płci jest niebezpieczna, mówią działacze: czas ją zakazać

W ostatnich latach szeroko dyskutowano o zagrożeniach związanych z rozpoznawaniem twarzy, takich jak masowy nadzór i błędna tożsamość. Jednak organizacje zajmujące się prawami cyfrowymi twierdzą, że obecnie pod radarem przemyka się równie podstępny przypadek użycia: używanie tej samej technologii do przewidywania czyjejś płci i orientacji seksualnej. Teraz rozpoczęła się nowa kampania mająca na celu zakazanie tych aplikacji w UE.

Próba przewidzenia czyjejś płci lub seksualności na podstawie zdigitalizowanych wskazówek jest zasadniczo błędna, mówi Os Keyes, naukowiec, który obszernie pisał na ten temat. Technologia ta ma tendencję do redukowania płci do uproszczonego układu binarnego, w wyniku czego często jest szkodliwa dla osób takich jak osoby trans i niebinarne, które mogą nie pasować do tych wąskich kategorii. Kiedy powstałe systemy są używane do takich rzeczy, jak zamykanie wejść do przestrzeni fizycznych lub weryfikowanie czyjejś tożsamości dla usługi online, prowadzi to do dyskryminacji.

„Rozpoznanie czyjejś płci poprzez patrzenie na nich i nie rozmawianie z nimi to jak pytanie, jak smakuje zapach błękitu” – mówi Keyes The Verge. „Problem nie polega na tym, że Twoja odpowiedź jest zła, ale na tym, że Twoje pytanie nie ma żadnego sensu”.

Te przewidywania można tworzyć przy użyciu różnych danych wejściowych, od analizy czyjegoś głosu po agregację jego nawyków zakupowych. Jednak rozwój rozpoznawania twarzy dał firmom i badaczom nowe dane, które ich zdaniem są szczególnie wiarygodne.

Komercyjne systemy rozpoznawania twarzy, w tym te sprzedawane przez duże firmy technologiczne, takie jak Amazon i Microsoft, często oferują klasyfikację płci jako standardową funkcję. Przewidywanie orientacji seksualnej na podstawie tych samych danych jest znacznie rzadsze, ale naukowcy nadal zbudowali takie systemy, w szczególności tak zwany algorytm „AI gaydar”. Istnieją mocne dowody na to, że ta technologia nie działa nawet na własnych wadliwych przesłankach, ale to niekoniecznie ograniczyłoby jej przyjęcie.

„Nawet ludzie, którzy jako pierwsi to zbadali, powiedzieli, że tak, jakiś tinpot dyktator mógłby użyć tego oprogramowania, aby spróbować ‘znaleźć queer’, a następnie wrzucić ich do obozu” – mówi Keyes o algorytmie wykrywania orientacji seksualnej. „I to nie jest hiperbola. W Czeczenii dokładnie to robili i to bez pomocy robotów ”.

W przypadku automatycznego rozpoznawania płci systemy te na ogół opierają się na wąskim i przestarzałym rozumieniu płci. Dzięki technologii rozpoznawania twarzy, jeśli ktoś ma krótkie włosy, jest klasyfikowany jako mężczyzna; jeśli mają makijaż, są kobietą. Podobne założenia opierają się na danych biometrycznych, takich jak struktura kości i kształt twarzy. W rezultacie ludzie, którzy nie mieszczą się łatwo w tych dwóch kategoriach – jak wiele osób trans i niebinarnych – mają błędną płeć. „Te systemy nie tylko nie rozpoznają istnienia osób transpłciowych. Dosłownie żargon rozpoznać istnienie osób transpłciowych ”- mówi Keyes.

Obecne zastosowania tej technologii rozpoznawania płci obejmują cyfrowe billboardy, które analizują przechodniów, aby wyświetlać im ukierunkowane reklamy; przestrzenie cyfrowe, takie jak aplikacja społecznościowa „tylko dla dziewcząt”, Giggle, która umożliwia użytkownikom odgadywanie płci na podstawie selfie; i akrobacje marketingowe, takie jak kampania mająca na celu rozdawanie kobietom w Berlinie zniżek na bilety do metra z okazji Dnia Równych Płac, w ramach której próbowano identyfikować kobiety na podstawie skanów twarzy. Badacze omówili również znacznie bardziej potencjalnie niebezpieczne przypadki użycia, takie jak wdrożenie technologii ograniczającej dostęp do obszarów płciowych, takich jak łazienki i szatnie.

Giggle to aplikacja społecznościowa przeznaczona wyłącznie dla dziewcząt, która próbuje zweryfikować, czy użytkownicy to kobiety używające autoportretów.
: chichot

Odrzucenie przez maszynę w takim scenariuszu może nie tylko być upokarzające i niewygodne, ale także wywołać jeszcze ostrzejszą reakcję. Postawy antytransformacyjne i histeria związane z dostępem do łazienek doprowadziły już do wielu incydentów nękania i przemocy w toaletach publicznych, ponieważ przechodnie biorą na siebie pilnowanie tych miejsc. Jeśli ktoś został publicznie ogłoszony przez pozornie bezstronną maszynę jako „niewłaściwa” płeć, to tylko wydaje się legitymizować takie nękanie i przemoc.

Daniel Leufer, analityk polityczny z grupy Access Now zajmującej się prawami cyfrowymi, która prowadzi kampanię mającą na celu zakazanie tych aplikacji, twierdzi, że ta technologia jest niezgodna z zobowiązaniem UE do przestrzegania praw człowieka.

„Jeśli żyjesz w społeczeństwie zobowiązanym do przestrzegania tych praw, jedynym rozwiązaniem jest zakaz” – mówi Leufer The Verge. „Automatyczne rozpoznawanie płci jest całkowicie sprzeczne z ideą, że ludzie są w stanie wyrazić swoją tożsamość płciową poza układem męsko-żeńskim lub w inny sposób niż płeć, do której zostali przypisani przy urodzeniu”.

Access Now wraz z ponad 60 innymi organizacjami pozarządowymi wysłał list do Komisji Europejskiej z prośbą o zakazanie tej technologii. Kampania, która jest wspierana przez międzynarodową grupę wspierającą LGBT + All Out, rozpoczyna się, gdy Komisja Europejska rozważa nowe przepisy dotyczące sztucznej inteligencji w całej UE. Projekt białej księgi, który krążył w zeszłym roku, sugerował, że rozważany jest całkowity zakaz rozpoznawania twarzy w przestrzeni publicznej, a Leufer mówi, że to pokazuje, jak poważnie UE traktuje problem regulacji SI.

„Jest teraz wyjątkowy moment w tej legislacji w UE, w którym możemy wezwać do ustanowienia głównych czerwonych linii i korzystamy z okazji, aby to zrobić” – mówi Leufer. „UE konsekwentnie określa się jako obierająca trzecią ścieżkę między Chinami a Stanami Zjednoczonymi [on AI regulation] z europejskimi wartościami u podstaw i staramy się je tego trzymać ”.

Keyes zwraca uwagę, że zakaz tej technologii powinien zainteresować wszystkich, „niezależnie od tego, jak myślą o centralnym znaczeniu życia trans w ich życiu”, ponieważ systemy te wzmacniają skrajnie przestarzały sposób polityki płci.

„Kiedy patrzysz na to, co myślą ci badacze, to tak, jakby podróżowali w czasie od lat pięćdziesiątych” – mówi Keyes. „Pewien system, który widziałem, używał przykładu reklamowania samochodów dla mężczyzn i ładnych sukienek dla kobiet. Przede wszystkim chcę wiedzieć, kto utknie w brzydkich sukienkach? Po drugie, czy myślą, że kobiety nie mogą prowadzić? ”

Międzynarodowy port lotniczy w Miami do wykorzystania technologii rozpoznawania twarzy przy kontroli paszportowej

Identyfikacja płci może być wykorzystywana w niepowiązanych systemach, takich jak technologia rozpoznawania twarzy używana do weryfikacji tożsamości na granicach.
: Joe Raedle / Getty Images

Korzystanie z tej technologii może być również znacznie bardziej subtelne niż zwykłe dostarczanie różnych reklam mężczyznom i kobietom. Keyes twierdzi, że często identyfikacja płci jest wykorzystywana jako filtr do uzyskiwania wyników, które nie mają nic wspólnego z samą płcią.

Na przykład, jeśli algorytm rozpoznawania twarzy jest używany do blokowania wejścia do budynku lub kraju poprzez dopasowanie osoby do bazy danych twarzy, może zawęzić wyszukiwanie, filtrując wyniki według płci. Następnie, jeśli system źle płaci osobę stojącą przed nim, spowoduje niewidoczny błąd, który nie ma nic wspólnego z wykonywanym zadaniem.

Keyes mówi, że tego rodzaju aplikacje są głęboko niepokojące, ponieważ firmy nie udostępniają szczegółowych informacji o tym, jak działa ich technologia. „To może być już wszechobecne w istniejących systemach rozpoznawania twarzy i po prostu nie możemy tego stwierdzić, ponieważ są one całkowicie oparte na czarnej skrzynce” – mówią. Na przykład w 2018 roku kierowcy trans Uber zostali wyrzuceni z aplikacji firmy z powodu funkcji bezpieczeństwa, która poprosiła ich o zweryfikowanie swojej tożsamości za pomocą selfie. Dlaczego te osoby zostały odrzucone przez system, nie jest jasne, mówi Keyes, ale możliwe jest, że wadliwe rozpoznawanie płci odegrało rolę.

Ostatecznie technologia, która próbuje zredukować świat do klasyfikacji binarnych opartych na prostej heurystyce, zawsze zawiedzie w obliczu różnorodności i złożoności ludzkiej ekspresji. Keyes przyznaje, że rozpoznawanie płci przez maszyny działa w przypadku dużej liczby osób, ale twierdzi, że podstawowe wady systemu nieuchronnie zaszkodzą tym, którzy są już marginalizowani przez społeczeństwo i zmuszą wszystkich do węższych form wyrażania siebie.

„Żyjemy już w społeczeństwie, które jest bardzo mocno uwidocznione pod względem płci i wizualnie” – mówi Keyes. „To, co robią te technologie, sprawia, że ​​te decyzje są o wiele bardziej wydajne, bardziej automatyczne i znacznie trudniejsze do podważenia”.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook