Różności i nowinki technologia

Kiedy AI widzi mężczyznę, myśli „urzędnik”. Kobieta? ‘Uśmiechnij się’

Wszystkich 20 prawodawców uśmiecha się na swoich oficjalnych zdjęciach. Najlepsze sugerowane przez Google etykiety zauważyły ​​uśmiech tylko jednego mężczyzny, ale siedmiu kobiet. Dział wizji AI firmy oznaczył wszystkich 10 mężczyzn jako „biznesmenów”, często z „urzędnikiem” lub „pracownikiem umysłowym”. Tylko pięć senatorek otrzymało jedną lub więcej takich kadencji. Kobiety otrzymywały również tagi związane z wyglądem, takie jak „skóra”, „fryzura” i „szyja”, których nie umieszczano na mężczyznach.

Wydawało się, że usługi Amazon i Microsoftu wykazują mniej oczywiste uprzedzenia, chociaż Amazon podał, że jest w ponad 99% pewny, że dwie z dziesięciu senatorek to „dziewczyna” lub „dziecko”. Nie sugerowało to, że żaden z 10 mężczyzn był nieletni. Serwis Microsoftu zidentyfikował płeć wszystkich mężczyzn, ale tylko ośmiu kobiet, nazywając jednego mężczyzną i nie oznaczając płci dla drugiego.

Google wyłączył wykrywanie płci w swojej usłudze sztucznej inteligencji na początku tego roku, mówiąc, że płci nie można wywnioskować z wyglądu osoby. Tracy Frey, dyrektor zarządzająca odpowiedzialnej sztucznej inteligencji w oddziale Google w chmurze, mówi, że firma nadal pracuje nad zmniejszeniem stronniczości i chętnie przyjmuje wkład z zewnątrz. „Zawsze staramy się być lepsi i nadal współpracujemy z zewnętrznymi interesariuszami – takimi jak naukowcy akademiccy – aby rozwijać naszą pracę w tej przestrzeni” – mówi. Amazon i Microsoft odmówiły komentarza; Usługi obu firm uznają płeć tylko za binarną.

Amerykańsko-europejskie badanie zostało częściowo zainspirowane tym, co stało się, gdy naukowcy przekazali służbie wizyjnej Google uderzające, nagradzane zdjęcie z Teksasu przedstawiające płaczącego malucha z Hondurasu, gdy funkcjonariuszka amerykańskiej straży granicznej zatrzymała jej matkę. Sztuczna inteligencja Google zasugerowała takie etykiety, jak „zabawa”, z wynikiem 77 procent, wyższym niż wynik 52 procent, któremu przypisała etykietę „dziecko”. WIRED otrzymał tę samą sugestię po przesłaniu obrazu do serwisu Google w środę.

Schwemmer i jego koledzy zaczęli bawić się usługą Google w nadziei, że pomoże im ona zmierzyć wzorce w tym, jak ludzie używają obrazów do rozmów o polityce w Internecie. To, co później pomógł odkryć na temat uprzedzeń płciowych w usługach wizerunkowych, przekonało go, że technologia nie jest gotowa do wykorzystania przez badaczy w ten sposób i że firmy korzystające z takich usług mogą ponieść nieprzyjemne konsekwencje. „Można uzyskać całkowicie fałszywy obraz rzeczywistości” – mówi. Firma, która korzystała z wypaczonej usługi sztucznej inteligencji do organizowania dużej kolekcji zdjęć, może nieumyślnie zasłaniać kobiety-biznesmeni, indeksując je zamiast tego po uśmiechach.

Kiedy to zdjęcie zdobyło nagrodę World Press Photo of the Year w 2019 r., Jeden z sędziów zauważył, że pokazuje ono „przemoc psychologiczną”. Algorytmy graficzne Google wykryły „zabawę”.

WIRED Personel przez Google

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook