Różności i nowinki technologia

Naukowcy rozmywają twarze, które uruchomiły tysiące algorytmów

W 2012 roku sztuczne Badacze wywiadu dokonali wielkiego skoku w wizji komputerowej, po części dzięki niezwykle dużemu zestawowi obrazów – tysiącom przedmiotów codziennego użytku, ludzi i scen na zdjęciach, które zostały zeskrobane z sieci i ręcznie oznaczone. Ten zbiór danych, znany jako ImageNet, jest dziś nadal używany w tysiącach projektów badawczych i eksperymentów związanych ze sztuczną inteligencją.

Ale w zeszłym tygodniu każda ludzka twarz włączona do ImageNet nagle zniknęła – po tym, jak badacze zarządzający zbiorem danych postanowili je zamazać.

Tak jak ImageNet pomógł zapoczątkować nową erę sztucznej inteligencji, wysiłki mające na celu jej naprawienie odzwierciedlają wyzwania, które mają wpływ na niezliczone programy AI, zbiory danych i produkty.

„Martwiliśmy się o kwestię prywatności” – mówi Olga Russakovsky, adiunkt na Uniwersytecie Princeton i jedna z osób odpowiedzialnych za zarządzanie ImageNet.

ImageNet powstał jako część wyzwania, które zaprosiło informatyków do opracowania algorytmów umożliwiających identyfikację obiektów na obrazach. W 2012 roku było to bardzo trudne zadanie. Wówczas technika zwana głębokim uczeniem się, która polega na „uczeniu” sieci neuronowej poprzez podawanie jej oznaczonych przykładów, okazała się bardziej skuteczna w tym zadaniu niż poprzednie podejścia.

Od tego czasu głębokie uczenie się doprowadziło do renesansu sztucznej inteligencji, który ujawnił również wady tej dziedziny. Na przykład rozpoznawanie twarzy okazało się szczególnie popularnym i lukratywnym zastosowaniem głębokiego uczenia się, ale jest również kontrowersyjne. Wiele miast w USA zakazało rządom korzystania z tej technologii ze względu na obawy dotyczące naruszenia prywatności lub uprzedzeń obywateli, ponieważ programy są mniej dokładne na twarzach innych niż białe.

Obecnie ImageNet zawiera 1,5 miliona obrazów i około 1000 etykiet. Jest w dużej mierze używany do mierzenia wydajności algorytmów uczenia maszynowego lub do szkolenia algorytmów wykonujących specjalistyczne zadania widzenia komputerowego. Zamazanie twarzy wpłynęło na 243 198 zdjęć.

Russakovsky mówi, że zespół ImageNet chciał ustalić, czy możliwe byłoby rozmycie twarzy w zestawie danych bez zmiany stopnia rozpoznawania obiektów. „Ludzie byli przypadkowi w danych, odkąd pojawili się na zdjęciach internetowych przedstawiających te obiekty” – mówi. Innymi słowy, na zdjęciu przedstawiającym butelkę piwa, nawet jeśli twarz osoby pijącej to różowa smuga, sama butelka pozostaje nienaruszona.

obraz artykułu

W artykule badawczym, opublikowanym wraz z aktualizacją do ImageNet, zespół odpowiedzialny za zbiór danych wyjaśnia, że ​​rozmazał twarze za pomocą usługi Rekognition AI firmy Amazon; następnie zapłacili pracownikom Mechanical Turk za potwierdzenie wyboru i dostosowanie go.

Rozmycie twarzy nie wpłynęło na działanie kilku algorytmów rozpoznawania obiektów przeszkolonych w ImageNet – twierdzą naukowcy. Pokazują również, że inne algorytmy zbudowane przy użyciu tych algorytmów rozpoznawania obiektów są podobnie niezmienione. „Mamy nadzieję, że ta weryfikacja koncepcji utoruje drogę dla praktyk gromadzenia danych wizualnych bardziej uwzględniających prywatność w terenie” – mówi Russakovsky.

To nie pierwsza próba dostosowania słynnej biblioteki obrazów. W grudniu 2019 roku zespół ImageNet usunął stronnicze i obraźliwe terminy wprowadzone przez ludzi-wytwórców po tym, jak projekt o nazwie Excavating AI zwrócił uwagę na problem.

W lipcu 2020 roku Vinay Prabhu, naukowiec zajmujący się uczeniem maszynowym w UnifyID i Abeba Birhane, doktorant z University College Dublin w Irlandii, opublikowali badania pokazujące, że mogą zidentyfikować osoby, w tym naukowców informatycznych, w zbiorze danych. Znaleźli również zawarte w nim obrazy pornograficzne.

Prabhu mówi, że rozmycie twarzy jest dobre, ale jest rozczarowany, że zespół ImageNet nie docenił pracy, którą on i Birhane wykonali.

Zamazane twarze nadal mogą mieć niezamierzone konsekwencje dla algorytmów uczonych w danych ImageNet. Algorytmy mogą na przykład nauczyć się szukać rozmytych twarzy podczas wyszukiwania określonych obiektów.

„Jednym z ważnych problemów do rozważenia jest to, co się dzieje, gdy wdrażasz model, który został wyszkolony na zbiorze danych z zamazanymi twarzami” – mówi Russakovsky. Na przykład robot wyszkolony na zbiorze danych może zostać odrzucony przez twarze w prawdziwym świecie.


Więcej świetnych historii WIRED

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook