Nowości

Jak cenzura może wpływać na sztuczną inteligencję

Sztuczna inteligencja jest nie ograniczają go żadne granice, ponieważ firmy, uniwersytety i rządy korzystają z globalnej puli pomysłów, algorytmów i talentów. Jednak programy AI, które są wynikiem tej globalnej gorączki złota, nadal mogą odzwierciedlać głębokie podziały kulturowe.

Nowe badania pokazują, jak cenzura rządowa wpływa na algorytmy sztucznej inteligencji – i może wpływać na aplikacje zbudowane za pomocą tych algorytmów.

Margaret Roberts, profesor politologii na UC San Diego i Eddie Yang, tamtejszy doktorant, zbadali algorytmy językowe sztucznej inteligencji wyszkolone z dwóch źródeł: chińskojęzycznej wersji Wikipedii, która jest zablokowana w Chinach; oraz Baidu Baike, podobna witryna obsługiwana przez dominującą w Chinach wyszukiwarkę Baidu, która podlega rządowej cenzurze. Baidu nie odpowiedział na prośbę o komentarz.

Naukowcy byli ciekawi, czy algorytmy sztucznej inteligencji mogą nauczyć się cenzurowania pewnych słów i zwrotów i znaleźć drogę do oprogramowania wykorzystującego te algorytmy. Może to wpłynąć na język używany przez chatbota lub asystenta głosowego, frazę programu tłumaczącego lub tekst narzędzi autouzupełniania.

Typ algorytmu językowego, którego użyli, uczy się, analizując sposób, w jaki słowa pojawiają się razem w dużych ilościach tekstu. Przedstawia różne słowa jako połączone węzły w przestrzeni fizycznej; im bliżej pojawiają się słowa, tym bardziej zbliżone jest ich znaczenie.

Program tłumaczący może wywnioskować znaczenie nieznanego słowa, patrząc na przykład na te relacje w dwóch różnych językach.

Badacze UCSD odkryli kluczowe różnice w wynikowych algorytmach sztucznej inteligencji, które według naukowców wydają się odzwierciedlać informacje, które są cenzurowane w Chinach. Na przykład osoba wyszkolona na chińskiej Wikipedii reprezentowała „demokrację” bliżej pozytywnych słów, takich jak „stabilność”. Algorytm wyszkolony na Baike Baidu reprezentował „demokrację” bliższą „chaosowi”.

Roberts i Yang wykorzystali następnie algorytmy do zbudowania dwóch programów do oceny nastrojów – pozytywnego kontra negatywnego znaczenia – nagłówków wiadomości. Okazało się, że osoba przeszkolona na chińskiej Wikipedii przypisywała więcej pozytywnych ocen nagłówkom, które wspominały o takich terminach, jak „wybory”, „wolność” i „demokracja”, podczas gdy osoba przeszkolona na Baidu Baike przypisywała więcej pozytywnych ocen nagłówkom z „inwigilacją”, „ kontrola społeczna ”i„ KPCh ”. Badanie zostanie zaprezentowane na konferencji poświęconej uczciwości, odpowiedzialności i przejrzystości (FAccT) w 2021 r. W marcu.

W ostatnich latach naukowcy podkreślili, w jaki sposób w wielu systemach sztucznej inteligencji mogą czaić się uprzedzenia rasowe i płciowe. Algorytmy wyszkolone na przykład na tekście pobranym z Internetu lub starych książek nauczą się powielać uprzedzenia, jakie wykazują autorzy tego tekstu będący ludźmi. W 2018 roku badacze Google wykazali uprzedzenia kulturowe w algorytmach rozpoznawania obrazu, które mogą na przykład rozpoznawać tylko zachodnie sceny weselne.

obraz artykułu

Przewodnik WIRED po sztucznej inteligencji

Inteligentne algorytmy nie podejmą wszystkich zadań, ale uczą się szybciej niż kiedykolwiek, robiąc wszystko, od diagnostyki medycznej po wyświetlanie reklam.

Roberts zauważa, że ​​różnice widoczne w ich badaniu mogą nie wynikać wyłącznie z rządowej cenzury. Niektóre mogą być wynikiem autocenzury lub po prostu różnic kulturowych między osobami piszącymi artykuły w encyklopedii. Mówi jednak, że ważne jest, aby zdać sobie sprawę, że polityka rządu może powodować inne formy uprzedzeń w systemach AI. „Postrzegamy to jako punkt wyjścia do próby zrozumienia, w jaki sposób dane szkoleniowe ukształtowane przez rząd pojawiają się w uczeniu maszynowym” – mówi Roberts.

Roberts mówi, że badacze i decydenci muszą rozważyć, w jaki sposób rządy mogą w przyszłości wpłynąć na sposób szkolenia systemów SI, aby cenzura była bardziej skuteczna lub eksportowała określone wartości.

Graeme Hirst, profesor na Uniwersytecie w Toronto, który specjalizuje się w lingwistyce komputerowej i przetwarzaniu języka naturalnego, ma kilka zastrzeżeń co do metodologii badania. Hirst mówi, że bez dokładnego zbadania różnic między chińską Wikipedią a Baidu Baike trudno przypisać cenzurze różnice w algorytmach. Jest również możliwe, że chińska Wikipedia zawiera treści antychińskie lub otwarcie prodemokratyczne – mówi. Hirst dodaje, że nie jest jasne, w jaki sposób przeprowadzono analizę nastrojów i czy mogła tam zostać wprowadzona stronniczość.

Inni postrzegają to jako mile widziany wkład w tę dziedzinę.

„W pewnym sensie nie jest to zaskakujące” – mówi Suresh Venkatasubramanian, profesor na Uniwersytecie w Utah, który zajmuje się etyką sztucznej inteligencji i współtworzył konferencję FAcct.

Venkatasubramanian zwraca uwagę, że algorytmy sztucznej inteligencji wyszkolone na zachodnich artykułach prasowych mogą zawierać własne uprzedzenia antychińskie. „Ale myślę, że nadal ważne jest, aby wykonać pracę, aby pokazać, że to się dzieje” – mówi. „Następnie możesz zacząć pytać, jak to wygląda, jak to mierzysz, jak wygląda i tak dalej”.


Więcej świetnych historii WIRED

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook