Nowości

Za papierem, który doprowadził do zwolnienia badacza Google

Wcześniej w tym roku, Badacz sztucznej inteligencji Google, Timnit Gebru, wysłał wiadomość na Twitterze do profesor Emily Bender z Uniwersytetu Waszyngtońskiego. Gebru zapytała Bender, czy pisała o kwestiach etycznych związanych z niedawnymi postępami w dziedzinie sztucznej inteligencji, która przetwarza tekst. Bender tego nie zrobił, ale para wdała się w rozmowę na temat ograniczeń takiej technologii, takich jak dowody na to, że może ona powielać stronniczy język znaleziony w Internecie.

Bender uznał, że dyskusja DM jest ożywiona i zasugerował przekształcenie jej w artykuł naukowy. „Miałem nadzieję, że sprowokuję kolejny zwrot w rozmowie” – mówi Bender. „Widzieliśmy całe to podekscytowanie i sukcesy, cofnijmy się i zobaczmy, jakie są możliwe zagrożenia i co możemy zrobić”. Projekt został napisany w ciągu miesiąca z udziałem pięciu dodatkowych współautorów z Google i środowiska akademickiego i przesłany w październiku na konferencję naukową. Wkrótce stała się jedną z najbardziej znanych prac badawczych w dziedzinie sztucznej inteligencji.

W zeszłym tygodniu Gebru powiedziała, że ​​została zwolniona przez Google po tym, jak sprzeciwiła się prośbie menedżera o wycofanie lub usunięcie jej nazwiska z gazety. Szef AI w Google powiedział, że praca „nie spełniła naszego progu do publikacji”. Od tego czasu ponad 2200 pracowników Google podpisało list, w którym domaga się większej przejrzystości w zakresie obsługi projektu przez firmę. W sobotę menedżer Gebru, badacz sztucznej inteligencji Google, Samy Bengio, napisał na Facebooku, że jest „oszołomiony”, deklarując: „Popieram cię, Timnit”. Sztuczna inteligencja poza Google publicznie potępiła sposób, w jaki firma traktuje Gebru.

Wściekłość nadała papierowi, który katalizował nagłe wyjście Gebru, aurę o niezwykłej mocy. Krążył w kręgach AI jak samizdat. Ale najbardziej niezwykłą rzeczą w 12-stronicowym dokumencie, który zobaczył WIRED, jest to, jak niekontrowersyjny jest. Publikacja nie atakuje Google ani jego technologii i wydaje się mało prawdopodobne, aby zaszkodziła reputacji firmy, gdyby Gebru mogła opublikować ją w ramach powiązania z Google.

W artykule dokonano przeglądu poprzednich badań dotyczących ograniczeń systemów sztucznej inteligencji, które analizują i generują język. Nie przedstawia nowych eksperymentów. Autorzy cytują wcześniejsze badania pokazujące, że językowa sztuczna inteligencja może zużywać ogromne ilości energii elektrycznej i odzwierciedla niesmaczne uprzedzenia znalezione w tekście internetowym. Sugerują też sposoby, w jakie naukowcy zajmujący się sztuczną inteligencją mogą bardziej uważać na technologię, w tym poprzez lepsze dokumentowanie danych wykorzystywanych do tworzenia takich systemów.

Wkład Google w tę dziedzinę – niektóre obecnie wdrożone w wyszukiwarce – są przywoływane, ale nie są wyróżniane w celu specjalnej krytyki. Jedno z cytowanych badań, pokazujące dowody na stronniczość języka sztucznej inteligencji, zostało opublikowane przez badaczy Google na początku tego roku.

„Ten artykuł jest bardzo solidną i dobrze zbadaną pracą” – mówi Julien Cornebise, honorowy profesor nadzwyczajny na University College London, który widział szkic pracy. „Trudno powiedzieć, co mogłoby wywołać wrzawę w jakimkolwiek laboratorium, nie mówiąc już o tym, że ktoś straciłby pracę z tego powodu”.

Reakcja Google może świadczyć o tym, że liderzy firm czują się bardziej podatni na krytykę etyczną, niż zdawali sobie sprawę Gebru i inni – lub że jej odejście dotyczyło czegoś więcej niż tylko gazety. Firma nie odpowiedziała na prośbę o komentarz. W poniedziałkowym poście na blogu członkowie zespołu badawczego Google ds. Etyki sztucznej inteligencji zasugerowali, że menedżerowie zwrócili się przeciwko firmie Gebru w procesie wewnętrznego przeglądu badań Google. Gebru powiedziała w zeszłym tygodniu, że mogła zostać usunięta za krytykowanie programów różnorodności Google i zasugerowanie w niedawnym e-mailu grupowym, aby współpracownicy przestali w nich uczestniczyć.

obraz artykułu

Przewodnik WIRED po sztucznej inteligencji

Inteligentne algorytmy nie podejmą wszystkich zadań, ale uczą się szybciej niż kiedykolwiek, robiąc wszystko, od diagnostyki medycznej po wyświetlanie reklam.

Projekt dokumentu, który wprawił w ruch kontrowersje, nosi tytuł „O zagrożeniach związanych ze stochastycznymi papugami: czy modele językowe mogą być zbyt duże?” (Zawiera emoji papugi po znaku zapytania). Zwraca krytyczne spojrzenie na jeden z najbardziej ożywionych wątków badań nad sztuczną inteligencją.

Firmy technologiczne, takie jak Google, dużo zainwestowały w sztuczną inteligencję od początku 2010 roku, kiedy naukowcy odkryli, że mogą znacznie zwiększyć dokładność rozpoznawania mowy i obrazu przy użyciu techniki zwanej uczeniem maszynowym. Algorytmy te mogą udoskonalić swoje działanie w zadaniu, powiedzmy transkrypcji mowy, poprzez przetrawienie przykładowych danych opatrzonych adnotacjami. Podejście zwane uczeniem głębokim umożliwiło oszałamiające nowe wyniki dzięki połączeniu algorytmów uczenia się z dużo większymi zbiorami przykładowych danych i potężniejszymi komputerami.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook