Nowości

Google oferuje pomoc innym w podstępnej etyce sztucznej inteligencji

Firmy płacą w chmurze Dostawcy komputerów, tacy jak Amazon, Microsoft i Google, grają duże pieniądze, aby uniknąć obsługi własnej infrastruktury cyfrowej. Dział Google w chmurze wkrótce zaprosi klientów do outsourcingu czegoś mniej namacalnego niż procesory i dyski twarde – prawa i zła korzystania ze sztucznej inteligencji.

Firma planuje uruchomić nowe usługi w zakresie etyki AI przed końcem roku. Początkowo Google będzie oferować innym porady dotyczące zadań, takich jak wykrywanie uprzedzeń rasowych w komputerowych systemach wizyjnych lub opracowywanie wytycznych etycznych dotyczących projektów sztucznej inteligencji. W dłuższej perspektywie firma może oferować audyt systemów sztucznej inteligencji klientów pod kątem uczciwości etycznej i pobierać opłaty za porady etyczne.

Nowa oferta Google przetestuje, czy lukratywna, ale coraz bardziej nieufna branża może rozwinąć swoją działalność, oferując wskazówki etyczne. Firma zajmuje odległą trzecią pozycję na rynku przetwarzania w chmurze za Amazon i Microsoft i stawia swoją wiedzę w zakresie sztucznej inteligencji jako przewagę konkurencyjną. Jeśli się powiedzie, nowa inicjatywa może zaowocować nowym modnym hasłem: EaaS, czyli etyka jako usługa, wzorowana na monetach branżowych w chmurze, takich jak Saas, dla oprogramowania jako usługi.

Firma Google nauczyła się lekcji etyki sztucznej inteligencji na własnej skórze – dzięki własnym kontrowersjom. W 2015 roku Google przeprosił i zablokował wykrywanie goryli w aplikacji Zdjęcia po tym, jak użytkownik zgłosił, że usługa umieściła tę etykietę na jego zdjęciach z czarnym przyjacielem. W 2018 roku tysiące pracowników Google protestowało przeciwko umowie z Pentagonem o nazwie Maven, która wykorzystywała technologię firmy do analizy obrazów z monitoringu z dronów.

obraz artykułu

Przewodnik WIRED po sztucznej inteligencji

Inteligentne algorytmy nie podejmą wszystkich zadań, ale uczą się szybciej niż kiedykolwiek, robiąc wszystko, od diagnostyki medycznej po wyświetlanie reklam.

Niedługo potem firma wydała zestaw zasad etycznych dotyczących korzystania z technologii AI i stwierdziła, że ​​nie będzie już konkurować o podobne projekty, ale nie wykluczyła wszystkich prac obronnych. W tym samym roku Google przyznał się do testowania wersji swojej wyszukiwarki zaprojektowanej tak, aby była zgodna z autorytarną cenzurą Chin i powiedział, że nie będzie oferować technologii rozpoznawania twarzy, jak rywale Microsoft i Amazon od lat, ze względu na ryzyko nadużyć.

Walki Google są częścią szerszego rachunku technologów, że sztuczna inteligencja może zaszkodzić, a także pomóc światu. Na przykład systemy rozpoznawania twarzy są często mniej dokładne w przypadku osób czarnoskórych, a oprogramowanie tekstowe może wzmacniać stereotypy. Jednocześnie regulatorzy, prawodawcy i obywatele stali się bardziej podejrzliwi co do wpływu technologii na społeczeństwo.

W odpowiedzi niektóre firmy zainwestowały w badania i procesy przeglądu mające na celu zapobieganie wypadnięciu technologii z torów. Microsoft i Google twierdzą, że przeglądają teraz zarówno nowe produkty AI, jak i potencjalne umowy pod kątem problemów etycznych, w wyniku czego odwrócili się od biznesu.

Tracy Frey, która pracuje nad strategią sztucznej inteligencji w oddziale Google w chmurze, twierdzi, że te same trendy skłoniły klientów, którzy polegają na Google w zakresie potężnej sztucznej inteligencji, również do zwrócenia się o pomoc etyczną. „Świat technologii przesuwa się w kierunku mówienia nie„ Zbuduję to tylko dlatego, że mogę ”, ale„ Powinienem? ”- mówi.

Google już pomaga niektórym klientom, takim jak globalny gigant bankowy HSBC, pomyśleć o tym. Teraz zamierza przed końcem roku uruchomić formalne usługi w zakresie etyki AI. Frey mówi, że pierwsze prawdopodobnie obejmą szkolenia na takie tematy, jak rozpoznawanie problemów etycznych w systemach AI, podobnych do tych oferowanych pracownikom Google, oraz jak opracowywać i wdrażać wytyczne dotyczące etyki AI. Później Google może oferować usługi konsultingowe w celu przeglądu lub audytu projektów sztucznej inteligencji klientów, na przykład w celu sprawdzenia, czy algorytm pożyczkowy nie jest stronniczy w stosunku do osób z określonych grup demograficznych. Firma Google nie zdecydowała jeszcze, czy będzie pobierać opłaty za niektóre z tych usług.

Google, Facebook i Microsoft wydały niedawno wszystkie narzędzia techniczne, często bezpłatne, których programiści mogą używać do sprawdzania własnych systemów sztucznej inteligencji pod kątem niezawodności i uczciwości. IBM wprowadził w zeszłym roku narzędzie z przyciskiem „Sprawdź uczciwość”, które sprawdza, czy dane wyjściowe systemu wykazują potencjalnie niepokojącą korelację z atrybutami, takimi jak pochodzenie etniczne lub kod pocztowy.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook