Nowości

Tekst z tego programu oparty na sztucznej inteligencji może oszukać rząd

W październiku 2019 r. Idaho zaproponowało zmianę swojego programu Medicaid. Stan potrzebował zgody rządu federalnego, który zwrócił się do opinii publicznej za pośrednictwem Medicaid.gov.

Przyszło około 1000 komentarzy. Ale połowa nie pochodziła od zaniepokojonych obywateli ani nawet trolli internetowych. Zostały wygenerowane przez sztuczną inteligencję. Badanie wykazało, że ludzie nie potrafili odróżnić prawdziwych komentarzy od fałszywych.

Projekt był dziełem Maxa Weissa, zaawansowanego technologicznie studenta medycyny na Harvardzie, ale poświęcono mu wówczas niewiele uwagi. Teraz, gdy systemy językowe sztucznej inteligencji szybko się rozwijają, niektórzy twierdzą, że rząd i firmy internetowe muszą przemyśleć, w jaki sposób pozyskują i monitorują informacje zwrotne, aby chronić się przed głęboką manipulacją tekstem i innymi zakłóceniami ze strony sztucznej inteligencji.

„Łatwość, z jaką bot może generować i przesyłać odpowiedni tekst podszywający się pod ludzką mowę na rządowych stronach internetowych, jest zaskakująca i naprawdę ważna jest wiedza” – mówi Latanya Sweeney, profesor z Harvard’s Kennedy School, która doradzała Weissowi, jak przeprowadzić eksperyment w sposób etyczny.

Sweeney mówi, że problemy wykraczają daleko poza usługi rządowe, ale konieczne jest, aby agencje publiczne znalazły rozwiązanie. „AI może zagłuszyć mowę prawdziwych ludzi” – mówi. „Witryny rządowe muszą się zmienić”.

Centers for Medicare and Medicaid Services twierdzi, że w odpowiedzi na badanie Weissa dodało nowe zabezpieczenia do publicznego systemu komentarzy, chociaż odmawia omawiania szczegółów. Weiss mówi, że skontaktował się z nim US General Services Administration, który opracowuje nową wersję strony internetowej rządu federalnego do publikowania przepisów i komentarzy, o sposobach lepszej ochrony przed fałszywymi komentarzami.

Systemy rządowe były już wcześniej celem automatycznych kampanii wpływowych. W 2017 roku naukowcy odkryli, że ponad milion komentarzy przesłanych do Federalnej Komisji Łączności w sprawie planów wycofania zasad neutralności sieci zostało wygenerowanych automatycznie, a niektóre frazy zostały skopiowane i wklejone do różnych wiadomości.

Projekt Weissa wskazuje na poważniejsze zagrożenie. W ciągu ostatnich kilku lat nastąpił niezwykły postęp w stosowaniu sztucznej inteligencji do języka. Gdy potężne algorytmy uczenia maszynowego otrzymują ogromne ilości danych szkoleniowych – w postaci książek i tekstu pobranego z sieci – mogą tworzyć programy zdolne do generowania przekonującego tekstu. Oprócz niezliczonych przydatnych aplikacji, stwarza to możliwość łatwego i mniej wykrywalnego fałszowania wszelkiego rodzaju wiadomości internetowych, komentarzy i postów.

„Wraz z rozwojem technologii” – mówi Sweeney – „miejsca, w których mowa ludzka, stają się przedmiotem manipulacji bez ludzkiej wiedzy, że to się wydarzyło”. Weiss pracował w organizacji zajmującej się ochroną konsumentów w okresie letnim 2019 roku, kiedy dowiedział się o procesie opinii publicznej wymaganym do wprowadzenia zmian w Medicaid. Wiedząc, że te publiczne komentarze wpłynęły na poprzednie próby zmiany programów Medicaid, Weiss szukał narzędzi, które mogłyby automatycznie generować komentarze.

„Byłem trochę zszokowany, kiedy zobaczyłem tylko przycisk„ Prześlij ”, który przeszkadzał, by Twój komentarz stał się częścią publicznego zapisu” – mówi.

obraz artykułu

Przewodnik WIRED po sztucznej inteligencji

Inteligentne algorytmy nie podejmą wszystkich zadań, ale uczą się szybciej niż kiedykolwiek, robiąc wszystko, od diagnostyki medycznej po wyświetlanie reklam.

Weiss odkrył GPT-2, program wydany wcześniej tego roku przez OpenAI, firmę zajmującą się sztuczną inteligencją w San Francisco, i zdał sobie sprawę, że może generować fałszywe komentarze, aby zasymulować falę opinii publicznej. „Byłem również zszokowany tym, jak łatwo było dostroić GPT-2, aby rzeczywiście wypluwał komentarze” – mówi Weiss. „Jest to stosunkowo niepokojące z wielu powodów”.

Oprócz narzędzia do generowania komentarzy firma Weiss stworzyła oprogramowanie do automatycznego przesyłania komentarzy. Przeprowadził również eksperyment, w którym ochotnicy zostali poproszeni o rozróżnienie między komentarzami wygenerowanymi przez sztuczną inteligencję a komentarzami napisanymi przez ludzi. Wolontariusze poradzili sobie tylko z przypadkowym zgadywaniem.

Po przesłaniu uwag Weiss powiadomił Centres for Medicare i Medicaid Services. Dodał kilka znaków, aby ułatwić identyfikację każdego fałszywego komentarza. Mimo to, mówi, opinie dotyczące sztucznej inteligencji były publikowane w Internecie przez kilka miesięcy.

OpenAI wypuściło w czerwcu ubiegłego roku bardziej wydajną wersję swojego programu do generowania tekstu, zwaną GPT-3. Do tej pory udostępniono go tylko kilku badaczom i firmom zajmującym się sztuczną inteligencją, a niektórzy tworzą przydatne aplikacje, takie jak programy generujące wiadomości e-mail z punktorów. Kiedy GPT-3 został wydany, OpenAI powiedział w artykule badawczym, że nie zauważył oznak złośliwego użycia GPT-2, mimo że był świadomy badań Weissa.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook