Gry

Idź naprzód, spróbuj przemycić złe słowa z filtrów AI – w celach badawczych

Sztuczna inteligencja Facebooka badacze planują uczynić algorytmy inteligentniejszymi, wystawiając je na działanie ludzkiego sprytu. Chcą twojej pomocy w dostarczeniu oszustwa.

W czwartek laboratorium AI Facebooka uruchomiło projekt o nazwie Dynabench, który tworzy rodzaj gladiatorskiej areny, na której ludzie próbują wyzwolić systemy AI. Wyzwania obejmują tworzenie zdań, które powodują, że system punktacji uczuć przestaje działać, na przykład odczytywanie komentarza jako negatywnego, gdy jest rzeczywiście pozytywny. Inny polega na oszukaniu filtra mowy nienawiści – potencjalnej atrakcyjności dla nastolatków i trolli. Projekt początkowo koncentruje się na oprogramowaniu do przetwarzania tekstu, chociaż później można go rozszerzyć na inne obszary, takie jak mowa, obrazy lub gry interaktywne.

Poddawanie sztucznej inteligencji prowokacjom ze strony ludzi ma na celu uzyskanie prawdziwszej miary inteligencji (i głupoty) sztucznej inteligencji oraz dostarczenie danych, które mogą ją ulepszyć. Badacze zazwyczaj porównują algorytmy, oceniając dokładność oznaczania obrazów lub odpowiadając na pytania wielokrotnego wyboru dotyczące standardowych zbiorów danych, zwanych wzorcami.

Badacz Facebooka, Douwe Kiela, mówi, że te testy tak naprawdę nie mierzą tego, na czym on i inni w terenie dbają. „To, co naprawdę nas interesuje, to to, jak często popełnia błędy, gdy wchodzi w interakcję z osobą” – mówi. „Przy obecnych testach porównawczych wygląda na to, że jesteśmy niesamowici w tworzeniu języka w sztucznej inteligencji, a to jest bardzo mylące, ponieważ wciąż mamy dużo do zrobienia”.

Naukowcy mają nadzieję, że analiza przypadków, w których ludzie wpadli na sztuczną inteligencję, sprawi, że algorytmy będą trudniejsze do podrobienia.

Douwe ma nadzieję, że zarówno eksperci AI, jak i zwykli internauci z przyjemnością będą mogli logować się do sztucznej inteligencji i zdobywać wirtualne odznaki, ale platforma pozwoli również badaczom płacić za wkłady za pośrednictwem usługi crowdsourcingowej Mechanical Turk. Laboratoria sztucznej inteligencji na Stanford, University of North Carolina i University College London będą utrzymywać testy sztucznej inteligencji na platformie Dynabench.

Projekt Facebooka pojawia się, gdy coraz więcej badaczy zajmujących się sztuczną inteligencją, w tym wiceprezes sieci społecznościowej ds. Sztucznej inteligencji, twierdzi, że dziedzina ta musi poszerzyć swoje horyzonty, jeśli komputery mają stać się zdolne do radzenia sobie ze złożonymi, rzeczywistymi sytuacjami.

W ciągu ostatnich ośmiu lat przełomowe odkrycia w technice sztucznej inteligencji zwanej głębokim uczeniem przyniosły konsumentom, które w większości działają, rozpoznawanie mowy, telefony, które automatycznie sortują zdjęcia psów oraz kilka zabawnych filtrów Snapchata. Algorytmy potrafią cofnąć szpulowanie niesamowicie przejrzystego tekstu.

Jednak oprogramowanie do głębokiego uczenia się potyka się w sytuacjach wykraczających poza jego wąski zakres szkolenia. Najlepsze algorytmy przetwarzania tekstu wciąż mogą zostać wyzwolone przez niuanse języka, takie jak sarkazm lub sposób, w jaki kontekst kulturowy może zmienić znaczenie słów. To są główne wyzwania dla detektorów mowy nienawiści na Facebooku. Generatory tekstu często wyrzucają bezsensowne zdania oderwane od rzeczywistości.

Te ograniczenia mogą być trudne do zauważenia, jeśli spojrzeć na standardowe testy porównawcze używane w badaniach nad sztuczną inteligencją. Niektóre testy sztucznej inteligencji w czytaniu musiały zostać przeprojektowane i uczynione bardziej wymagającymi w ostatnich latach, ponieważ algorytmy wymyśliły, jak uzyskać tak wysokie wyniki, nawet przewyższając ludzi.

obraz artykułu

Przewodnik WIRED po sztucznej inteligencji

Inteligentne algorytmy nie podejmą wszystkich zadań, ale uczą się szybciej niż kiedykolwiek, robiąc wszystko, od diagnostyki medycznej po wyświetlanie reklam.

Yejin Choi, profesor na University of Washington i kierownik badań w Allen Institute for AI, twierdzi, że takie wyniki są zwodnicze. Statystyczna moc algorytmów uczenia maszynowego może wykryć drobne korelacje w testowych zestawach danych, niewykrywalne przez ludzi, które ujawniają poprawne odpowiedzi bez konieczności szerszego zrozumienia świata przez człowieka. „Widzimy sytuację Mądrego Hansa” – mówi, odnosząc się do konia, który udawał liczenie, czytając mowę ludzkiego ciała.

Więcej naukowców zajmujących się sztuczną inteligencją poszukuje obecnie alternatywnych sposobów pomiaru i przyspieszania postępu. Choi przetestowała niektóre własne, w tym jeden, który ocenia algorytmy generowania tekstu na podstawie tego, jak dobrze ich odpowiedzi na posty Reddit są porównywalne z odpowiedziami ludzi. Inni badacze eksperymentowali z próbowaniem oszukiwania algorytmów tekstowych przez ludzi i pokazali, jak zebrane w ten sposób przykłady mogą usprawnić systemy SI.

Algorytmy wydają się mniej inteligentne, gdy porównuje się je z bardziej wymagającymi testami, a Choi spodziewa się zobaczyć podobny wzorzec na nowej platformie Dynabench Facebooka. Projekty, które rozdzierają ubrania cesarzy sztucznej inteligencji, mogą skłonić naukowców do odkrywania nowszych pomysłów, które prowadzą do przełomów. „To będzie wyzwanie dla społeczności, aby bardziej zastanowić się, jak uczenie się powinno odbywać się za pomocą sztucznej inteligencji” – mówi Choi. „Musimy być bardziej kreatywni”.


Więcej świetnych historii WIRED

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook