RTV

Facebook używa teraz sztucznej inteligencji do sortowania treści w celu szybszej moderacji

Facebook zawsze dawał jasno do zrozumienia, że ​​chce, aby sztuczna inteligencja wykonywała więcej obowiązków związanych z moderacją na swoich platformach. Dzisiaj ogłosiła swój ostatni krok w kierunku tego celu: umieszczenie uczenia maszynowego w kolejce moderacji.

Oto jak działa moderacja na Facebooku. Posty, które są uznawane za naruszające zasady firmy (które obejmują wszystko, od spamu po szerzenie nienawiści i treści „gloryfikujące przemoc”) są oznaczane przez użytkowników lub filtry systemów uczących się. Niektóre bardzo jasne sprawy są rozwiązywane automatycznie (na przykład odpowiedzi mogą obejmować usunięcie posta lub zablokowanie konta), podczas gdy pozostałe trafiają do kolejki do przeglądu przez moderatorów.

Facebook zatrudnia około 15 000 takich moderatorów na całym świecie i w przeszłości był krytykowany za to, że nie zapewniał tym pracownikom wystarczającego wsparcia, zatrudniając ich w warunkach, które mogą prowadzić do traumy. Ich zadaniem jest sortowanie oznaczonych postów i podejmowanie decyzji, czy naruszają różne zasady firmy.

W przeszłości moderatorzy przeglądali posty mniej lub bardziej chronologicznie, rozpatrując je w kolejności zgłaszania. Teraz Facebook twierdzi, że chce mieć pewność, że najważniejsze posty są widoczne jako pierwsze i używa do tego uczenia maszynowego. W przyszłości amalgamat różnych algorytmów uczenia maszynowego będzie używany do sortowania tej kolejki, ustalając priorytety postów na podstawie trzech kryteriów: ich wirusowości, dotkliwości i prawdopodobieństwa złamania zasad.

Stary system moderacji Facebooka, łączący proaktywną moderację przez filtry ML i reaktywne raporty od użytkowników Facebooka.
: Facebook

Nowy przepływ pracy moderacji, który teraz wykorzystuje uczenie maszynowe do sortowania kolejki postów do przeglądu przez moderatorów.
: Facebook

Dokładna waga tych kryteriów nie jest jasna, ale Facebook twierdzi, że celem jest zajęcie się najpierw najbardziej szkodliwymi postami. Tak więc, im bardziej wirusowy jest post (im więcej jest udostępniany i oglądany), tym szybciej zostanie rozpatrzony. To samo dotyczy wagi postu. Facebook twierdzi, że za najważniejsze uznaje posty, które dotyczą krzywd w świecie rzeczywistym. Może to oznaczać treści związane z terroryzmem, wykorzystywaniem dzieci lub samookaleczeniem. Tymczasem posty takie jak spam, które są irytujące, ale nie traumatyczne, są klasyfikowane jako najmniej ważne do sprawdzenia.

„Wszystkie naruszenia dotyczące treści będą nadal podlegać istotnej ocenie manualnej, ale będziemy używać tego systemu do lepszego ustalania priorytetów [that process]- powiedział dziennikarzom Ryan Barnes, menedżer produktu w zespole ds. Integralności społeczności Facebooka podczas konferencji prasowej.

Facebook udostępnił kilka szczegółów na temat tego, jak jego filtry uczenia maszynowego analizują posty w przeszłości. Systemy te obejmują model o nazwie „WPIE”, co oznacza „osadzanie integralności całego posta” i przyjmuje to, co Facebook nazywa „holistycznym” podejściem do oceny treści.

Oznacza to, że algorytmy oceniają różne elementy w danym poście wspólnie, próbując ustalić, co obraz, podpis, plakat itp. Ujawniają razem. Jeśli ktoś mówi, że sprzedaje „pełną partię” „specjalnych smakołyków” wraz z ilustracją przedstawiającą wypieki, czy mówi o kwadracikach ryżowych czy produktach spożywczych? Użycie w podpisie pewnych słów (np. „Mocny”) może zmienić ocenę w jedną lub drugą stronę.

Facebook wykorzystuje różne algorytmy uczenia maszynowego do sortowania treści, w tym „holistyczne” narzędzie oceny znane jako WPIE.
: Facebook

Wykorzystanie sztucznej inteligencji przez Facebooka do moderowania swoich platform było przedmiotem analizy w przeszłości, a krytycy zauważyli, że sztuczna inteligencja nie ma zdolności człowieka do oceny kontekstu dużej ilości komunikacji online. Zwłaszcza w przypadku takich tematów, jak dezinformacja, zastraszanie i nękanie, komputer może nie wiedzieć, na co patrzy.

Chris Parlow z Facebooka, członek zespołu inżynierów moderatorów firmy, zgodził się, że sztuczna inteligencja ma swoje ograniczenia, ale powiedział dziennikarzom, że technologia może nadal odgrywać rolę w usuwaniu niechcianych treści. „System polega na poślubianiu sztucznej inteligencji i ludzkich recenzentów, aby popełniać mniej błędów” – powiedział Parlow. „Sztuczna inteligencja nigdy nie będzie doskonała”.

Zapytany, jaki procent postów systemów uczenia maszynowego firmy klasyfikuje nieprawidłowo, Parlow nie udzielił bezpośredniej odpowiedzi, ale zauważył, że Facebook pozwala automatycznym systemom działać bez nadzoru człowieka tylko wtedy, gdy są tak dokładne, jak weryfikatorzy. „Poprzeczka dla zautomatyzowanych działań jest bardzo wysoka” – powiedział. Niemniej jednak Facebook stale dodaje więcej AI do miksu moderacji.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook