Nowości

Facebook twierdzi, że sztuczna inteligencja podsyciła zwalczanie mowy nienawiści

Facebook twierdzi, że aktywnie wykrywa więcej mowy nienawiści za pomocą sztucznej inteligencji. Nowy raport przejrzystości opublikowany w czwartek zawiera więcej szczegółów na temat nienawiści do mediów społecznościowych po zmianach polityki na początku tego roku, chociaż pozostawia kilka ważnych pytań bez odpowiedzi.

Kwartalny raport Facebooka zawiera nowe informacje na temat rozpowszechnienia mowy nienawiści. Firma szacuje, że od 0,10 do 0,11 procent tego, co widzą użytkownicy Facebooka, narusza zasady dotyczące mowy nienawiści, co oznacza „od 10 do 11 wyświetleń mowy nienawiści na każde 10 000 wyświetleń treści”. Jest to oparte na losowej próbie postów i mierzy zasięg treści, a nie czystą liczbę postów, rejestrując efekt bardzo wirusowych postów. Nie zostało to jednak ocenione przez zewnętrzne źródła. W rozmowie z dziennikarzami, wiceprezes Facebooka ds. Uczciwości, Guy Rosen, powiedział, że firma „planuje i pracuje nad audytem”.

Facebook twierdzi, że aktywnie usuwa większość mowy nienawiści, zanim użytkownicy to zgłoszą. Mówi się, że w ciągu ostatnich trzech miesięcy około 95 procent przypadków usunięcia mowy nienawiści na Facebooku i Instagramie było proaktywnych.

Wskaźniki wykrywania mowy nienawiści na Facebooku w czasie

Wskaźniki wykrywania mowy nienawiści na Facebooku w czasie.
: Facebook

To dramatyczny skok w porównaniu z jej najwcześniejszymi wysiłkami – pod koniec 2017 r. Tylko około 24 procent usunięć było aktywnych. Zwiększyło to również usuwanie mowy nienawiści: około 645 000 treści usunięto w ostatnim kwartale 2019 r., A 6,5 mln w trzecim kwartale 2020 r. Zorganizowane grupy nienawiści należą do osobnej kategorii moderacji, w której odnotowano znacznie mniejszy wzrost. od 139,900 do 224,700 zabójstw.

Facebook twierdzi, że niektóre z tych usunięć są napędzane ulepszeniami sztucznej inteligencji. Facebook ogłosił w maju konkurs badawczy dotyczący systemów, które mogą lepiej wykrywać „nienawistne memy”. W swoim najnowszym raporcie zachwalał zdolność do analizowania tekstu i obrazów w tandemie, przechwytując treści takie jak makro obrazu (stworzone przez Facebooka) poniżej.

Obraz makro z grobem i tekstem „JEŚLI WYBORY NIE PRZEJDĄ W NASZĄ DROGĘ / TWOJA GRUPA ETNICZNA ZAKOŃCZY SIĘ TUTAJ”

To makro stworzone przez Facebooka ilustruje mowę nienawiści, którą należy wykryć, analizując obrazy obok tekstu.
: Facebook

Takie podejście ma wyraźne ograniczenia. Jak zauważa Facebook, „nowa mowa nienawiści może nie przypominać poprzednich przykładów”, ponieważ odnosi się do nowego trendu lub wiadomości. Zależy to od zdolności Facebooka do analizowania wielu języków i wychwytywania trendów specyficznych dla danego kraju, a także od tego, jak Facebook definiuje mowę nienawiści, kategorię, która zmieniała się w czasie. Na przykład negacja Holokaustu została zakazana dopiero w zeszłym miesiącu.

Niekoniecznie pomoże to również moderatorom Facebooka, pomimo ostatnich zmian, które wykorzystują sztuczną inteligencję do segregowania skarg. Pandemia koronawirusa zakłóciła zwykłe praktyki moderowania Facebooka, ponieważ nie pozwala moderatorom przeglądać niektórych bardzo wrażliwych treści z ich domów. Facebook podał w swoim raporcie kwartalnym, że jego liczba usunięć powraca „do poziomu sprzed pandemii”, częściowo dzięki sztucznej inteligencji.

Jednak niektórzy pracownicy narzekali, że są zmuszani do powrotu do pracy, zanim będzie to bezpieczne, a 200 moderatorów treści podpisało otwartą prośbę o lepszą ochronę przed koronawirusem. W tym liście moderatorzy powiedzieli, że automatyzacja nie rozwiązała poważnych problemów. „AI nie nadawało się do tego zadania. Ważne przemówienie zostało zmiecione w paszczę filtra Facebooka – a ryzykowne treści, takie jak samookaleczenia, pozostały bez zmian ”- powiedzieli.

Rosen nie zgodził się z ich oceną i powiedział, że biura Facebooka „spełniają lub przewyższają” wymagania dotyczące bezpiecznego miejsca pracy. „Są to niezwykle ważni pracownicy, którzy wykonują niezwykle ważną część tej pracy, a nasze inwestycje w sztuczną inteligencję pomagają nam wykrywać i usuwać te treści, aby zapewnić ludziom bezpieczeństwo” – powiedział.

Krytycy Facebooka, w tym amerykańscy prawodawcy, prawdopodobnie pozostaną nieprzekonani, że wyłapuje wystarczająco dużo nienawistnych treści. W zeszłym tygodniu 15 amerykańskich senatorów naciskało na Facebooka, aby zajął się postami atakującymi muzułmanów na całym świecie, prosząc o więcej informacji na temat jego praktyk moderowania i celów mowy nienawiści dla poszczególnych krajów. Prezes Facebooka Mark Zuckerberg bronił praktyk moderacyjnych firmy podczas przesłuchania w Senacie, wskazując, że Facebook może uwzględnić te dane w przyszłych raportach. „Myślę, że to wszystko byłoby bardzo pomocne, aby ludzie mogli zobaczyć i pociągnąć nas do odpowiedzialności za nasze postępy” – powiedział.

Zuckerberg zasugerował, że Kongres powinien wymagać, aby wszystkie firmy internetowe podążały za przykładem Facebooka, a szefowa polityki, Monika Bickert, powtórzyła dzisiaj ten pomysł. „Kiedy mówisz o wprowadzeniu przepisów lub reformie sekcji 230 [of the Communications Decency Act] w Stanach Zjednoczonych powinniśmy zastanowić się, jak pociągnąć firmy do odpowiedzialności za działania w zakresie szkodliwych treści, zanim zostaną one zauważone przez wiele osób. Liczby podane w dzisiejszym raporcie mogą pomóc w tej rozmowie ”- powiedział Bickert. „Uważamy, że dobre regulacje dotyczące treści mogą stworzyć taki standard w całej branży”.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook