Nowości

Aby oczyścić komentarze, pozwól AI powiedzieć użytkownikom, że ich słowa są śmieciami

Sekcje komentarzy mają długo zachowywał się jak żylaste kosze na śmieci serwisów informacyjnych, zbierając najgorsze i najcieńsze z ludzkich myśli. Przemyślane reakcje mieszają się z podrobami niezwiązanymi z tematem, atakami osobistymi i kuszącymi sugestiami, aby „nauczyć się, jak zarabiać ponad 7 000 USD miesięcznie, pracując online w domu!” (Tak mówi stare porzekadło: nigdy nie czytaj komentarzy). W ciągu ostatniej dekady sprawy potoczyły się tak źle, że wiele stron internetowych umieszczało kibosha w komentarzach, zamieniając nadzieję na ożywioną, interaktywną debatę na rzecz ciszy i spokoju.

Ale podczas gdy niektórzy ludzie uciekali z krzykiem, inni wskoczyli z misją ulepszenia sekcji komentarzy. Obecnie dziesiątki newsroomów używają platform do komentowania, takich jak Coral i OpenWeb, które mają na celu powstrzymanie problematycznego dyskursu dzięki połączeniu ludzkich opiekunów i narzędzi algorytmicznych. (Kiedy WIRED dodał komentarze z powrotem do strony internetowej na początku tego roku, zwróciliśmy się do Coral.) Te narzędzia służą do oznaczania i kategoryzowania potencjalnie szkodliwych komentarzy, zanim człowiek będzie mógł je przejrzeć, pomagając zarządzać obciążeniem pracą i zmniejszać widoczność toksycznych treści.

Innym podejściem, które zyskało popularność, jest automatyczne przekazywanie komentującym informacji zwrotnych, zachęcając ich do ponownego przemyślenia toksycznego komentarza przed trafili do publikacji. Nowe badanie pokazuje, jak skuteczne mogą być te monity do samodzielnej edycji. Badanie, przeprowadzone przez OpenWeb i platformę konwersacji AI firmy Google, Perspective API, obejmowało ponad 400 000 komentarzy w serwisach informacyjnych, takich jak AOL, RT i Newsweek, które testowały funkcję opinii w czasie rzeczywistym w swoich sekcjach komentarzy. Zamiast automatycznie odrzucać komentarz, który naruszał standardy społeczności, algorytm najpierw podpowiadał komentującym ostrzeżenie: „Zachowajmy cywilizację rozmowy. Usuń z komentarza jakikolwiek nieodpowiedni język ”lub„ Niektórzy członkowie społeczności mogą uznać Twój komentarz za nieodpowiedni. Spróbuj ponownie?” Inna grupa komentujących służyła jako kontrola i nie widzieli takiej interwencji.

Badanie wykazało, że dla około jednej trzeciej komentujących widok interwencji spowodował, że zrewidowali swoje komentarze. Jigsaw, grupa w Google, która tworzy Perspective API, twierdzi, że kłóci się z wcześniejszymi badaniami, w tym z badaniami przeprowadzonymi z Coral, które wykazały, że 36 procent ludzi redagowało toksyczny język w komentarzu, gdy został o to poproszony. Kolejny eksperyment – od Południowo-Missourian, które również korzysta z oprogramowania firmy Perspective – okazało się, że przekazywanie komentatorom informacji zwrotnych w czasie rzeczywistym zmniejszyło liczbę komentarzy uważanych za „bardzo toksyczne” o 96 procent.

Plik sposoby ludzie zrewidowali swoje komentarze, ale nie zawsze były pozytywne. W badaniu OpenWeb około połowa osób, które zdecydowały się edytować swój komentarz, zrobiła to w celu usunięcia lub zastąpienia toksycznego języka lub całkowitego przekształcenia komentarza. Wydawało się, że ci ludzie zarówno rozumieją, dlaczego oryginalny komentarz został oznaczony, jak i przyznają, że mogą go przepisać w lepszy sposób. Ale około jedna czwarta osób, które poprawiły swój komentarz, zrobiła to, aby poruszać się po filtrze toksyczności, zmieniając pisownię lub odstępy w obraźliwym słowie, aby ominąć wykrywanie algorytmiczne. Reszta zmieniła niewłaściwą część komentarza, najwyraźniej nie rozumiejąc, co jest nie tak z oryginalną wersją, lub poprawiła swój komentarz, aby odpowiedzieć bezpośrednio na samą funkcję (np. „Weź cenzurę i wypchnij ją”).

Czytaj dalej

Ponieważ umiar algorytmiczny stał się bardziej powszechny, w ich ślady poszły adaptacje językowe. Ludzie uczą się tych konkretnych słów – powiedz „cuck” – podnieś filtr i zacznij pisać je inaczej („cuck”) lub wymyślaj zupełnie nowe słowa. Na przykład po śmierci Ahmauda Arbery’ego w lutym Vice poinformował, że niektóre grupy białej supremacji zaczęły używać słowa „biegacz” zamiast bardziej znanych rasistowskich obelg. Te wzorce w dużej mierze wymykają się algorytmicznym filtrom i mogą utrudniać śledzenie celowo obraźliwego języka w Internecie.

Ido Goldberg, starszy wiceprezes OpenWeb ds. Produktu, mówi, że tego rodzaju zachowanie adaptacyjne było jednym z głównych problemów podczas projektowania funkcji sprzężenia zwrotnego w czasie rzeczywistym. „Jest to okno na nadużycia, które ma na celu oszukanie systemu” – mówi. „Oczywiście widzieliśmy to częściowo, ale nie tak często, jak myśleliśmy”. Zamiast używać ostrzeżeń jako sposobu na oszukanie systemu moderacji, większość użytkowników, którzy widzieli interwencje, w ogóle nie zmieniła swoich komentarzy. Trzydzieści sześć procent użytkowników, którzy widzieli interwencję, i tak opublikowało swój komentarz, nie wprowadzając żadnych zmian. (Komunikat interwencyjny był ostrzeżeniem, a nie przeszkodą w zamieszczaniu.) Kolejne 18 procent zamieściło swój komentarz, po odświeżeniu strony, bez edycji, sugerując, że potraktowali ostrzeżenie jako blokadę. Kolejne 12 procent po prostu zrezygnowało, porzuciło wysiłek i w ogóle nie publikowało.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook