Różności i nowinki technologia

Najnowszy robo-nag na Twitterze oznaczy „szkodliwy” język przed wysłaniem wiadomości

Bańka mowy z kreskówki pełna niewyraźnych przekleństw została zamazana obok bardzo małego ptaszka.
Powiększać / Zanim zaczniesz pisać na Twitterze, możesz zostać zapytany, czy chciałeś być taki niegrzeczny.

Chcesz wiedzieć dokładnie, co flota botów Twittera przeczesujących tekst i analizujących słowniki definiuje jako „złośliwe”? Od każdego dnia będziesz mieć natychmiastowy dostęp do tych danych – przynajmniej wtedy, gdy surowy auto-moderator powie, że nie tweetujesz grzecznie.

W środę potwierdzili to członkowie zespołu projektowego Twittera dla wszystkich użytkowników Twittera zacznie się pojawiać nowy automatyczny monit, niezależnie od platformy i urządzenia, uaktywnia się, gdy język posta przekracza próg Twittera „potencjalnie szkodliwego lub obraźliwego języka”. To następuje szereg testów ogłoszeń na ograniczonych użytkownikach początek w maju ubiegłego roku. Wkrótce wszelkie moderowane przez robota tweety będą przerywane powiadomieniem z pytaniem „Chcesz przejrzeć to przed tweetem?”

Wcześniejsze testy tej funkcji, co nie powinno dziwić, miały swój udział w problemach. „Algorytmy zasilające [warning] podpowiedzi miały trudności z uchwyceniem niuansów w wielu rozmowach i często nie rozróżniały między potencjalnie obraźliwym językiem, sarkazmem i przyjaznymi przekomarzami ”- stwierdza ogłoszenie Twittera. W wiadomości wyjaśniono, że systemy Twittera uwzględniają między innymi to, jak często dwa konta wchodzić w interakcje ze sobą – co oznacza, że ​​prawdopodobnie dostanę flagę za wysyłanie przekleństw i obelg do celebryty, z którym nigdy nie rozmawiam na Twitterze, ale prawdopodobnie byłbym w stanie wysłać te same zdania za pośrednictwem Twittera do znajomych lub kolegów z Ars.

Ponadto Twitter przyznaje, że jego systemy wymagały wcześniej aktualizacji w celu „uwzględnienia sytuacji, w których język może zostać odzyskany przez niedostatecznie reprezentowane społeczności i używany w sposób nieszkodliwy”. Mamy nadzieję, że punkty danych użyte do dokonania tych ustaleń nie posuną się tak daleko, aby sprawdzić zdjęcie profilowe konta na Twitterze, zwłaszcza że konta trolli zwykle używają fałszywych lub skradzionych obrazów. (Twitter nie wyjaśnił jeszcze, w jaki sposób ustala wyżej wymienione „sytuacje”).

Od czasów prasy Twitter nie zapewnia wygodnego słownika, który użytkownicy mogliby czytać – ani sprytnie błędnie zapisywać swoje ulubione obelgi i przekleństwa, aby ukryć je przed narzędziami do automatycznej moderacji Twittera.

Więc dwie trzecie utrzymywało to w rzeczywistości?

Aby sprzedać tę wiadomość użytkownikom, Twitter klepie się po plecach w postaci danych, ale nie jest to do końca przekonujące.

Podczas fazy testowania uprzejmości Twitter twierdzi, że jedna trzecia użytkowników zdecydowała się przeformułować swoje oflagowane posty lub je usunąć, podczas gdy każdy, kto został oflagowany, zaczął publikować o 11 procent mniej “obraźliwych” postów i odpowiedzi, zgodnie z uśrednieniem. (Oznacza to, że niektórzy użytkownicy mogli stać się milsi, podczas gdy inni mogli stać się bardziej zdecydowani w swojej uzbrojonej mowie). To wszystko brzmi tak, jakby ogromna większość użytkowników była niezłomna w swoich osobistych poszukiwaniach, aby powiedzieć to tak, jak jest.

Najdziwniejszym punktem danych na Twitterze jest to, że każdy, kto otrzymał flagę, był „mniej skłonny do otrzymywania obraźliwych i szkodliwych odpowiedzi z powrotem”. Nie jest jasne, do czego Twitter stara się wykorzystać te dane: dlaczego ciężar uprzejmości miałby spadać na tych, którzy otrzymać nieprzyjemne tweety?

Jest to następstwem kolejnej inicjatywy Twittera, zapoczątkowanej pod koniec 2020 roku zachęcać użytkowników do „przeczytania” artykułu, do którego prowadzi inny użytkownik Twittera, przed „ponownym tweetowaniem” go. Innymi słowy: jeśli zobaczysz soczysty nagłówek i uderzysz w przycisk RT, możesz nieświadomie udostępnić coś, z czym możesz się nie zgadzać. Jednak ta zmiana wydaje się być niewymiarowym bandażem na większy problem Twittera: w jaki sposób usługa zachęca do szalonego, terminowego korzystania z usługi w poszukiwaniu polubień i interakcji, cholernej uczciwości i uprzejmości.

I żadne nagranie nie rozwiąże problemów Twittera z tym, jak nieautentyczni aktorzy i trolle nadal oszukują system i zatruwają dyskurs witryny. Największym przykładem jest problem występujący po kliknięciu w celu przejścia do postów, na które bardzo się „polubiłem” i na które udzielono odpowiedzi, zwykle z głośnych lub „zweryfikowanych” kont. Twitter często umieszcza posty drive-by na górze odpowiedzi tych wątków, często z kont o podejrzanej aktywności i braku organicznych interakcji.

Być może Twitter mógłby wziąć do serca lekcje płynące z tego nagrania, zwłaszcza jeśli chodzi o ważenie interakcji w oparciu o potwierdzone wzajemne relacje między kontami. Albo firma mogłaby pozbyć się wszystkich algorytmów ważenia postów, zwłaszcza tych, które kierują niezauważone treści do kanału użytkownika i wrócić do lepszych dni treści czysto chronologicznych – tak abyśmy mogli łatwiej wzruszyć ramionami w BS.



Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook