Różności i nowinki technologia

Facebook podwoił liczbę przypadków znęcania się i nękania od zeszłego roku

W czwartek Facebook opublikował nowy raport przejrzystości moderacji pokazujący wyraźny wzrost w egzekwowaniu zastraszania i nękania, który osiągnął szczyt 6,3 miliona wszystkich usunięć w ostatnim kwartale 2020 roku. To wzrost z 3,5 miliona elementów w ostatnim kwartale i 2,8 miliona w czwarty kwartał 2019 r. Firma stwierdziła, że ​​duża część zmiany wynika z usprawnień w automatycznych systemach analizujących komentarze na Facebooku i Instagramie.

Najnowszy raport przejrzystości Facebooka obejmuje okres od października do grudnia 2020 r., Czyli okres obejmujący wybory prezydenckie w USA. W tym czasie główna sieć Facebooka usunęła więcej treści związanych z nękaniem, zorganizowaną nienawiścią i mową nienawiści oraz samobójstwami i samookaleczeniami. Instagram odnotował znaczny wzrost liczby przypadków zastraszania i samookaleczania. Firma twierdzi, że jej liczby zostały ukształtowane przez dwa czynniki: większą zdolność do weryfikacji przez człowieka i ulepszenia sztucznej inteligencji, szczególnie w przypadku postów w języku innym niż angielski.

Firma wskazuje również, że będzie polegać na automatyzacji, aby zająć się rosnącą ilością wideo i audio na swoich platformach, w tym rzekomym konkurentem Clubhouse. „Inwestujemy w technologię na różne sposoby, którymi ludzie się dzielą” – powiedział CTO Mike Schroepfer podczas rozmowy z dziennikarzami. „Rozumiemy dźwięk i wideo, rozumiemy treści związane z tymi rzeczami, kto je udostępnił, i budujemy szerszy obraz tego, co się tam dzieje”. Facebook nie potwierdził istnienia platformy audio podobnej do Clubhouse, ale „Myślę, że robimy tu wiele, co można zastosować do tych różnych formatów. Oczywiście przyglądamy się zmianom produktów i inwestujemy przed nimi zmiany, aby upewnić się, że mamy potrzebne narzędzia technologiczne ”- powiedział.

Facebook wepchnął kilka zespołów moderatorów z powrotem do biur na początku października; chociaż w listopadzie stwierdzono, że większość moderatorów pracuje zdalnie, mówi się również, że niektórych poufnych treści nie można przeglądać z domu. Teraz firma twierdzi, że zwiększona moderacja pomogła Facebookowi i Instagramowi usunąć więcej postów o samobójstwach i samookaleczeniach. Facebook usunął 2,5 miliona treści naruszających zasady, w porównaniu do 1,3 miliona w poprzednim kwartale, a Instagram usunął 3,4 miliona elementów, w porównaniu z 1,3 miliona. Jest to porównywalne z poziomami sprzed pandemii na Facebooku i jest to znaczący bezwzględny wzrost na Instagramie.

Zastrzeżenia dotyczące zastraszania i nękania na Facebooku między III kwartałem 2018 a IV kwartałem 2020

Z drugiej strony Facebook przypisuje pewien wzrost moderacji opartej na sztucznej inteligencji. Usunięto na przykład 6,3 miliona treści związanych z nękaniem i nękaniem na Facebooku, czyli prawie dwukrotnie więcej niż w poprzednich kwartałach. Z Instagrama usunął 5 mln treści, w porównaniu z 2,6 mln w ostatnim kwartale i 1,5 mln na koniec 2019 roku. Wzrosty te wynikają z technologii, która lepiej analizuje komentarze w kontekście towarzyszącego postu.

Moderacja w językach innych niż angielski była historycznym słabym punktem Facebooka, a firma twierdzi, że poprawiła wykrywanie języka AI w arabskim, hiszpańskim i portugalskim, napędzając wzrost usuwania mowy nienawiści z 22,1 miliona do 26,9 miliona sztuk. Nie jest to jednak tak duży skok, jak skok Facebooka pod koniec 2019 r., Kiedy dokonał tego, co opisał jako radykalne ulepszenia w automatycznym wykrywaniu.

Usunięcia treści szerzących nienawiść z Facebooka między czwartym kwartałem 2017 a czwartym kwartałem 2020 roku

Facebook twierdzi, że zmienił swój kanał aktualności w sposób, który zmniejszył ilość mowy nienawiści i brutalnych treści, które ludzie widzą. Badanie mowy nienawiści w trzecim kwartale wykazało, że użytkownicy średnio od 10 do 11 wypowiedzi szerzących nienawiść na każde 10 000 treści; w czwartym kwartale spadł do 7 lub 8 sztuk. Firma podała, że ​​nadal formułuje odpowiedzi na niektóre sugestie Rady Nadzorczej Facebooka, która opublikowała swoje pierwsze decyzje w zeszłym miesiącu.

Podobnie jak w zeszłym kwartale, Facebook zasugerował, aby prawodawcy mogli wykorzystać jego raport przejrzystości jako model ram prawnych. Facebook poparł zmiany w sekcji 230 Communications Decency Act, szerokiej tarczy odpowiedzialności, która znalazła się pod ostrzałem krytyków mediów społecznościowych. „Uważamy, że regulacja byłaby bardzo dobra” – powiedziała Monika Bickert, wiceprezes ds. Polityki treści.

Jednak Facebook nie poparł konkretnego wniosku ustawodawczego – w tym ustawy SAFE TECH, radykalnego wycofania zaproponowanego w Kongresie w zeszłym tygodniu. „Pozostajemy zaangażowani w prowadzenie tego dialogu ze wszystkimi w Stanach Zjednoczonych, którzy pracują nad znalezieniem drogi naprzód w zakresie regulacji” – powiedział Bickert. „Oczywiście widzieliśmy wiele propozycji w tej dziedzinie i widzieliśmy różne osoby na Wzgórzu, na których skupiają się różne cele, jeśli chodzi o to, do czego chcą dążyć, i chcemy mieć pewność, że jesteśmy częścią tych wszystkich rozmów . ”

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook