Różności i nowinki technologia

YouTube podaje, ile osób ogląda problematyczne filmy, zanim zostaną usunięte

YouTube chce, aby świat wiedział, że egzekwuje swoje własne zasady moderacji lepiej niż kiedykolwiek wcześniej. Firma twierdzi, że malejąca liczba osób widzi problematyczne filmy w swojej witrynie – takie jak filmy przedstawiające przemoc graficzną, oszustwa lub szerzenie nienawiści – zanim zostaną usunięte.

W ostatnich miesiącach 2020 r. Aż 18 na 10 000 wyświetleń w YouTube dotyczyło filmów, które naruszają zasady firmy i powinny zostać usunięte, zanim ktokolwiek je obejrzy. To spadek z 72 na 10 000 wyświetleń w czwartym kwartale 2017 r., Kiedy YouTube zaczął śledzić tę liczbę.

Ale liczby zawierają ważne zastrzeżenie: chociaż mierzą, jak dobrze YouTube radzi sobie z ograniczaniem rozprzestrzeniania się kłopotliwych klipów, ostatecznie opierają się na filmach, które zdaniem YouTube powinny zostać usunięte ze swojej platformy – a firma nadal dopuszcza niektóre oczywiście kłopotliwe filmy, aby pozostać.

Statystyki są nowym dodatkiem do raportu o egzekwowaniu Wytycznych dla społeczności YouTube, raportu przejrzystości aktualizowanego co kwartał, zawierającego szczegółowe informacje na temat rodzajów filmów usuwanych z platformy. Ta nowa liczba nazywa się Violative View Rate lub VVR i śledzi, ile wyświetleń w YouTube ma miejsce w przypadku filmów, które naruszają jej wytyczne i powinny zostać usunięte.

Ta liczba jest zasadniczo sposobem, w jaki YouTube może zmierzyć, jak dobrze radzi sobie z moderowaniem własnej witryny, w oparciu o własne zasady. Im wyższy VVR, tym bardziej problematyczne filmy rozprzestrzeniają się, zanim YouTube je złapie; im niższa wartość VVR, tym lepiej YouTube radzi sobie z eliminowaniem zabronionych treści.

YouTube sporządził wykres pokazujący, jak spadła liczba od czasu rozpoczęcia pomiaru liczby do użytku wewnętrznego:

Wykres pokazuje, że VVR zaczyna się od 0,63% - 0,72% w IV kwartale 2017 r. I gwałtownie spada w ciągu następnego roku do 0,23% - 0,27%, po czym ustabilizuje się w okolicach 0,16% - 0,18% w kolejnych latach.

Wykres z YouTube pokazujący VVR od rozpoczęcia pomiarów.
: YouTube

Gwałtowny spadek między 2017 a 2018 rokiem nastąpił po tym, jak YouTube zaczął polegać na uczeniu maszynowym, aby wykrywać problematyczne filmy, zamiast polegać na użytkownikach, którzy zgłaszają problemy, powiedziała Jennifer O’Connor, dyrektor produktu YouTube ds. Zaufania i bezpieczeństwa, podczas briefingu z reporterami. Celem jest „jak najbardziej zbliżyć tę liczbę do zera”.

Filmy, które naruszają wytyczne YouTube dotyczące reklam, ale nie ogólne wytyczne dla społeczności, nie są uwzględniane w wartości VVR, ponieważ nie gwarantują ich usunięcia. Z tego samego powodu tak zwane „treści z pogranicza”, które napotykają, ale nie do końca naruszają jakiekolwiek zasady, nie są brane pod uwagę.

O’Connor powiedział, że zespół YouTube wykorzystuje tę liczbę wewnętrznie, aby zrozumieć, jak dobrze chronią użytkowników przed kłopotliwymi treściami. Jeśli rośnie, YouTube może spróbować dowiedzieć się, jakie typy filmów prześlizgują się, i nadać priorytet opracowaniu uczenia maszynowego, aby je złapać. „Gwiazdą północną naszego zespołu jest zapewnienie bezpieczeństwa użytkownikom” – powiedział O’Connor.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook