Nowości

Funkcja „Kill Switch” Facebooka rozwiązuje zły problem

Kierownictwo na Facebooku podobno rozważają opcję „wyłącznika awaryjnego”, który wyłączyłby wszystkie reklamy polityczne po spornych wyborach prezydenckich.

Mówiąc prościej: dyrektorzy Facebooka podobno przyznają, że się mylili.

Jeszcze w połowie sierpnia liderzy Facebooka byli w prasie reklamującej nowe Centrum Informacji o Głosowaniu na stronie, które ułatwia użytkownikom znalezienie dokładnych informacji o tym, jak się zarejestrować, gdzie głosować, jak zostać wolontariuszem jako pracownik ankiety i ostatecznie wybory same się kończą. Firma podkreślała, jak ważne jest dostarczanie wiarygodnych informacji w okresie wyborczym, jednocześnie broniąc swojej ambiwalentnej polityki dotyczącej reklam politycznych, która pozwala politykom i partiom na wygłaszanie mylących oświadczeń za pomocą potężnych narzędzi mikroprocesorowych Facebooka. Szef ds. Polityki bezpieczeństwa Nathaniel Gleicher powiedział NPR, że „informacja jest ważnym czynnikiem decydującym o tym, jak niektórzy wybiorą głosowanie jesienią. Dlatego chcemy mieć pewność, że informacje są dostępne i ludzie mogą je zobaczyć, brodawki i wszystko inne”.

Teraz, mówiąc o „wyłączniku awaryjnym”, firma wydaje się dostrzegać ogromny potencjał szkód wynikających z jej polityki rozpowszechniania kłamstw za gotówkę. Jest już za późno. W klasycznym stylu Facebooka platforma nie zdołała aktywnie chronić się przed rozprzestrzenianiem się złośliwych informacji na swojej platformie, a następnie rozpoznała negatywne skutki swojej polityki dopiero po tym, jak dzwonki alarmowe dzwoniły od miesięcy. Ale ponowne rozważenie polityki reklamowej Facebooka ujawnia również dwie inne ziewające rozbieżności w myśleniu firmy.

Po pierwsze, chociaż wyłączenie reklamy politycznej w następstwie wyborów utrudniłoby niektórym dezinformatorom kierowanie szkodliwych narracji do wybranych odbiorców, niewiele pomogłoby w rozwiązaniu problemu jako całości. Reklamy nie są tutaj głównym wektorem. Treści, które odniosły największy sukces, rozpowszechniane przez agentów Rosyjskiej Agencji Badań Internetu (IRA) w wyborach w 2016 r., Odniosły naturalny, a nie płatny sukces. Oxford Internet Institute odkrył, że „posty IRA zostały udostępnione przez użytkowników niecałe 31 milionów razy, polubione prawie 39 milionów razy, zareagowały emoji prawie 5,4 miliona razy i zaangażowały wystarczającą liczbę użytkowników, aby wygenerować prawie 3,5 miliona komentarzy”, a wszystko to bez zakupu jednej reklamy.

Ekosystem amplifikacji Facebooka od tamtej pory szerzy dezinformację. Endemiczne narzędzia platformy, takie jak Grupy, stały się zagrożeniem dla bezpieczeństwa publicznego i zdrowia publicznego. Niedawne dochodzenie NBC News ujawniło, że co najmniej 3 miliony użytkowników należy do jednej lub więcej spośród tysięcy grup wyznających teorię spiskową QAnon, uważaną przez FBI za skrajne przekonanie polityczne, które jest „bardzo prawdopodobne”, że motywuje do aktów przemocy. Facebook usunął w tym tygodniu 790 grup QAnon, ale pozostają dziesiątki tysięcy innych grup wzmacniających dezinformację, a własny algorytm rekomendacji Facebooka kieruje użytkowników w królicze dziury indoktrynacji.

Obraz może zawierać: tłum, publiczność, człowieka, osobę i mowę

Przewodnik WIRED po teorii spiskowych online

Wszystko, co musisz wiedzieć o George’u Sorosie, Pizzagate i niedźwiedziach Berenstain.

To pomijając najbardziej oczywiste źródło dezinformacji: głośne, osobiste konta, do których najwyraźniej nie mają zastosowania standardy społeczności Facebooka. Prezydent Trump przekazuje treści – w tym mylące oświadczenia na temat bezpieczeństwa i ochrony poczty w głosowaniu – do ponad 28 milionów użytkowników samej tylko jego strony, nie licząc dziesiątków milionów obserwujących konta należące do jego kampanii lub wewnętrznego kręgu. Facebook niedawno zaczął oznaczać „warte opublikowania”, ale fałszywe posty od polityków, a także zaczął umieszczać linki do informacji o głosowaniu do postów polityków na temat wyborów. Jak dotąd całkowicie usunął tylko jeden post „Team Trump” – wiadomość, która fałszywie twierdziła, że ​​dzieci są „prawie odporne” na wirusa pandemicznego. Jak zwykle, te zmiany w polityce nastąpiły dopiero po długim i głośnym publicznym oburzeniu na temat nieregularnego egzekwowania przez Facebooka jego polityki w zakresie tłumienia wyborców i mowy nienawiści.

Pomysł Facebooka na powyborczy „wyłącznik awaryjny” podkreśla inny fundamentalny błąd w myśleniu o dezinformacji: te kampanie nie zaczynają się i kończą 3 listopada. Są budowane z biegiem czasu, przemycają emocje i zwiększają zaufanie, aby podważać nie tylko akt głosowania, ale cały proces demokratyczny. Kiedy nasz ekosystem informacyjny zostaje zalany bardzo istotnymi śmieciami, które zmuszają nas do przewijania, komentowania i gniewnych reakcji, cierpi dyskurs obywatelski. Nasza zdolność do kompromisu cierpi. Nasza chęć zobaczenia ludzkości w innych cierpi. Nasza demokracja cierpi. Ale Facebook zyskuje.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook