Facebook zignorował własne badania pokazujące, że algorytmy dzielą użytkowników
  • 0
  • 1
28.05.2020

Facebook zignorował własne badania pokazujące, że algorytmy dzielą użytkowników

„The Wall Street Journal” ujawnił, że w 2018 r. kadrze kierowniczej Facebooka został przedstawiony wewnętrzny raport. Wynikało z niego, że silnik rekomendacji serwisu podsyca polaryzację opinii i radykalizację użytkowników. Dokument został jednak zignorowany.

Pomimo ostrzeżeń o wpływie, jaki może to mieć na społeczeństwo, kierownictwo Facebooka zignorowało ustalenia. Próbowało zrzucić z siebie odpowiedzialność za podziały i inne formy polaryzacji, do których bezpośrednio się przyczyniło. Zrobiono to, ponieważ raport wskazywał, że zmiany mogą mieć nieproporcjonalny wpływ na konserwatystów i mogą zaszkodzić zaangażowaniu.

Osobny raport wewnętrzny przygotowany w 2016 r. pokazał, że 64% osób, które dołączyły do ​​grupy ekstremistów na Facebooku, zrobiło to tylko dlatego, że algorytm firmy im to zalecił – informuje WSJ.

Liderem w umniejszaniu obaw i odwracaniu uwagi Facebooka od polaryzacji był Joel Kaplan, wiceprezes ds. globalnej polityki publicznej i były szef sztabu prezydenta George’a W. Busha, uważany za kontrowersyjną postać. Otrzymał on większą rolę w działaniach na Facebooku w czasie wyborów w 2016 r. Krytycy twierdzą, że jego podejście do polityki i moderacji miało na celu uspokojenie konserwatystów i powstrzymanie zarzutów o stronniczość.

Według „Wall Street Journal” przyczynił się on do osłabienia lub całkowitego odrzucenia propozycji zmian na platformie. Zmiany te miały promować dobro społeczne i zmniejszyć wpływ tzw. super-akcjonariuszy.

Kaplan miał odrzucić też niektóre z proponowanych zmian, z których wiele zostało opracowanych przez Carlosa Gomeza Uribe, kierownika ds. newsfeedu. Kierował się obawą, że nieproporcjonalnie wpłyną one na prawicowe strony, polityków i inne części bazy użytkowników, które przyczyniły się do zwiększenia zaangażowania.

Jeden z projektów podważonych przez Kaplana to „Common Ground”. Miał na celu promowanie neutralnych politycznie treści na platformie, które mogłyby zbliżyć ludzi poprzez wspólne zainteresowania. Tworzący go zespół twierdził, że w niektórych wypadkach na Facebooku należałoby kierować się postawą moralną i nie promować pewnych treści polaryzacyjnych, nawet jeśli wysiłek ten może zaszkodzić ogólnemu zaangażowaniu. Zespół został rozwiązany.

Dużo się nauczyliśmy od 2016 r. i nie jesteśmy dzisiaj tą samą firmą. Stworzyliśmy solidny zespół ds. uczciwości. Wzmocniliśmy nasze zasady i praktyki w celu ograniczenia szkodliwych treści. Wykorzystaliśmy też badania, aby zrozumieć wpływ naszej platformy na społeczeństwo. Stale się ulepszamy. W lutym ubiegłego roku przekazaliśmy 2 mld dol. na finansowanie niezależnych propozycji badań dotyczących polaryzacji – stwierdził rzecznik prasowy Facebooka w odpowiedzi na zarzuty.

Z pełnymi wynikami śledztwa „The Wall Street Journal” można zapoznać się w anglojęzycznym artykule na stronie www.wsj.com.

Źródło: www.theverge.com

  • 1
algorytmy dzielą użytkowników

Facebook odkrył, że algorytmy dzielą użytkowników, ale zignorował te badania

Ania

1 miesiąc temu

Nadal nic nie zmieniło, mimo powołania nowej rady nadzorczej Facebook, która wydaje się, że ma mieć tylko funkcję kosmetyczną. To algorytmy nadal będą decydować, które posty są widoczne i promowane, a które nie.

28 maja 2020