Ostatnie zmiany na Facebooku wspierają rozpowszechnianie dezinformacji. Co sądzimy o nowym kierunku Meta

7 stycznia właściciel firmy Meta, Mark Zuckerberg, ogłosił zmiany w systemie filtrowania i moderacji treści publikowanych na platformach Facebook, Instagram i Threads.1

Zmiany te obejmują m.in. zlikwidowanie programu fact-checkingowego na rzecz systemu „notatek społeczności” (community notes) – de facto przerzucając odpowiedzialność za przeciwdziałanie dezinformacji na użytkowników i użytkowniczki serwisów. Złagodzone mają być też dotychczasowe ograniczenia dyskusji na tematy polityczne i społecznie kontrowersyjne, takie jak kwestie migracji czy tożsamości płciowej. Meta przestanie również proaktywnie skanować treści w poszukiwaniu mowy nienawiści i innych naruszeń zasad społeczności, ograniczając się jedynie do moderacji w odpowiedzi na zgłoszenia użytkowników. Istniejące zautomatyzowane systemy mają zostać ukierunkowane na usuwaniu poważnych naruszeń, tj. treści związanych z terroryzmem, narkotykami, oszustwami czy wykorzystywaniem dzieci.

Zmiany te wprowadzone zostały ze skutkiem natychmiastowym w Stanach Zjednoczonych. Dotyczą one trzech największych platform społecznościowych na świecie, które łącznie mają ponad 3 miliardy użytkowników. Nie jest jeszcze jasne, jak przełoży się to na rodzaj treści, które będą dostępne w krajach, w których obowiązuje unijny Akt o Usługach Cyfrowych. Nakłada on na firmy cyfrowe działające w obrębie UE odpowiedzialność za treści zamieszczane na ich platformach, co ma na celu utworzenie bezpieczniejszego środowiska internetowego oraz przeciwdziałania zagrożeniom społecznym w internecie.2

W opublikowanym nagraniu Zuckerberg bezpośrednio łączy ten „powrót do wolności słowa” z nadchodzącą prezydenturą Donalda J. Trumpa (którego profil na Facebooku, notabene, został zawieszony przez Metę przez jego wypowiedzi opublikowane w dniu ataku na Kapitol Stanów Zjednoczonych w styczniu 2021 roku3). Jak twierdzi, wynik ostatnich wyborów w USA „wydaje się być kulturowym punktem zwrotnym, który pozwala ponownie postawić na pierwszym miejscu wolność wypowiedzi”.

Tłumacząc swoją decyzję Zuckerberg odwoływał się też do niedoskonałości istniejących wcześniej systemów, które faktycznie były często nadwrażliwe – błędnie usuwając także treści, które były dozwolone w ramach obowiązujących na platformach Zasad Społeczności (np. dzieła sztuki, materiały edukacyjne lub historyczne4). Usunięcie programu fact-checkingowego nie jest jednak ruchem, który przyczyni się do poprawy niewystarczająco dostrojonych filtrów/algorytmów oraz ogólnej jakości treści w mediach społecznościowych Mety. Co więcej, list otwarty organizacji fact-checkingowych z całego świata (w tym polskiego Demagoga) określa ten krok jako „decyzję, która grozi cofnięciem prawie dekady postępu w promowaniu wiarygodnych informacji w sieci”.5 Bardziej odpowiednim ruchem mogłoby być wyklarowanie obowiązujących Zasad Społeczności lub zwiększenie wsparcia merytorycznego moderatorów i moderatorek, których decyzje mogłyby uczyć istniejące filtry moderacji.

Zaadaptowanie systemu „notatek społeczności” przywodzi skojarzenia z upadkiem Twittera/X – to właśnie tam zadebiutował ten system. Twitter z prężnej platformy stał się siedliskiem politycznych skrajności, mowy nienawiści, dezinformacji i treści publikowanych przez boty6. Jest to o tyle szkodliwe, że platformy takie, jak Twitter bywają narzędziem ważnych zmian społecznych – umożliwiają oddolną organizację ruchów takich, jak Black Lives Matter czy polski Strajk Kobiet; usprawniają edukację społeczną poprzez bezpośredni kontakt niezliczonych instytucji publicznych i organizacji pozarządowych z odbiorcami. Nagłe zmiany (lub upadki) platform odciskają piętno na istniejących na nich społecznościach. Choć firmy te są prywatnymi, komercyjnymi przedsiębiorstwami – mają nie tylko obowiązki wynikające z zaufania, którym obdarzają ich użytkownicy, ale też realny wpływ na nastroje społeczne i nasze otoczenie (nawet, jeśli sami z tych platform nie korzystamy). Dlatego tak ważne jest zadbanie o odpowiedzialny i wspierający rzetelną informację ekosystem mediów społecznościowych i proaktywna, długoterminowa dbałość o jakość zamieszczanych tam treści i komentarzy.

 


  1. Joel Kaplan, Meta, More Speech and Fewer Mistakes.
  2. Rada Unii Europejskiej, Akt o usługach cyfrowych.
  3. Oversight Board, Former President Trump’s Suspension.
  4. Agata Pyka, Notes from Poland, Facebook apologises for flagging Auschwitz Museum’s posts as violating community standards.
  5. Stowarzyszenie Demagog, List otwarty do Marka Zuckerberga od fact-checkerów z całego świata.
  6. Anna Mierzyńska, Oko.press, Kremlowskie boty nasiliły atak na platformie X. Teraz uderzają nie tylko w Polaków.