Trump na współczesnej agorze. O moderowaniu treści na Twitterze i Facebooku

Ze Stanów Zjednoczonych docierają do nas informacje i zdjęcia z protestów #BlackLivesMatter – zamiatany pod dywan problem systemowego rasizmu wyprowadził ludzi na ulice. Gdy jednak przyjrzymy się temu, co dzieje się w amerykańskich mediach społecznościowych, zauważymy, że one też wirtualnie „stanęły w ogniu” – opinia publiczna, pracownicy – w niektórych przypadkach same platformy internetowe – przestała udawać, że obecne zasady dotyczące moderacji treści są wystarczające. A przyczynił się do tego nikt inny jak prezydent Trump.

Donald Trump
Tytuł: Donald Trump
ccbysa
Autor: Gage Skidmore / Flickr

Co mogą nowi doradcy Facebooka

Na początku maja mocno komentowano ogłoszenie składu Facebook Oversight Board – niezależnego ciała, które będzie doradzało firmie w sprawie moderowania i usuwania treści. Facebook projektował radę przez kilka lat, a temat budził wiele kontrowersji. Ostatecznie powstało ciało, w którego skład weszli także krytycy działań firmy (np. Helle Thorning-Schmidt, była premierka Danii i Michael W. McConnell – profesof prawa z Uniwerytettu Columbia). Największym wyzwaniem dla rady jest brak wiążącej mocy podejmowanych przez nią decyzji – firma może się do nich zastosować albo zupełnie je zignorować. Sami pisaliśmy o tym, że realną pozycję rady określi to, w jaki sposób Facebook zareaguje na jej rekomendacje.  Nikt jednak nie przewidział, jak szybko rada stanie przed pierwszym testem skuteczności.

W następstwie kontrowersji wokół postów prezydenta Trumpa na temat ogólnokrajowych protestów (które Twitter i Snapchat uznały za promujące przemoc, a Facebook za zgodne ze standardami społeczności), niektórzy postulowali (głównie poprzez tweety), by nowa rada zainterweniowała i oceniła sytuację. W odpowiedzi w środę opublikowano nieco przepraszającą notatkę wyjaśniającą, dlaczego rada nie może tego zrobić – z wielu powodów po prostu nie jest gotowa, poza tym jej rolą nie jest ocenianie zachowań firmy w kontekście bieżących wydarzeń politycznych.

Rzeczywiście Facebook informował, że na początku rada będzie decydowała tylko o tym, czy konkretne posty zostały słusznie usunięte z serwisu czy popełniono błąd i należy je przywrócić. Docelowo miałaby jednak kreować standardy dotyczące moderowania treści. Nie jest jednak jasne, jak szybko rada zacznie rzeczywiście działać – kluczowe wydaje się pytanie, czy zdąży przed wyborami prezydenckimi w Stanach tej jesieni.

Wszystko sprowadza się do odpowiedzi na pytanie, z którym Facebook słyszy  coraz częściej – również ze strony własnych pracowników, którzy w akcie protestu za brak reakcji na ostatnie posty Trumpa organizują wirtualne strajki. Czy platforma będzie zwierciadłem dla wszystkich trendów i nastrojów społecznych, czy jednak powie „nie” tym nieakceptowanym społecznie, jak rasizm? Zuckerberg od dawna powtarza, że chce uniknąć „fałszowania” usług firmy na rzecz konkretnego punktu widzenia – zamiast tego, gdy tylko jest to możliwe, ma nadzieję walczyć z niepożądanymi wypowiedziami większą ilością wypowiedzi o innym charakterze.

Twitter vs. @realDonaldTrump

Istnieją różne metody przeciwdziałania dezinformacji – fact checking (weryfikacja informacji) jak na razie jest najbardziej skuteczną. Po latach krytyki Twitter po raz pierwszy dodał informacje weryfikujące do tweetów prezydenta Trumpa. Tweety dotyczyły głosowania korespondencyjnego, a platforma dodała do nich zakładkę “poznaj fakty na temat głosowania wysłanego pocztą“. Rzeczniczka prasowa firmy podkreśliła, że tweet prezydenta zawierał informacje, które mogą wprowadzać w błąd, dlatego zdecydowano się na odesłanie użytkowników po dodatkowe informacje w tym temacie.

Twitter zdecydował się na rozwiązanie, które z jednej strony podkreśla odpowiedzialność platform za treści na nich publikowane, a z drugiej nie prowadzi do sytuacji, gdy to podmiot prywatny musi decydować, co jest prawdą, a co nie – ale decyzję pozostawia użytkownikom. Decyzję Twittera można było przewidzieć, śledząc na jego poprzednie działania Twittera mógł być do – w styczniu firma zacząła zezwalać użytkownikom na oznaczanie tweetów zawierających mylące informacje na temat sposobu głosowania. W przypadku prezydenta Trumpa zastosowała tę politykę, uczciwie i ze względną precyzją. Chociaż niektórzy krytykowali to, że etykieta nie krzyczy „prezydent kłamie na ten temat”.

Na reakcję ze strony Białego Domu nie trzeba było długo czekać – Trump wydał dekret prezydencki (executive order) nakazując sekretarzowi handlu Wilburowi Rossowi zwrócenie się do Federalnej Komisji ds. Komunikacji o nowe przepisy w celu ustalenia, czy platforme społecznościowa działają „w dobrej wierze” w celu moderowania treści.

Współczesna agora - dobro wspólne w prywatnych rękach

Co łączy te oba przypadki? Dobitnie pokazują one, że media społecznościowe są współczesną agorą – agorą w rękach prywatnych, ale służącą do publicznej komunikacji, również na linii władza-obywatele. Dość uprzywilejowane wydaje się podejście „jak ci się nie podoba na Facebooku, to nie korzystaj” – wiele osób nie ma kompetencji ani możliwości, by korzystać z internetu poza platformami internetowymi, skutecznie się komunikować i pozyskiwać informacje. Dlatego też w duchu dbania o społeczny wymiar technologii potrzebna jest dyskusja o tym, jakiej komunikacji potrzebujemy i chcemy na platformach internetowych. 

Najważniejsze dzisiaj pytanie brzmi –  w jaki sposób platformy internetowe powinny moderować treści użytkowników? A odpowiadając na nie, nie unikniemy kwestii regulacji i wyzwań, jakie z sobą niesie. Regulacja musi pogodzić interesy, które wydają się wzajemnie wykluczać – po pierwsze użytkownicy powinni mieć prawo wyrażania swoich opinii i poglądów (często kontrowersyjnych, ale legalnych). Po drugie musi ona też dać platformom internetowym skuteczne narzędzia do reagowania w sytuacji łamania prawa (np. treści nawołujących do nienawiści). Niewątpliwie moderacja treści, mechanizmy odwoławcze i zasady wyłączenia odpowiedzialności platform internetowych za treści zamieszczane przez użytkowników będą przedmiotem debaty wokół nowego unijnego projektu kodeksu usług cyfrowych (Digital Services Act) – wstępne postulaty Centrum Cyfrowego w tym temacie są do znalezienia na blogu.

Poza tym regulacja to jednak nie wszystko (szczególnie że często, na przykład na poziomie unijnym, jej wprowadzenie zajmuje lata). Platformy internetowe, działające niemal jak usługi publiczne, muszą także wypracowywać skuteczne i działające mechanizmy samoregulacji (tutaj liczba pomysłów na formę jest nieskończona – flagowanie treści, ciała nadzorujące, kodeksy dobrych praktyk). Tylko że te mechanizmy powinny uwzględniać możliwość kontroli społecznej, a po drugie nie mogą zastąpić regulacji –  samoregulacja i regulacja platform to powiązane działania.

Natalia Mileszyk @nmileszyk – prawniczka zajmująca się prawami cyfrowymi, reformą prawa autorskiego i politykami otwartościowymi. Członkini Stowarzyszenia Communia na rzecz domeny publicznej, gdzie koordynuje zespół rzeczniczy oraz ekspertka prawnego Creative Commons Polska.

BIULETYN SPOŁTECH

Tekst ukazał się w Biuletynie SpołTech. Jeśli chcesz wiedzieć, jak technologia oddziałuje na ludzi i społeczeństwo – zapisz się do Biuletynu!! Co dwa tygodnie dzielimy się z Wami przemyśleniami związanymi ze społecznym wymiarem technologii.

banery_loga-1
Tytuł: banery_loga-1

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Komentarz zostanie dodany po zatwierdzeniu przez administratora