Kto decyduje, co widzę w czasie pandemii?

Natalia Mileszyk udostępnia na Facebooku artykuł dotyczący koronawirusa. A raczej próbuje. Na ekranie pojawia się bowiem komunikat „post niezgodny ze standardami społeczności dotyczącymi spamu”. Pytamy więc - kto decyduje, co widzimy w czasie pandemii?

Próbowałam na swoje konto na Facebooku wrzucić link do tekstu „O farmaceutce, sprincie, maratonie i bożku produktywności w czasie pandemii” o tym, jak w tym szaleństwie być dla siebie dobrą. Algorytm filtrujący treść miał jednak inne zdanie na temat artykułu – na moim ekranie pojawił się komunikat post niezgodny ze standardami społeczności dotyczącymi spamu”. Który punkt regulaminu został złamany? Tego nie wyjaśniono. Posta nie będzie. I tyle.

Koronawirus, pierwsza infodemia – epidemia informacyjna – każe nam przemyśleć model dostępności treści w internecie. I to nie tylko z perspektywy dezinformacji i fake-newsów, ale również w kontekście tego, kto sprawuje w dzisiejszych czasach kontrolę nad wiedzą i informacją – czyli ma władzę.

Facebook
Tytuł: Facebook
ccbysa
Autor: Simon Steinberger z Pixabay

Cyfrowa cenzura w rękach państwa

W Chinach, gdzie wszystkie firmy technologiczne ściśle współpracują z rządem, WeChat (najpopularniejszy komunikator) cenzurował informacje o Covid-19 już od początku roku – na długo przed tym, jak informacja o pandemii została podana do publicznej wiadomości. 

Chiński przypadek mówi dużo o cenzurze w państwach autorytarnych – jest ona w białych rękawiczkach, bez śladów działalności państwa, z wykorzystaniem technologii cyfrowych. Ale też nie pozostaje ona niezauważona przez społeczność internautów, która ma dostęp do wielu źródeł, może też łatwo się komunikować i wymieniać obserwacjami dotyczącymi cenzury. Użytkownicy WeChat znajdują kreatywne sposoby, by dzielić się blokowanymi treściami (np. wstawiając między litery emotikonki). 

Prywatyzacja informacji

Wszystkie media społecznościowe (na różną skalę) filtrują treści zamieszczane przez użytkowników – zarówno ze względu na potencjalne naruszenia prawa (np. rozpowszechnianie pornografii dziecięcej), jak i zgodność ze standardami danej społeczności. Filtrowanie ma dwutorowy charakter – prowadzone jest zarówno przez ludzi, jak i algorytmy.

Rzeczywistość wygląda więc tak – wszyscy korzystamy z mediów społecznościowych, a parę korporacji dominujących na rynku decyduje o dostępnych dla nas treściach. Problem tylko narasta,  gdy ludzie zostają wyjęci z systemu filtrowania treści – np. gdy w związku z zagrożeniem epidemiologicznym nie mogą przychodzić do pracy. W poniedziałek Facebook ogłosił,  że moderatorzy treści nie muszą przychodzić do biura.

Wtorkowy efekt? Na całym świecie podniosły się głosy, że Facebook nie pozwala na zamieszczanie legalnych treści dotyczących Covid-19 z takich stron jak Business Insider, BuzzFeed, The Atlantic i the Times of Israel. Nie wiadomo, z czego wynikał błąd, buga już naprawiono – ale bez odpowiedzi pozostaje pytanie, jak ten incydent wpłynął na dostęp do informacji. Facebook w czasach zarazy pełni różnorakie funkcje, od miejsca gdzie ludzie szukają informacji, po platformę gdzie artyści zbierają pieniądze na przetrwanie swoich inicjatyw.

Koronawirus odsłonił bezlitośnie jeszcze jedno zagrożenie związane z obecnym modelem funkcjonowania mediów społecznościowych – monetyzowanie treści kontrowersyjnych. Do tej pory nie jest jasne, która korporacja i w jaki sposób pozwala na zarabianie na treściach dotyczących Covid-19 (które oczywiście są bardzo popularne), czy też w jaki sposób targetowane są reklamy np. maseczek – na co zwrócili uwagę w Stanach Zjednoczonych senatorowie Warner and Blumenthal.

Społeczność dbająca o prawdę

Zupełnie inny model zarządzania treściami ma Wikipedia – największy społecznościowy projekt dzielenia się wiedzą. I właśnie aspekt społecznościowy, kiedyś przez wielu uznawany za największą wadę projektu, w czasach kryzysu okazuje się jego największą zaletą.

Co ważne, model funkcjonowania Wikipedii nie zmienił się z powodu pandemii (choć zapewne wzrośnie liczba edycji, bo sporo osób została uziemionych w domu). Już dawno społeczność uznała, że informacje medyczne powinny być szczególnie sprawdzane – z tego założenia powstała inicjatywa WikiProject Medicine – wpisy o Covid-19 są jej częścią. 35,000 artykułów na tematy medyczne jest sprawdzanych przez 150 edytorów z wiedzą medyczną. 

Społeczność Wikipedii stawia sprawę jasno – są kwestie ważne i ważniejsze, a zdrowie publiczne zalicza się do tych drugich. Dlatego też zdecydowano się na wprowadzenie inicjatywy WikiProject Medicine i szczególne wysokie standardy edycji. Korporacje dotychczas stosują jednolite systemy moderacji treści, bez względu na społeczne skutki dezinformacji w różnych tematach.

wikipedia_coronavirus
Tytuł: wikipedia_coronavirus
ccbysa

Ale nie tylko standardy edycji są gwarantem sukcesu jeśli chodzi o zwalczanie dezinformacji – dokumentowanie tego zjawiska też pełni kluczową rolę w budowaniu kultury zaufania (a nie zamiatania tematów pod dywan). Wikipedyści dokumentują również teorie spiskowe wokół Covid-19, w tym również te rozpowszechniane przez rząd USA („Misinformation by governments/United States”).

Więcej wspólnoty = więcej informacji

W ferworze walki z wirusem wszyscy myślą o jego długofalowych skutkach, szczególnie w kontekście kryzysu ekonomicznego. Ale możliwe są również pozytywne scenariusze (taką przynajmniej mam naiwną nadzieję). Wyobrażam sobie, że na nowo jako społeczeństwo przypomnimy sobie o wartości wiedzy i informacji (jak chociażby Wielka Brytania, która jednak postanowiła zmienić swoją odpowiedź na pandemię również na bazie danych z Włoch) i o zaletach, jakie płyną z jej dostępności i otwartości (naukowcy od tygodni dzielą się wynikami swoich badań dotyczących COVID-19 na niespotykaną dotąd skalę). 

Ale w dzisiejszych czasach nie wystarczy myśleć o treściach w kontekście ich otwartości i dostępności – równie ważne jest pytanie, kto informacjami zarządza i decyduje o tym, co jest prawdą, a co nie. Dotychczasowa historia pandemii pokazuje, że nie zawsze państwo stoi na straży dostępu do wiedzy, a prywatne korporacje mogą w nadgorliwości filtrowania łatwo godzić się na blokowanie treści przypadkowych (overblocking). Może więc odpowiedzią są modele wspólnotowe zarządzania wiedzą – tak żebyśmy w czasach kolejnego kryzysu nie musieli się martwić o jakość i rzetelność informacji, a mogli skupić się na konkretnych działaniach.


Natalia Mileszyk @nmileszyk – prawniczka, zajmująca się prawami cyfrowymi, reformą prawa autorskiego i politykami otwartościowymi. Członkini Stowarzyszenia Communia na rzecz domeny publicznej, gdzie koordynuje zespół rzeczniczy oraz ekspertka prawnego Creative Commons Polska.

————————

Tekst ukazał się w Biuletynie SpołTech. Dwa razy w miesiącu dzielimy się z Wami najważniejszymi informacji i przemyśleniami związanymi ze społecznym wymiarem technologii.

Jeśli chcesz wiedzieć, jak technologia oddziałuje na ludzi i społeczeństwo – zapisz się na newsletter.

banery_loga-1-removebg-preview
Tytuł: banery_loga-1-removebg-preview