Technologia wobec ryzyk egzystencjalnych
Kamil Mamak zastanawia się, czy pandemia nauczy nas zawczasu przygotowywać się na wyzwania, jakie może przynieść przyszłość.
Publiczną debatę o społecznym wpływie technologii zdominowały tematy dotyczące problemów, które są tu i teraz. Zastanawiamy się, w jaki sposób Facebook zmienia warunki walki politycznej, jak Uber rewolucjonizuje branżę transportową, czy jak Tinder wpływa na nawiązywanie przygodnych relacji. Trudny czas, którego teraz doświadczamy, daje szansę uwrażliwienia nas na innego rodzaju problemy, związane z zagrożeniami ze strony technologii, które mogą doprowadzić do zniszczenia naszej cywilizacji.
O jakich zagrożeniach mowa? Nick Bostrom, filozof z Uniwersytetu Oxfordzkiego, dyrektor The Future of Humanity Institute, w tekście Existential Risks. Analyzing Human Extinction Scenarios and Related Hazards definiuje ryzyko egzystencjalne, którego niekorzystny wpływ doprowadziłby do wyginięcia naszego gatunku lub drastycznego ograniczenia jego potencjału. Chodzi więc o zagrożenia, które mogą mieć wymiar ostateczny – niszcząc naszą planetę, doprowadzając do upadku naszej cywilizacji.
Takie zagrożenia, podobnie jak obecna pandemia, wydają się nierealne i wręcz bezsensowne. O tym wymiarze zarazy pisał w dziele Dżuma A. Camus (tł. Joanna Guze): „Zarazy są w istocie sprawą zwyczajną, ale z trudem się w nie wierzy, kiedy się na nas walą. Na świecie było tyle dżum, co wojen. Mimo to dżumy i wojny zastają ludzi zawsze tak samo zaskoczonych”.
Skoro więc obecnie zdajemy się być zaskoczeni tym, że w XXI w. doświadczamy staroświeckiej pandemii, to możliwe, że łatwiej będzie nam pojąć wagę innych zagrożeń, przed którymi stać może nasza cywilizacja, a które wydawać się mogą równie nierealne – jak jeszcze kilka miesięcy temu obecna pandemia. Jako społeczeństwo powinniśmy uczestniczyć w debacie na takie tematy, bowiem także proponowane sposoby przeciwdziałania tym zagrożeniom same w sobie mogą trwale zmienić sposób funkcjonowania społeczeństwa.
Zagrożenia te mogą być niezależne od człowieka: zderzenie z asteroidą, atak obcej cywilizacji lub nagła aktywność wulkaniczna. Część zagrożeń może się jednak wiązać z działalnością człowieka, w tym z rozwojem technologii. Od połowy XX w. żyjemy w ciągłym strachu przed jednym z takich zagrożeń – nuklearnym, niestety, na tym się to nie kończy. Od tego czasu pojawiło się dużo więcej możliwości zniszczenia świata, a dodatkowo nowoczesne technologie dają możliwość stworzenia takich zagrożeń jednostkom. Ujmując to bardziej obrazowo – można przykładowo wskazać na możliwości stworzenia wirusa zagłady, łatwo przenoszącego się i z wysoką śmiertelnością, czy też zagrożenia wynikające ze stworzenia zabójczej Sztucznej Inteligencji. O zagrożeniach ze strony SI mówimy coraz więcej. Kampania na rzecz powstrzymania powstawania autonomicznej broni – Campaign to Stop Killer Robots – lobbuje na forum międzynarodowym na rzecz przyjęcia odpowiednich ram prawnych zakazujących prac w tym zakresie. W 2015 r. w liście otwartym ostrzegającym przed wyścigiem zbrojeń wykorzystującym Sztuczną Inteligencję podpisało się ponad 1000 ekspertów od SI, w tym nieżyjący już Stephen Hawking, przedsiębiorca Elon Musk czy też współzałożyciel firmy Apple Steve Wozniak.
Mówiąc o roli technologii w kontekście zagrożeń egzystencjalnych należy mieć na uwadze nie tylko perspektywę technologii jako źródła zagrożeń, ale także jako narzędzia do przeciwdziałania zagrożeniom. Dyskutowane sposoby zapobiegania zagrożeniom egzystencjalnym są tylko nieco mniej przerażające od samych problemów, którym mają przeciwdziałać.
Bostrom w przywołanym wcześniej tekście wskazuje, że nie można w przypadku tego typu ryzyk uczyć się na błędach – gdy takie zdarzenie nastąpi, to już nie będzie odwrotu. Wskazuje, że należy przyjąć postawę proaktywną. Nie brzmi to jeszcze podejrzanie, ale gdy mowa o konkretach, to robi się już mniej przyjemnie. Mierząc się z tego typu zagrożeniami (ale nie tylko), Bostrom w tekście z 2019 r. The Vulnerable World Hypothesis omawia cztery reakcje, które mogą – przynajmniej potencjalnie – stabilizować sytuację kruchego świata:
- ograniczenie rozwoju technologii;
- zmiana preferencji aktorów (państw i jednostek) mogących doprowadzić do destabilizacji;
- ustanowienie skutecznej polityki prewencyjnej (preventive policing);
- ustanowienie skutecznego globalnego zarządzania.
Wszystkie z nich wiążą się ze zmianą sposobu funkcjonowania, ograniczając w różnym stopniu prawa obywatelskie. Przykładowo omawiając skuteczną politykę prewencyjną wspomina o „hight-tech panopticon”, z użyciem, którego można kontrolować za pomocą technologii wszystkich non stop, gdyż tylko taka kontrola może zapobiec upadku cywilizacji.
Mimo tego, że wskazane zagrożenia wydają się poważne, a proponowane rozwiązania ekstremalnie inwazyjne, na próżno szukać pogłębionej dyskusji w Polsce na ten temat, a Polacy nie są przecież impregnowani na globalne zagrożenia, jak dobitnie pokazuje obecna sytuacja z wirusem COVID-19. Powinniśmy przedyskutować sposoby radzenia sobie zagrożeniami.
Innym powodem, dla którego warto się zainteresować tym tematem, jest również groźba, że, przychodzące z zaskoczenia zagrożenie będzie stanowiło pretekst do trwałego ograniczenia naszych wolności. Przedyskutowanie odpowiednich scenariuszy wcześniej, dyskusja z udziałem opinii publicznej i ekspertów dają cień szansy, że przyjęte rozwiązania i strategie będą nieco mniej inwazyjne i bardziej przemyślane.
Powinniśmy być szczególnie uważni teraz, gdy poczucie zagrożenia jest powszechne i wydaje się, że istnieje polityczny klimat na wprowadzanie nowych instrumentów kontroli społeczeństwa – oczywiście dla naszego bezpieczeństwa. Tę dyskusję można zinstytucjonalizować, na świecie powstają wyspecjalizowane centra, które zajmują się tego typu tematami: wspomniany wcześniej oxfordzki The Future of Humanity Institute, funkcjonujący w Cambridge The Centre for the Study of Existential Risk, założony w USA Future of Life Institute. Może właśnie nastał czas na stworzenie i w Polsce takiego centrum?
Zajmując się wpływem technologii na społeczeństwo powinniśmy mieć na uwadze także i tego typu problemy. Wydają się one naturalnie uzupełniać agendę spod hasła SpołTech, bo albo tego społeczeństwa za sprawą technologii nie będzie – jeżeli spełnią się najczarniejsze scenariusze, albo technologia zostanie wykorzystana do przeciwdziałania zagrożeniom, co też zmienić może w znacznym stopniu obraz społeczeństwa jakie znamy.
dr Kamil Mamak @KamilMamak – ekspert projektu SpołTech, gdzie realizuje projekt „Regulacje fake newsów na platformach internetowych”. Doktor nauk prawnych, pracownik w Katedrze Prawa Karnego Uniwersytetu Jagiellońskiego, doktorant filozofii w Katedrze Historii i Filozofii Nauki Uniwersytetu Papieskiego Jana Pawła II w Krakowie. Naukowo zajmuje się wpływem nowych technologii na człowieka i prawo karne.
BIULETYN SPOŁTECH
Jeśli chcesz wiedzieć, jak technologia oddziałuje na ludzi i społeczeństwo – zapisz się do Biuletynu SpołTech. Dwa razy w miesiącu dzielimy się z Wami najważniejszymi informacji i przemyśleniami związanymi ze społecznym wymiarem technologii.