[Analiza] TSUE odrzuca skargę Polski w sprawie art. 17, ale ogranicza możliwość prewencyjnego blokowania treści przez platformy

26 kwietnia 2022 roku Trybunał Sprawiedliwości Unii Europejskiej (TSUE) wydał wyrok w sprawie C-401/19 – Polska przeciwko Parlamentowi i Radzie. Sprawa ta dotyczy najbardziej kontrowersyjnego mechanizmu przewidzianego w Dyrektywie o prawie autorskim na jednolitym rynku cyfrowym. Chodzi o artykuł 17 dyrektywy, który przewiduje nowy reżim odpowiedzialności dla największych dostawców usług udostępniania treści online (dalej dostawcy usług). W praktyce – co podkreślił również Trybunał w wyroku – reżim ten wymusza stosowanie przez dostawców usług automatycznych filtrów. Umożliwiają one prewencyjną ocenę zamieszczanych treści.

Istota sprawy dotyczyła więc tego, czy takie rozwiązanie jest dopuszczalne w świetle wolności wypowiedzi i informacji, czyli praw podstawowych Unii Europejskiej (art. 11 Karty praw podstawowych Unii Europejskiej). Trybunał uznał, że co prawda nowy reżim odpowiedzialności narusza wolność wypowiedzi i informacji, ale takie naruszenie jest dopuszczalne, o ile spełnione są pewne dodatkowe warunki. Zdaniem TSUE przewidziane w art. 17 ust. 4 środki zapobiegawcze gwarantujące monitorowanie i blokowanie zamieszczanych przez użytkowników treści ograniczają ich w korzystaniu z prawa do wolności wypowiedzi i informacji przez takie spełniają jednak warunki określone w Karcie. Co ważne, chodzi o gwarancje, które zostały wprowadzone do tekstu dyrektywy o prawie autorskim m.in. dzięki zaangażowaniu takich organizacji jak stowarzyszenie Communia, którego Centrum Cyfrowe jest członkiem.

Nowe zasady odpowiedzialności i nowe prawo autorskie - czyli o co chodzi w artykule 17

Dotychczas funkcjonujące zasady (m.in. w art. 14 ust. 1 dyrektywy o handlu elektronicznym) zakładały, że odpowiedzialność za zamieszczone treści ponoszą osoby je zamieszczające, zaś same platformy – jeżeli już – ponoszą odpowiedzialność dodatkową. Artykuł 17 nowej dyrektywy o prawie autorskim na jednolitym rynku cyfrowym zmienia te zasady, rozszerzając kolejny raz monopol prawa autorskiego. W ten sposób wykreowano nowy element prawa autorskiego. Dotyczy on działalności konkretnie określonych dostawców usług udostępniania treści online. Chodzi o takich dostawców, których głównych celem jest przechowywanie i udzielanie publicznego dostępu do dużej liczby chronionych prawem autorskim utworów zamieszczanych przez użytkowników tych usług, które są przez niego organizowane i promowane w celach zarobkowych (art. 2 pkt. 6 Dyrektywy).

Choć w zamyśle twórców Dyrektywy postanowienia miały dotyczyć największych platform, to ostatecznie decyzje, kto podlega tym przepisom, pozostawiono sądom. Jak bowiem wskazano w motywie 63 Dyrektywy, to czy dostawca usług przechowuje i udostępnia publicznie dużą ilość utworów chronionych prawem autorskim lub innych przedmiotów objętych ochroną zamieszczanych przez użytkowników, należy oceniać indywidualnie dla danego przypadku.

Jak zauważył Adwokat Generalny w swojej opinii – prawodawca unijny podjął polityczną decyzję na korzyść właścicieli praw autorskich (par. 136). W konsekwencji, publicznego udostępniania utworów, nie dokonuje jedynie ten kto zamieszcza dany utwór w internecie, ale również sama platforma – zdefiniowana jako dostawcy usług. W rezultacie dostawcy ci stają się bezpośrednio odpowiedzialni za treści przesyłanie przez swoich użytkowników. Jednocześnie art. 17 opiera się na założeniu, iż dostawcy ci niekoniecznie są w stanie uzyskać zezwolenie na wszystkie treści chronione, które mogą być zamieszczane na ich platformach przez użytkowników tychże platform (Wyrok, par. 48). Tu jednak, aby uniknąć odpowiedzialności, w przypadku gdy użytkownicy zamieszczają na ich platformach treści niezgodne z prawem, na które dostawcy usług udostępniania treści online nie mają zezwolenia, dostawcy ci muszą wykazać, że dołożyli wszelkich starań, aby uzyskać takie zezwolenie, oraz że spełniają wszystkie pozostałe warunki wyłączenia odpowiedzialności przewidziane w dyrektywie (Wyrok, par. 49).

Dodatkowo, nowy reżim wprowadza pewne mechanizmy łagodzące i zabezpieczające operatorów platform przed potencjalnymi negatywnymi skutkami środków zapobiegawczych:

  1. konieczność dokonywania ocen z zachowaniem zasady proporcjonalności (ust. 5);
  2. specjalny system dla małych i nowych dostawców usług (ust. 6);
  3. konieczność przestrzegania pewnych obowiązkowych wyjątków i ograniczeń od prawa autorskiego (ust. 7);
  4. zakaz ogólnego obowiązku monitorowania umieszczanych treści (ust. 8);
  5. zestaw gwarancji proceduralnych, w tym mechanizm składania skarg i dochodzenia roszczeń na platformie oraz zasady dotyczące pozasądowych mechanizmów dochodzenia roszczeń (ust. 9).

Ponadto art. 17 ust. 10 zobowiązuje Komisję Europejską (KE) do organizowania dialogu pomiędzy dostawcami usług, posiadaczami praw, organizacjami użytkowników oraz innymi zainteresowanymi stronami. Jego efektem jest między innymi publikacja Wytycznych Komisji dotyczących interpretacji art. 17.

Wyrok Trybunału, czyli w jakich granicach prawo autorskie może naruszać wolność słowa

Trybunał potwierdził, że przewidziany w art. 17 dyrektywy nowy reżim odpowiedzialności  ingeruje w wolność wypowiedzi i informacji przez użytkowników usług udostępniania treści, zagwarantowane w art. 11 Karty Praw Podstawowych oraz art. 10 Europejskiej Konwencji Praw Człowieka (Wyrok, pkt. 55, 58, 82). W szczególności, w wyroku przyznano, że dostawcy usług udostępniania treści online są zobowiązani do stosowania narzędzi automatycznego rozpoznawania i filtrowania. Trybunał podkreślił, że ani pozwane instytucje, ani interwenienci nie byli w stanie wskazać na rozprawie przed Trybunałem ewentualnych alternatyw dla takich narzędzi. W konsekwencji uznał, że dostawcy takich usług są zatem zmuszeni do prewencyjnego filtrowania i blokowania rozpatrywanych treści (Wyrok, par. 78). Z tego powodu – zdaniem Adwokata Generalnego – prawodawca Unii zamiast bezpośrednio przewidzieć obowiązek wprowadzenia takich narzędzi, narzucił je pośrednio, za pomocą przesłanek wyłączenia odpowiedzialności przewidzianych w tych przepisach (Opinia, pkt. 62).

Trybunał uznał jednocześnie, że wolności wypowiedzi i informacji nie mają charakteru absolutnego i mogą podlegać ograniczeniom (Wyrok, par. 68). Zgodnie z Postanowieniami Karty Praw Podstawowych (art. 52 ust. 1) jej postanowieniami, takie ograniczenia są dopuszczalne o ile są przewidziane ustawą i szanują istotę praw i wolności w które ingerują. Ponadto, wszelkie takie ograniczenia muszą spełniać wymogi zasady proporcjonalności, tj. być konieczne i rzeczywiście odpowiadać celom interesu ogólnego uznawanym przez Unię lub potrzebom ochrony praw i wolności innych osób.

Zdaniem Trybunału, wszystkie te przesłanki zostały spełnione przez art 17 w jego obecnym kształcie. Co więcej, zdaniem Trybunału w kontekście usług udostępniania treści online ochronie praw autorskich musi towarzyszyć, do pewnego stopnia, ograniczenie wykonywania prawa użytkowników do wolności wypowiedzi i informacji (Wyrok, par. 82). Trybunał uznał jednak, że takie ograniczenia nie naruszają istoty wolności wypowiedzi i informacji i są dopuszczalne w świetle zasady proporcjonalności (Wyrok, par. 62). Aby jednak utrzymać w mocy art. 17 i przewidziany w nim mechanizm ograniczania wolności wypowiedzi, Trybunał, w ślad za Adwokatem Generalnym, wskazał w jakich granicach takie ograniczenie jest dopuszczalne. W tym celu wskazał sześć warunków wyznaczających interpretację art. 17, które dotyczą:

  1. dozwolonych przez prawo systemów filtrowania i blokowania zamieszczanych treści;
  2. respektowania przysługujących obywatelom praw użytkowników, tj. prawa do korzystania z utworów w celu cytowania, krytykowania, recenzowania, oraz do celów karykatury, parodii i pastiszu;
  3. konieczności uprzedniego przekazania przez podmioty uprawnione odpowiednich i niezbędnych informacji co do treści podlegających filtrowaniu i blokowaniu;
  4. zakazu obowiązku ogólnego monitorowania przekazywanych treści;
  5. wprowadzenia pewnych gwarancji proceduralnych m.in. związanych z mechanizmem składania skarg i dochodzenia roszczeń przez obywateli – użytkowników;
  6. prowadzenia dialogu pomiędzy zainteresowanymi stronami w celu wypracowywania zgodnych z zasadą proporcjonalności praktyk związanych ze stosowaniem art. 17.

Co wynika z tego w praktyce?

Gwarancje proceduralne (ex post), to jedynie uzupełnienie systemu ochrony praw obywateli - użytkowników (ex ante)

Jedno z podstawowych zagadnień, wokół których toczyło się postępowanie przed Trybunałem, dotyczyło tego, czy ochrona praw obywateli – użytkowników, ma być wzięta pod uwagę uprzednio (ex ante), tj. przed zastosowaniem filtrowania i blokowania (usuwania) treści, czy jedynie następczo (ex post), tj. dopiero po zablokowaniu (usunięciu) konkretnej treści na skutek skorzystania z gwarancji proceduralnych polegających na składaniu skarg i dochodzeniu roszczeń przewidzianych w art. 17 ust. 9 dyrektywy. Kwestia ta ma fundamentalne znaczenie.

Przyjęcie drugiej interpretacji oznaczałoby, że treści zamieszczane mogłyby być masowo blokowane (usuwane) przez usługodawcę platformy, zaś ciężar ich przywrócenia w całości przerzucony byłby na osoby umieszczające treści. W takim wypadku, z jednej strony, nowy reżim odpowiedzialności, skłaniałby usługodawców do nadmiernego prewencyjnego blokowania treści. Z drugiej zaś wielu użytkowników, z różnych powodów, rezygnowałoby z korzystania z mechanizmów przywracania zablokowanych treści, który wymagałby od nich składania odrębnych skarg. Jak podkreślił Adwokat Generalny, takie prewencyjne „nadmierne blokowanie” każdego zgodnego z prawem wykorzystania i systematyczne przerzucenie na użytkowników ciężaru wykazania tej zgodności z prawem mogłyby w ten sposób doprowadzić, w krótkim lub długim okresie, do „chilling effect” w stosunku do wolności wypowiedzi i twórczości, przekładającego się na spadek aktywności tych użytkowników (Opinia, pkt. 187).

Trybunał przychylił się jednak do pierwszej interpretacji i uznał, że w art. 17 ust. 9 dyrektywy wprowadzono szereg gwarancji proceduralnych uzupełniających gwarancje przewidziane w art. 17 ust. 7 i 8 tej dyrektywy (Wyrok, pkt. 93). Oznacza to, że niezbędne dla zachowania równowagi między prawem autorskim a prawami obywateli – użytkowników jest zarówno istnienie i stosowanie gwarancji proceduralnych (ex post), jak również uwzględnienie tych praw na etapie wcześniejszym (ex ante). W konsekwencji, obowiązek ochrony praw użytkowników po zablokowaniu przesłanych treści (art. 17 ust. 9) nie zastępuje obowiązku ich ochrony już na etapie umieszczania treści zgodne z prawem (art. 17 ust. 7).

Co więcej, zdaniem Trybunału, o ile w przypadku próby zwolnienia się z odpowiedzialności na podstawie nowego reżimu, dostawcy takich usług muszą dołożyć „wszelkich starań”, o tyle art. 17 ust. 7 – dotyczący zabezpieczenia praw użytkowników – przewiduje nakaz osiągnięcia konkretnego rezultatu (Wyrok, par. 78). W szczególności przekłada się to na zasady, na jakich może dochodzić do filtrowania i blokowania treści. Pytaniem otwartym pozostaje jednak to, jak ten mechanizm będzie działał w praktyce. Pomimo bowiem jasnego wskazania, że użytkownikom przysługują pewne prawa, dyrektywa, poza mechanizmem składania skarg, nie tworzy konkretnych regulacji, które mogłyby umożliwić ich egzekwowanie.

Kiedy systemy filtrowania i blokowania treści są dozwolone

Chociaż dyrektywa nie przewiduje, jakimi środkami mogą posługiwać się dostawcy takich usług, Wyrok Trybunału przesądza, że muszą to być środki, ściśle ukierunkowane, aby umożliwić skuteczną ochronę prawa autorskiego bez wywierania wpływu na użytkowników, którzy zgodnie z prawem korzystają z usług tych dostawców (Wyrok, par. 81). Oznacza to, że na dostawcach usług ciąży obowiązek zapobiegania systematycznemu i masowemu blokowaniu treści. W konsekwencji platformy objęte dyrektywą:

  • nie mogą prewencyjnie blokować wszystkich treści zamieszczanych przez obywateli. W szczególności ciąży na nich obowiązek stosowania takich rozwiązań, które nie doprowadzą do blokowania treści zamieszczanych zgodnie z prawem. Chodzi tu głównie o treści nie objęte prawami autorskimi, jak i treści które zostały zamieszczone zgodnie z wyjątkami i ograniczeniami przewidzianymi przez prawo autorskiego (Wyrok, par. 86);
  • są zobowiązane do wykrywania i blokowania treści wyłącznie na podstawie odpowiednich i niezbędnych informacji dostarczonych przez podmioty praw autorskich (Wyrok, par. 88);
  • nie są zobowiązane do blokowania treści, co do których uznanie czy zostały umieszczone niezgodnie z prawem wymaga niezależnej oceny z perspektywy przewidzianych wyjątków i ograniczeń (Wyrok, pkt. 90).

Stosowane przez usługodawców filtry mogą rozpoznawać zamieszczane treści, ale nie w każdych okolicznościach mogą automatycznie blokować dostęp do nich. Niedozwolone jest więc korzystanie ze środków, które filtrują i blokują zgodne z prawem treści w trakcie ich zamieszczania online (Wyrok, pkt. 95). Jak bowiem wskazuje Trybunał, stosowanie systemu filtrowania, który niedostatecznie rozróżnia treści zamieszczone zgodnie z prawem od treści nielegalnych, może prowadzić do blokady zgodnej z prawem komunikacji. Z tego powodu zdaniem Trybunału taki system jest sprzeczny z prawem do wolności wypowiedzi i informacji zagwarantowanym w art. 11 Karty i nie zapewnia sprawiedliwej równowagi między tym prawem a prawem własności intelektualnej (Wyrok, par. 86).

W tym kontekście należy podkreślić, że Trybunał, w przeciwieństwie do opinii Adwokata Generalnego, nie sformułował precyzyjnych kryteriów co do tego, kiedy dana treść może podlegać automatycznemu blokowaniu – a kiedy wymagana jest niezależna ocena w świetle wyjątków i ograniczeń prawa autorskiego (Wyrok, pkt. 90). Oznacza to, że w pełni zautomatyzowane filtry powinny mieć możliwość blokowania wyłącznie treści, których niezgodność z prawem została wcześniej stwierdzona przez sąd lub których niezgodność z prawem ma charakter oczywisty, tj. nie wymaga uwzględniania kontekstu ich umieszczenia. We wszystkich innych wypadkach, żądanie zablokowania lub usunięcia konkretnych treści wymaga osobnej weryfikacji przez posiadaczy praw oraz należytego uzasadnienia (Wyrok, par. 94).

Teraz Polska… implementacja!

Obecnie czekamy na projekt polskich przepisów wdrażających dyrektywę. Rząd Polski, pomimo, że jest stroną przegraną w tym wyroku, przyczynił się jednak do wzmocnienia gwarancji praw obywateli (użytkowników) korzystających z wolności wypowiedzi i informacji w Internecie. To na skutek jego skargi, Trybunał miał możliwość wskazania, że jedynie twórcza implementacja dyrektywy, spełniające szereg dodatkowych warunków i gwarancji, spełniać będzie wymogi prawa europejskiego.

Wyrok niewątpliwe dokonuje wiążącej interpretacji dyrektywy. Przede wszystkim nakłada na państwa członkowie szereg obowiązków związanych z jej implementacją do swoich porządków prawnych. Dyrektywy Unii Europejskiej wiążą państwa członkowskie co do osiągnięcia celu, nie przesądzając przy tym jakimi środkami ten cel powinien być osiągnięty. Dobór właściwych środków należy do ustawodawców krajowych. Często jednak poszczególne państwa dokonując implementacji dyrektyw ograniczają się jedynie do prostego przepisania ich tekstu do ustaw krajowych. W świetle wyroku jest już jasne, że w przypadku tej dyrektywy takie mechaniczne przeniesienie tekstu art. 17 nie będzie niewystarczające.

Zgodnie z Wyrokiem niezbędne będzie zaproponowanie konkretnych rozwiązań prawnych, i stosowanie takiej wykładni tego przepisu, która pozwoli na zapewnienie sprawiedliwej równowagi między poszczególnymi prawami podstawowymi chronionymi przez Kartę. Ponadto wskazał, że przy wdrażaniu przepisów mających na celu transpozycję tego przepisu władze i sądy państw członkowskich są zobowiązane nie tylko do dokonywania wykładni swojego prawa krajowego w sposób zgodny z tym przepisem, lecz również do nieopierania się na takiej jego wykładni, która kolidowałaby ze wspomnianymi prawami podstawowymi lub z innymi zasadami ogólnymi prawa Unii, takimi jak zasada proporcjonalności (Wyrok, pkt. 99).

Oznacza to, że w przypadku tych państw, które mechanicznie przeniosły treść art. 17 do swoich porządków prawnych, takich jak Francja czy Holandia, zmuszone będą dokonać istotnych zmian. W szczególności chodzi tu o przewidzenie konkretnych mechanizmów prawnych chroniących ex ante prawa obywateli – użytkowników zamieszczających legalne treści (np. wskazujące wprost, w jakich przypadkach jest dozwolone lub nie korzystanie z automatycznych systemów blokujących), czy umożliwiających dostęp dla organizacji użytkowników do informacji przekazanych przez dostawców usług udostępniania treści online na temat funkcjonowania ich praktyk w odniesieniu do art. 17 ust. 4 dyrektywy (np. poprzez przyznanie im prawa żądania przekazania takich informacji).

Kluczowe wydaje się jednak stworzenie właściwego mechanizmu dochodzenia roszczeń przez obywateli (użytkowników), którym w sposób niezgodny z prawem zablokowano (usunięto) zamieszczone treści. Konieczność zastosowania takiego mechanizmu przewiduje art. 17 ust. 9 dyrektywy, jednak jego ostateczny kształt należy do decyzji ustawodawcy. Zarówno zagwarantowanie przez Trybunał, że dostawcy usług są odpowiedzialni za rezultat uwzględniania praw obywateli – użytkowników (Wyrok, pkt. 78), jak i obowiązek prowadzenia dialogu zmierzającego do wypracowywania właściwych zasad, o którym mowa w art. 17 ust. 10 same w sobie nie są wystarczające. Można się domyślać, jak będą zachowywać się dostawcy usług, jeżeli po jednej stronie występować będzie indywidualny użytkownik, wyposażony w prawa bez wyraźnych sankcji, a po drugiej organizacja zbiorowego zarządzania lub właściciel dużego portfolio praw autorskich, wsparty surowym reżimem odpowiedzialności z tytułu naruszenia praw autorskich i możliwością żądania zryczałtowanego odszkodowania.

W praktyce nie jest więc możliwe zabezpieczenie realnej wolności wypowiedzi i informacji w Internecie w całości oparte jedynie na zaangażowaniu indywidualnych obywateli (użytkowników). Z tego powodu właściwe wydaje się rozważenie zastosowania jakiegoś mechanizmu umożliwiającego organizacjom użytkowników występowanie z pozwami zbiorowymi. Tak jak twórcy potrzebowali organizacji zbiorowego zarządzania, aby walczyć z masowym bezprawnym wykorzystywaniem ich utworów, tak obywatele (użytkownicy) potrzebują właściwych organizacji, wyposażonych w konkretne uprawnienia, dla zapobiegania masowego blokowania i usuwania treści legalnie umieszczonych w Internecie. Taki mechanizm powinien przewidywać konkretny katalog roszczeń, takich jak możliwość żądania zablokowania korzystania z danego typu filtra, który nie spełnia wymogów wskazanych przez Trybunał, czy żądania roszczeń zryczałtowanych odszkodowawczych. Bez wyposażenia obywateli (użytkowników) w konkretne instrumenty prawne, prawo do wolności wypowiedzi i informacji, pozostanie jedynie zobowiązaniem rezultatu w wyroku Trybunału – nie w realnym życiu.

Jak te zapisy będą wyglądać w polskiej implementacji dyrektywy? Oczekujemy, że polski rząd, jako autor skargi, w której mocno stanął po stronie obywateli, również na poziomie krajowym w sposób wzorowy odniesie się do wszystkich wymogów jakie postawił Trybunał przed ustawami krajowymi i przedstawi projekt umożliwiający realną ochronę praw obywateli (użytkowników).

Paradoks art. 17 – czyli szybkie podsumowanie

Jak zaznaczyłem na wstępie, zdaniem Trybunału artykuł 17 – pomimo, że ingeruje w prawo wolności wypowiedzi i informacji obywateli – użytkowników, robi to w sposób dopuszczalny. Jest tak dlatego, że zawiera on szereg gwarancji praw i zabezpieczeń, które zostały wprowadzone do tekstu dyrektywy m.in. dzięki zaangażowaniu takich organizacji jak stowarzyszenie Communia, którego członkiem jest Centrum Cyfrowe. Otwartym pozostaje więc pytanie, co by było gdyby obecny art. 17 został przyjęty w pierwotnej formie zaproponowanej przez Komisję Europejską?

Przypomnijmy, że słynny artykuł 13 (czyli obecny art. 17) był przedmiotem masowej krytyki ze strony społeczeństwa obywatelskiego, środowisk akademickich i obrońców wolności wypowiedzi. Środowiska te, w tym Centrum Cyfrowe, jasno wskazały, że stosowanie automatycznych filtrów blokujących i usuwających treści przez dostawców usług udostępniania treści prowadzi do naruszenia istoty wolności wypowiedzi i informacji. Gdyby nie tamta determinacja, być może artykuł 13 zostałby przyjęty w swojej pierwotnej formie, w konsekwencji sentencja tu omawianego wyroku byłaby odmienna.

Wyrok w jego obecnym kształcie niewątpliwie przyczynia się do wzmocnienia pozycji obywateli – użytkowników korzystających z wolności wypowiedzi i informacji w środowisku cyfrowym. Niezależnie jednak od tego, zarówno wyrok jak i dyrektywa stanowią wyraz tendencji do rozszerzania monopolu prawa autorskiego. Można przecież sobie wyobrazić sytuację, w której Trybunał stwierdził, że tworzenie nowego aspektu prawa autorskiego przez dyrektywę nie spełnia wymogów Karty (m.in. zasady proporcjonalności), np. z uwagi na fakt, że jego istnienie – naruszające prawo wolności wypowiedzi i informacji – nie jest wcale konieczne.

W tym kontekście należy podkreślić, że generalnie obejmowanie dóbr niematerialnych (takich jakimi są utwory) prawami wyłącznymi oraz rozszerzanie zakresu tych praw, nie jest rozwiązaniem optymalnym. Wiele problemów, przed którymi Trybunał starał się zabezpieczyć obywateli w swoim Wyroku nie powstałoby, gdyby system prawa autorskiego (i szerzej praw własności intelektualnej) był właściwie zaprojektowany od początku. Zgodnie z podejściem prezentowanym m.in. przez Stowarzyszenie Communia to prawa wyłączne stanowią wyjątek od zasady domeny publicznej – nie odwrotnie, jak to często jest podkreślane przez właścicieli tych praw.


dr Konrad Gliściński LL.M – ekspert Centrum Cyfrowego, Katedra Prawa Własności Intelektualnej Uniwersytetu Jagiellońskiego