Trybunał Sprawiedliwości Unii Europejskiej stwierdził, że sądy mogą nakazać dostawcy usług hostingowych usuwanie nielegalnych treści – i to na całym świecie (wyrok z 3 października, C-18/18). Orzekając w sprawie przeciwko Facebookowi, dopuścił nakazanie kasowania pojawiających się wpisów identycznych i równoznacznych z tymi, które sąd uzna za bezprawne (np. zniesławiające).

– To bez wątpienia wyrok istotny dla napięć między prawem do wolności wypowiedzi a jej ograniczaniem w internecie – uważa Krzysztof Izdebski, dyrektor programowy Fundacji ePaństwo. – Odpowiada na potrzebę skutecznych środków ochrony praw osób dotkniętych bezprawnymi treściami. W tym zakresie fragment odnoszący się do usuwania treści identycznych jest dość zrozumiały i stanowi proporcjonalny środek. Obawy są związane raczej z kwestią wypowiedzi „równoznacznych”. Zbyt szeroka możliwość interpretacji i zachęta do automatycznego filtrowania treści może uderzyć zarówno w wolność wypowiedzi, jak i prawo do prywatności. W tym aspekcie uważam, że wyrok niesie ze sobą duże ryzyko – zaznacza.

Szukając wpisów równoznacznych z nielegalnymi, portale mogą przy okazji usunąć wiele treści legalnych. Bo algorytmy nie są doskonałe. – Filtry treści nie są w stanie rozpoznać kontekstu, a to, czy dana treść jest zniesławiająca, nawet jeśli jest dokładną kopią jakiegoś zdania, zależy zawsze od kontekstu. Ktoś może np. wchodzić w polemikę z danym stwierdzeniem. Platformy internetowe, w obawie przed odpowiedzialnością, blokują więcej treści, niż tak naprawdę muszą – argumentuje Natalia Mileszyk z Fundacji Centrum Cyfrowe.

Włodzimierz Schmidt, prezes Związku Pracodawców Branży Internetowej IAB Polska, zwraca uwagę, że filtrowanie komentarzy według oczekiwań TSUE już dziś nawet dla dużych firm internetowych jest uciążliwe. Z dwóch największych portali w Polsce możliwość komentowania wyłączył w ubiegłym roku Onet. – My nie mamy takiego zamiaru – zapewnia Michał Siegieda z Wirtualnej Polski.

Odkąd pięć lat temu trybunał dał internautom „prawo do bycia zapomnianym”, czyli usunięcia z sieci wpisów na swój temat, kolejne wyroki i regulacje pogłębiają rozdźwięk między siecią a rzeczywistością. – W tej delikatnej kwestii potrzeba rozwiązań proporcjonalnych, uwzględniających z jednej strony obowiązki nakładane na dostawców, a z drugiej – interes społeczny i zagwarantowane wolności – uważa Schmidt.

Cenzura prewencyjna jako sposób na walkę z hejtem w sieci

To kolejny wyrok Trybunału Sprawiedliwości Unii Europejskiej, który wpłynie na funkcjonowanie internetu. O ile jednak orzeczenia dotyczące prawa do bycia zapomnianym czy też linkowania do bezprawnych treści dotyczyły tego, co już do sieci trafiło, o tyle to orzeczenie ma zapobiegać naruszaniu prawa w przyszłości. Choć więc w uzasadnieniu wyroku podkreślono, że portale internetowe nie mogą zostać zobowiązane do ogólnego nadzorowania tego, co się w nich publikuje, to jednak konieczność wyszukiwania i usuwania wpisów, które dopiero mogą się ukazać, trudno nazwać inaczej niż swego rodzaju cenzurą prewencyjną.

Wyszukaj i usuń

Sprawa dotyczy udostępnienia na Facebooku artykułu na temat austriackiej posłanki partii Zielonych. Na profilu widać było zdjęcie kobiety, fragment artykułu, a pod nim użytkownik zamieścił obraźliwe komentarze. Chodziło o sformułowania takie jak: „podła zdrajczyni narodu”, „skorumpowana kretynka” czy „członkini partii faszystów”. Facebook odmówił usunięcia tych wpisów, dlatego posłanka poszła do sądu. Domaga się nie tylko blokady tych konkretnych treści (to Facebook zrobił po pierwszym wyroku), ale również tego, by portal społecznościowy uniemożliwił pojawienie się równoznacznych wpisów w przyszłości. Mówiąc wprost – chodzi jej o to, by sąd nakazał wyszukiwanie treści o takim samym znaczeniu publikowanych w połączeniu z jej nazwiskiem i zdjęciem oraz kasowanie ich.

We wniosku prejudycjalnym skierowanym do TSUE austriacki sąd spytał, czy można ustanowić taki nakaz, czy może on dotyczyć wyłącznie treści identycznych z tymi, które uznano za bezprawne, czy także równoznacznych oraz o zakres terytorialny takiego nakazu.

Tak naprawdę problem sprowadza się do interpretacji dwóch przepisów dyrektywy 2000/31/WE o handlu europejskim (patrz: grafika). Z jednej strony art. 15 zakazuje nakładać na portale internetowe ogólny obowiązek nadzorowania informacji publikowanych przez użytkowników oraz aktywnego poszukiwania faktów i okoliczności wskazujących na bezprawną działalność. Z drugiej zaś art. 18 tejże dyrektywy mówi o konieczności szybkiego podejmowania środków mających na celu „przerwanie każdego rzekomego naruszenia prawa oraz zapobieżenie wszelkim dalszym szkodom”.

TSUE uznał, że przepisy te pozwalają na wydanie przez sąd nakazu, który będzie oddziaływał na przyszłość. I to nie tylko takiego, który będzie dotyczył konkretnych słów, ale także sformułowań równoznacznych.

„Aby nakaz zaniechania bezprawnego działania i zapobieżenia ponownemu popełnieniu takiego czynu oraz wszelkiej dalszej szkody na danych interesach mógł faktycznie doprowadzić do osiągnięcia tych celów, ów nakaz powinien móc obejmować również informacje, których treść, przekazując przy tym zasadniczo tę samą wiadomość, została sformułowana w nieco inny sposób ze względu na użyte słowa lub ich kombinację, w stosunku do informacji, której treść została uznana za mającą bezprawny charakter. W przeciwnym bowiem razie, jak podkreśla sąd odsyłający, skutki takiego nakazu można byłoby łatwo obejść, przechowując wiadomości lekko różniące się od wiadomości uprzednio uznanych za bezprawne, co mogłoby doprowadzić do powstania sytuacji, w której zainteresowana osoba zmuszona jest do wielokrotnego wszczynania postępowań w celu doprowadzenia do zaniechania działań, których jest ofiarą” – napisano w uzasadnieniu wyroku.

Zdaniem TSUE sąd krajowy może więc nakazać, by portal wyszukiwał i usuwał komentarze, które oznaczają to samo, co już zostało przez sąd uznane za naruszenie, nawet jeśli będą one inaczej sformułowane. Jednocześnie jednak Trybunał zastrzegł, że wyroki sądowe muszą precyzyjnie wskazywać konkretne elementy, które są równoznaczne w swym znaczeniu z treścią uznaną za niedozwoloną. W żadnym wypadku nie można wymagać od portalu, by sam dokonywał oceny tych treści.

Różne oceny

Prawnicy, których poprosiliśmy o komentarz, są podzieleni w ocenie tego orzeczenia.

– Wyrok TSUE w rozsądny sposób dopasowuje wykładnię przepisów dyrektywy do dzisiejszych realiów internetu. Jak pokazuje doświadczenie, różnego rodzaju treści, w tym bezprawne, są bardzo szybko powielane w całym internecie, w tym w ramach danego medium społecznościowego. Doprowadzenie do zablokowania ich wszystkich wymaga dużego nakładu czasu po stronie osoby, której prawa naruszono. Nie zawsze zresztą będzie to możliwe – zwraca uwagę Witold Chomiczewski, radca prawny i wspólnik w kancelarii Lubasz i Wspólnicy.

– Od strony prawnej art. 14 ust. 3 dyrektywy 2000/31/WE dopuszcza nakładanie przez sądy na host providerów obowiązków zapobiegania naruszeniom, jak i ich usuwania. Artykuł 15 ust. 1 natomiast nie pozwala na wprowadzenie jedynie ogólnych obowiązków monitorowania treści. Dlatego konieczność usunięcia treści identycznych do zgłoszonej jako bezprawna oraz równoznacznych z nią uważam za trafne rozwiązanie, które pozwala na realną walkę z treściami bezprawnymi – dodaje.

Można też jednak spotkać się z krytycznymi uwagami.

– To nic innego niż cenzura prewencyjna. Cenzura, której wprowadzenia nie przewidują przepisy. W mojej ocenie TSUE w tym wyroku wychodzi poza zakres władzy sądowniczej i stawia się w roli władzy ustawodawczej – uważa Maciej Gawroński, partner zarządzający w kancelarii Gawroński & Partners.

Wyrok TSUE to ogólna wykładnia, więc z oczywistych względów nie rozwiewa wszystkich wątpliwości. Można się zastanawiać, co w sytuacji gdy polityk, który uzyska nakaz, po jakimś czasie rzeczywiście zostanie złapany np. na korupcji. Z jednej strony portal internetowy będzie związany wyrokiem sądu, który nakazuje mu usuwać wszystkie komentarze dotyczące łapówkarstwa. Z drugiej jednak, jak to pogodzić z prawem społeczeństwa do informacji?

Wątpliwości jest więcej.

– Wprowadzenie i charakterystyka pojęcia „treści tożsame” może sprzyjać ich szerokiej interpretacji. Szkoda, że sąd nie przyjął w tym zakresie propozycji rzecznika generalnego. Rzecznik w swojej opinii wskazał, że za tożsame należałoby uznać treści zawierające literówki czy niewielkie zmiany w składni, ale miał wątpliwości co do dalej idących działań. Proponował też, aby tożsamych treści poszukiwać we wpisach tego samego naruszyciela – mówi Paweł Lipski, radca prawny i partner w kancelarii Bird & Bird.

– Trybunał, jak się wydaje, przyjął szersze podejście. Wskazał, że za tożsame należy uznać informacje, które są „w istocie niezmienione”, a zatem bardzo niewiele różnią się od informacji bezprawnej. Kryterium to jest bardzo nieprecyzyjne – zaznacza.

Problemy techniczne

Pojawia się również pytanie, jak w praktyce wyegzekwować orzeczenie nakazujące wyszukiwanie i usuwanie komentarzy internautów. Globalne korporacje, takie jak Facebook, oczywiście dysponują środkami finansowymi i technicznymi, które pozwolą im na kasowanie określonych sformułowań. Co jednak z małymi stronami internetowymi? Gdyby taki nakaz został wydany wobec forum akwarystycznego, to jego administrator musiałby w zasadzie czytać każdy wpis, zanim ukaże się on w internecie.

Zresztą nawet najwięksi gracze mogą mieć problem. W sprawie rozpoznawanej przez austriacki sąd powódka domaga się tego, by określone komentarze nie pojawiały się przy jej zdjęciu.

– Nie wyobrażam sobie zastosowania konkluzji wyroku do obrazów czy treści audiowizualnych. Po pierwsze, automatyczne wyszukiwanie i porównywanie obrazów czy treści audiowizualnych wciąż jest na niskim poziomie i będzie dawało wiele błędnych wyników. Po drugie, analiza takich treści przez pracowników serwisów będzie zajmować bardzo dużo czasu i środków. Niewątpliwie będzie wymagała też znacznie większej uznaniowości niż w przypadku treści wyrażonych słowem – ocenia Paweł Lipski.

>>> Czytaj też: Cyfrowy minimalizm czyli jak odzyskać kontrolę nad sobą