Jak informuje strona internetowa Fundacji Centrum Cyfrowe w artykule „Filtrowanie treści ma się dobrze – rozporządzenie TERREG” „w Brukseli kończą się prace nad rozporządzeniem w sprawie zapobiegania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym. Nowe przepisy zawierają propozycję filtrowania treści w sposób podobny do kontrowersyjnych zapisów z Dyrektywy prawnoautorskiej”.

Zdaniem Centrum Cyfrowego „filtrowanie treści przez platformy internetowe jest zagrożeniem praw użytkowników – niezależnie od powodu”.

Jak informuje Centrum Cyfrowe „TERREG to kolejna próba, po europejskiej reformie prawa autorskiego, ograniczenia praw użytkowników pod pretekstem ochrony (w tym przypadku przed treściami terrorystycznymi). Intencje twórców projektu są jak najbardziej szlachetne, jednak sam projekt budzi wiele kontrowersji ze względu na skutki uboczne, jakie może mieć w praktyce”.

W opinii Centrum Cyfrowego „rozporządzenie przewiduje dwa kontrowersyjne rozwiązania (które wspiera Komisja Europejska i Rada): Dostawcy usług hostingowych muszą stosować »proaktywne środki«, aby zapobiec ponownemu przesyłaniu wcześniej usuniętych treści oraz w celu wykrycia i zidentyfikowania domniemanych treści terrorystycznych. Dostawcy usług hostingowych muszą usuwać treści terrorystyczne w ciągu 1 godziny od otrzymania zgłoszenia od władz”.

Centrum Cyfrowe przypomina, że „obowiązek filtrowania treści budził [...] sprzeciw w trakcie europejskiej reformy prawa autorskiego – dyrektywa wprowadziła taki obowiązek, ale obecnie Trybunał Sprawiedliwości UE bada zgodność tego obowiązku z Kartą Praw Podstawowych. [...] w związku z pracami nad powstającym obecnie Kodeksem Usług Cyfrowych, pomysł filtrowania treści może pojawić się również w dalszych propozycjach Komisji. Filtrowanie treści prowadzi przede wszystkim do niebezpiecznej prywatyzacji egzekucji prawa i przekazania w ręce prywatnych podmiotów decyzji o tym, co jest nielegalną treścią a co nie. Druga propozycja może z kolei doprowadzić do sytuacji, w której małe organizacje czy firmy zdecydują się na zakończenie świadczenia usług hostingowych (np. w postaci repozytorium gdzie użytkownicy mogą wrzucać swoje treści), gdyż nie będą w stanie tak szybko odpowiadać na wezwania władz co do usunięcia treści (szczególnie w sytuacji, gdy ponad 99% platform nigdy nie jest celem propagandy terrorystycznej)”.

Warto wskazać, że projektowane „rozporządzenie jest krytykowane od samego początku m.in. ze strony FRA – Agencji Praw Podstawowych Unii Europejskiej czy Europejskiego Inspektora Ochrony Danych i EDRi (którego jesteśmy członkiem-obserwatorem). Krytyczne stanowisko względem projektu zajął też polski rząd”.

Przeciwnicy cenury w internecie wskazują, że „skutki proponowanych rozwiązań będą podobne do tych możliwych negatywnych skutków nowej dyrektywy prawnoautorskiej. Podatne na błędy filtry treści będą zatwierdzały wszystko, co” chce się „opublikować lub przesłać na platformy takie jak Instagram, YouTube, Snapchat, Facebook, Tumblr, WordPress.org, Wattpad, DeviantArt, SoundCloud, TikTok, Giphy itp. W wyniku tego mechanizmu wiele zgodnych z prawem treści nie zostanie opublikowanych. Poza tym platformy internetowe będą uważać” każdego użytkownika „za ''winnego, dopóki nie zostanie udowodniona niewinność''. Wolność wypowiedzi zostanie ograniczona, ponieważ Internet stanie się miejscem, w którym wszystkie treści najpierw muszą przejść automatyczną kontrolę. Ucierpią media, edukacja, sztuka, badania, podnoszenie świadomości i kontrowersyjne debaty na temat terroryzmu – te treści będą blokowane. To rozporządzenie szkodzi małym europejskim firmom internetowym. Tylko największe firmy, które będą w stanie zareagować w ciągu godziny, wzmocnią swoją dominację na rynku”.

Organizacje na rzecz wolności słowa w internecie postulują by: „Nie wprowadzać obowiązku proaktywnego filtrowania treści przez dostawców usług hostingowych. Dodatkowe środki przewidziane w artykule 6 projektu nie powinny stanowić działań proaktywnych, które mogą skutkować ograniczeniem dostępności legalnych treści online. Przewidywać wyjątek od stosowania rozporządzenia na rzecz materiałów edukacyjnych, dziennikarskich, artystycznych lub badawczych – w przeciwnym razie zostaną one również usunięte, jeśli będą dotyczyły tematu terroryzmu – który jest kontrowersyjny, ale też społecznie ważny. Wprowadzać takie ramy czasowe na reakcję dostawców usług hostingowych, które nie ograniczą działalności małych i średnich europejskich podmiotów, często działających non-profit. Zawierać definicję treści terrorystycznych tożsamą z Dyrektywą Parlamentu Europejskiego i Rady (UE) 2017/541 z dnia 15 marca 2017 r. w sprawie zwalczania terroryzmu. Gwarantować, aby właściwe organy krajowe z państw członkowskich odpowiedzialne za wydawanie nakazów usunięcia treści były niezależne od organów rządowych lub innych instytucji państwowych w trakcie wykonywania swoich zadań”.

Jan Bodakowski