access-denied

Koniec roku to czas na podsumowania i zapowiedzi na nowy rok, dlatego nie dziwi, że podliczono statystyki dotyczące obiegu treści w sieci i walki z nieformalnym obiegiem. Dużą karierę zrobiła informacja o rekordowej ilości wyników wyszukiwania usuniętych z Google. W 2013 roku było to 235 milionów wyników wyszukiwania. Robi wrażenie w porównaniu do 50 milionów w roku 2012. Co oznaczają te liczby? Niewiele.

Jest kilka powodów, które utrudniają ocenę. Przede wszystkim – użytkownicy bardzo często korzystają z wielkich wyszukiwarek internetowych jako alternatywy dla szukajek znajdujących się na serwisach z których korzystają (np. wyszukując hasło „Nelson Mandela wikipedia” w Google, zamiast korzystać z narzędzi szukania dostępnych na stronie Wikipedii).  Blokowanie wyników wyszukiwania nie będzie miało wpływu na tę grupę, doskonale zdaje sobie ona sprawę z tego, gdzie znajdzie interesujące ją treści.

Kolejny problem jest jeszcze poważniejszy i powstał właśnie na skutek działań antypirackich: powstawanie klonów blokowanych stron. Usuwanie linków do treści jest bezsensowne, ponieważ stworzenie nowych odnośników jest o wiele łatwiejsze od ich usunięcia.

Praktyczny wymiar problemu pokazuje sytuacja brytyjskiej Partii Piratów – po zablokowaniu dostępu do The Pirate Bay w Wielkiej Brytanii stworzono stronę z odnośnikami do alternatywnych adresów pozwalających na dostęp do serwisu. Zablokowanie jednego adresu spowodowało powstanie dziesiątek alternatyw. Na skutek prawnych gróźb ze strony przemysłu praw autorskich brytyjska Partia Piratów zamknęła prowadzony przez siebie serwis.

Dzień później powstały dwie kopie tej samej strony, tym razem z dala od brytyjskiego prawodawstwa i sądów – w Argentynie i Luksemburgu. Jedna decyzja o zablokowaniu jednego adresu doprowadziła do powstania setek nowych odnośników do tej samej strony, a następnie wielokrotnego pomnożenie tej liczby. To samo pokazują statystyki usuniętych wyników wyszukiwania Google – na każdy milion usuniętych linków do głównej strony The Pirate Bay przypada kilka milionów usuniętych linków do mirrorów. /Na przykład: gdyby usunięto link do Open Office z thepiratebay.se z wyników wyszukiwania, to po wpisaniu „Open Office torrent” dalej otrzymamy wynik z tym samym plikiem z malaysiabay.org i setek innych serwisów będących kopią thepiratebay.se pod innymi adresami/

Oznacza to, że wzrost ilości usuniętych wyników wyszukiwania nie mówi nam nic o dostępności nielegalnie zamieszczonych treści w sieci. Istnieje nawet możliwość (chociaż nie jest to bardzo prawdopodobne), że faktycznie usunięto mniej linków do naruszających prawa autorskie treści niż w poprzednich latach.

W nowym roku warto życzyć mniejszej ilości głupich decyzji

Strategia blokowania dostępu do stron z treściami zamieszczonymi w nieautoryzowany sposób okazała się zupełnym niewypałem i jest krytykowana również przez osoby zajmujące się walką z piractwem. Decyzja Brytyjczyków była niedźwiedzią przysługą dla wszystkich antypiratów na świecie, ponieważ lawinowo zwiększyła ilość klonów stron z torrentami, podobne skutki mają decyzje o cenzurze podejmowane w innych krajach. Antypiraci mają coraz więcej roboty, a to, co robią staje się jeszcze bardziej nieskuteczne. W 2013 roku ilość nowych plików torrent na The Pirate Bay wzrosła o 50%, a blokowanie domen serwisu oraz dostępu do strony sprawiło, że podjęto poważne prace nad uniezależnieniem całej sieci od oficjalnych, kontrolowanych przez rządy domen i serwerów i prowadzeniem jej w oparciu o protokoły peer2peer.

Oznacza to, że o ile wcześniej istniał chociaż cień szansy na kontrolę tego, co użytkownicy zamieszczają w sieci, to szansa ta właśnie uleciała na zawsze. Nie jest to zaskoczenie dla kogokolwiek, kto rozumie, w jaki sposób działa sieć, ale musi być szokiem dla osób planujących antypiracką politykę.

(Warto zaznaczyć, że w argumentacji zwolenników cenzurowania wyszukiwarek jest kilka sensownych punktów – zdarza się, że odnośniki do nieautoryzowanych źródeł trafiają wyżej w wynikach od tych licencjonowanych. W tych wypadkach usuwanie linków do popularnych stron o wysokim pozycjonowaniu rzeczywiście może mieć sens. Jest to jednak zarzut przede wszystkim do działów marketingu posiadaczy praw, a nie osób dzielących się kulturą i wiedzą w sieci. Ale na krótką metę – strategia blokowania może poprawić sytuację. Na długą – lepiej po prostu zaoferować lepszą usługę.)

fot. Magnus DCC BY