m4sk1n

Dlaczego musimy sprzeciwić się nowej dyrektywie o prawie autorskim

Artykuł jest tłumaczeniem wpisu Eugena Rochko pochodzącego z blog.joinmastodon.org i może nie odzwierciedlać w pełni moich poglądów. Wpis jest dostępny na licencji CC-BY-SA 4.0


Komisja składająca się z członków głosowała za przyjęciem Artykułu 11 i 13, które tworzą zagrożenie dla decentralizacji sieci i wolności ekspresji twórczej.

Artykuł 11 znany jako „podatek od linków”, według którego umieszczanie odnośników do publicznych stron może być nielegalne, jeżeli zawierają one podgląd zawartości z użyciem tagów OpenGraph umieszczanych tam przez autorów stron. Artykuł 13 postanawia, że wszystkie treści wysyłane przez użytkowników muszą przechodzić przez filtr zawartości, aby wykrywać naruszenia praw autorskich.

W lipcu odbędzie się szersze głosowanie nad tą dyrektywą w Parlamencie Europejskim. Oba artykuły wpływają na sposób, w jaki działa Mastodon. Oto dlaczego musimy się sprzeciwić się ich przyjęciu:

Wykrywanie zawartości nie jest wiarygodne

Znane systemy identyfikacji treści takie jak używany na YohTube często prowadzą do błędnego usunięcia treści. Czasami mogą wykryć cichą muzykę, niesłyszalna dla ludzi lub film grający w tle. Mogą przypadkowo zablokować domenę publiczną lub twórczość przeobrażoną, przy czym nie wykryją już utworów o podwyższonej wysokości lub obróconych w poziomie filmów. Ludzie będą wnosić roszczenia do treści, których nie posiadają, a właściwi twórcy będą musieli udowadniać, że to oni posiadają prawa do wysłania ich. To zaszkodzi wolności wyrażania siebie i pozbawi nas kreatywnej różnorodności.

Już dzisiaj YouTube traci na tym, nawet bez Artykułu 13. Wydaje Ci się, że DMCA i demonetyzacja są złe? Odmowy będą dokonywane w czasie wysyłania, wszędzie.

Mniejsi gracze vs. filtrowanie treści

Choć wielkie platformy społecznościowe takie jak Twitter, Tumblr, Facebook i GitHub będą mogły zainwestować w technologie wymagane do wykrywania naruszeń praw autorskich, inni nie zawsze będą mogli. W Internecie jest wiele innych miejsc: sekcje komentarzy na blogach, fora, imageboardy i oczywiście — serwery Mastodona. Strony prowadzone nie dla zysku, tworzone przez osoby prywatne i małe organizacje nie będą mogły spełnić tych wymogów. Wymaga to nie tylko zainwestowania w technologię, ale i dostępu do bazy treści objętej prawami autorskimi do skanowania.

Może to doprowadzić do powstania nowych dostawców usług filtrujących naruszenia, centralizacji skanowania treści, która nie tylko dodaje do całości kolejny czynnik finansowy, ale też tworzy ogromne zagrożenie dla prywatności zbierając wszystkie wpisy z różnych platform w jednym miejscu. Nie musisz wierzyć w szpiegowanie przez rząd, wystarczy pomyśleć o wyciekach danych takich jak Equifax.

Internet jest nie tylko dla wielkich platform

Często wydaje się, że kiedy UE uchwala regulacje dotyczące Internetu, myślą tylko o wielkich graczach takich jak Facebook, Twitter, Google i Amazon. Kiedy w Niemczech pojawił się „podatek od linków”, Google udało się wynegocjować bezpłatną umowę z wydawcami, ponieważ gdy treści są wykluczone z Google, są w zasadzie wyrzucone poza nawias. Zgadnijcie jednak, kto nie byłby w stanie wynegocjować takiej umowy? Tak, mniejsza konkurencja dla Google.

Podobnie, RODO spowodowało panikę wśród mniejszych stron i usług sieciowych z powodu obawy przed karą pieniężną, powodując wiele wyłączeń stron spowodowanych niepewnością. Nie musieli panikować ci, w których skierowane było to prawo — ci, którzy najbardziej naruszali naszą prywatność. Mogą oni pozwolić oni sobie na zatrudnienie wielu prawników i osób, które pozwolą im na dostosowanie się do nowego prawa.

Naturą regulacji prawnych jest odcięcie mniejszych graczy, co nie zawsze jest złe. Chcesz, aby jakość wody i jedzenia była regulowana, nie chcesz pozostawić tego amatorom. Prywatność w Internecie jest z pewnością ważna, więc wydaje się, że RODO również zajęło odpowiednie miejsce. Jednak takie regulacje umacniają największe firmy na rynku i musisz zapytać siebie — czy konglomeraty, których model biznesowy opiera się na wykorzystywaniu słabości Internetu są czymś, co powinno utrwalić się na zawsze?

Firmy, które osiągnęły sukces w Internecie doszły do tego tylko dlatego, że Internet był zdecentralizowany i każdy mógł pojawić się na rynku bez ograniczeń. Nie uważam jednak, aby osiągnęły szczyt tego, co jest możliwe.

Musimy utrzymać zdecentralizowaną sieć przy życiu i sprzeciwić się Artykułowi 11 i 13.

Więcej zasobów: