Prześlij filtr

Filtr wysyłania jest po stronie serwera, oprogramowanie , które sprawdza pliki, gdy są one załadowane , odrzuca je, jeśli to konieczne, zmienia je lub uruchamia inne środki. Przetwarzanie danych maszynowych ma zastąpić sprawdzanie zawartości przez ludzi . Takie filtry są ważne dla publicznie dostępnych usług, jeżeli udostępniają treści innych użytkowników osobom trzecim lub publikują je w całości, na przykład w mediach społecznościowych lub portalach wideo . Filtry przesyłania mogą zapobiegać naruszaniu interesów prawnych, takich jak prawa autorskie lub prawa osobiste . Inne filtry zezwalają tylko na określone typy plików lub ograniczają rozmiar pliku. Służą również do racjonalizacji procesów pracy i mogą chronić pracowników przeprowadzających kontrole manualne przed stresem psychicznym.

W filtrach przesyłania wykorzystywane są techniki automatycznego rozpoznawania obrazów , mowy i tekstu . Oznacza to, że kopie są łatwo rozpoznawalne, ale niezawodność rozpoznawania bywa kontrowersyjna w przypadku bardziej złożonych wymagań. Krytycy ostrzegają przed ryzykiem nadmiernego blokowania, jeśli nie można wiarygodnie zidentyfikować wyjątków i przypadków specjalnych.

Wykorzystanie i technologia

Na przykład podczas przesyłania plików można sprawdzić właściwości pliku, takie jak format pliku i rozmiar pliku. Program komputerowy blokuje pliki, które naruszają reguły filtrowania. W przypadku ograniczeń treści implementacja w kodzie programu jest bardziej złożona. Implementacja może wyglądać tak: Pewne cechy zawartości pliku są opracowywane i na podstawie tych cech decyduje się, czy plik jest nadal objęty ograniczeniami i może zostać załadowany. W zależności od złożoności treści i sytuacji, które mają zostać rozpoznane, rozpoznanie wiąże się z różnymi współczynnikami błędów, więcej na ten temat w części dotyczącej podatności na błędy .

Niektórzy dostawcy używają filtrów przesyłania do wykrywania naruszeń praw autorskich. Stan techniki (2019) dla tej aplikacji to proste porównanie wzorców, podczas gdy metody sztucznej inteligencji nie były dotychczas stosowane. Do takich porównań wzorców zazwyczaj używa się cyfrowego odcisku palca (np. akustycznego odcisku palca dla muzyki) i wyszukuje odcisk palca nowo załadowanej treści w bazie danych przechowywanych odcisków palców. System Content ID przez YouTube jest takie przesyłanie filtr - ale z obserwacji przez tysiące pracowników.

W PhotoDNA jest jednym z Microsoft z University of Dartmouth opracowanej technologii, która znana władzom pornografii dziecięcej rozpoznaje materiał i odrzuca. Aby porównać nagrania, tworzone są cyfrowe odciski palców i porównywane w oparciu o takie cechy , jak gradienty kolorów i krawędzie . Ta technologia jest używana przez kilku dostawców.

Grupa na Facebooku używa filtrów przesyłania, aby zidentyfikować porno zemsty . Wykorzystywane są tutaj cyfrowe odciski palców, dla których osoby poszkodowane przesyłają zdjęcie do Facebooka. Na tej podstawie obliczany jest odcisk palca. Dodatkowo algorytmy z zakresu uczenia maszynowego powinny również rozpoznawać nieznane nagrania.

Ponadto rozważane są filtry przesyłania do filtrowania treści ekstremistycznych, co również proponuje „Rozporządzenie UE w sprawie zapobiegania rozpowszechnianiu treści terrorystycznych w Internecie” (TERREG).

Sytuacja prawna i polityczna

Na początku 2012 r. Europejski Trybunał Sprawiedliwości orzekł, że sieci społecznościowe nie są zobowiązane do stosowania automatycznego filtrowania przesyłania w celu sprawdzania wpisów użytkowników pod kątem naruszeń praw autorskich ze względu na zakaz ogólnego obowiązku monitorowania. Z drugiej strony wpływa to na swobodę przedsiębiorczości, ponieważ wymaga drogich systemów informatycznych. Organizacja zbiorowego zarządzania pozwała portal społecznościowy Netlog .

Od lat na szczeblu europejskim podejmowane są próby lepszej ochrony i monetyzacji własności intelektualnej . W UE istnieje wiele różnych sytuacji prawnych, na przykład w odniesieniu do wolności panoramy . Doprowadziło to do pewnego braku prawa na platformach cyfrowych, a tym samym do nowych wolności. Ma to na celu ograniczenie dyrektywy Parlamentu Europejskiego i Rady w sprawie praw autorskich na jednolitym rynku cyfrowym .

W umowie koalicyjnej 19. kadencji Bundestagu , przyjętej 7 lutego 2018 r., po raz pierwszy w Niemczech na najwyższym szczeblu politycznym zastosowano termin upload filter. W ten sposób najwyraźniej określono stanowisko gabinetu Merkel IV w sprawie reformy prawa autorskiego w Unii Europejskiej.

„Odrzucamy zobowiązanie platform do używania filtrów przesyłania w celu„ filtrowania ”treści przesyłanych przez użytkowników pod kątem treści naruszających prawa autorskie jako nieproporcjonalne. Należy unikać negatywnych skutków dla małych i średnich wydawców”.

- Umowa koalicyjna CDU, CSU i SPD.

Na drodze Dyrektywy UE przez Parlament Europejski toczyły się poważne dyskusje wewnątrz i na zewnątrz Parlamentu. W Niemczech i innych krajach setki tysięcy osób demonstrowało przeciwko dyrektywie UE w sprawie filtrowania plików.

Ze względu na złożoność technologii i dużą liczbę możliwych posiadaczy praw, Ulrich Kelber, jako Federalny Komisarz ds. Ochrony Danych i Wolności Informacji, ostrzegał przed pojawieniem się oligopoli technicznych , ponieważ wysokie koszty rozwoju zmuszają do kierowane przez filtry mniejszej liczby dostawców. Według pionierów Internetu Tima Berners-Lee i Vinta Cerfa , obowiązkowe filtry przesyłania tego typu mogą wyrządzić duże szkody darmowemu Internetowi.

Dyrektywa unijna została uchwalona w Parlamencie Europejskim 26 marca 2019 r. w takiej formie, że stosowanie filtrów przesyłania może stać się nowym standardem na platformach cyfrowych. Państwa członkowskie mają dwa lata na sformułowanie unijnej dyrektywy w krajowych tekstach prawnych. W grudniu 2019 r. Francja była pierwszym krajem, który przedstawił projekt ustawy, która kładzie duży nacisk na interesy osób eksploatujących prawa i pomija wiele przepisów ochronnych dyrektywy dla użytkowników Internetu. Na przykład nie ma wyjątków dla parodii, karykatur lub cytatów, że platformy nie mogą być zobowiązane do ogólnego monitorowania wszystkich przesyłanych treści, a także nie ma zakazu legalnego blokowania treści. Dalsze udoskonalenie sprawia, że ​​korzystanie z filtrów przesyłania jest nieuniknione, ponieważ posiadacze praw mogą odmówić udzielenia licencji, a platformy muszą udowodnić, że dołożyli wszelkich starań, aby zawrzeć umowy licencyjne z posiadaczami praw w celu uniknięcia odpowiedzialności.

Cenzura Internetu i ograniczenie wolności

Według krytyków takie filtry czasami pomagają w obsłudze cenzury internetowej i blokowaniu treści, które wcześniej naruszają określoną opinię. Może to zagrażać prawu do wolności wypowiedzi i wolności prasy . Obejmuje to również termin cenzura maszyn.

Podatność na błędy

Porównanie dwóch fragmentów treści w celu ustalenia, czy jeden fragment treści jest kopią drugiego, działa bardzo dobrze. Mówi się, że PhotoDNA ma stosunkowo wysoki poziom niezawodności.

Algorytmy osiągają swoje granice, gdy pliki są zmieniane lub manipulowane. To staje się trudne, gdy trzeba uwzględnić kontekst. Nie jest tak w każdej aplikacji. Głównym obszarem zastosowania PhotoDNA jest np. wykrywanie materiałów z pornografią dziecięcą. Jest to nielegalne w każdym kontekście. Jednak przy wykrywaniu naruszeń praw autorskich materiał musi być oceniany w różny sposób w zależności od kontekstu, aby odróżnić dozwolone parodie i cytaty od zabronionych naruszeń praw autorskich. Metody sztucznej inteligencji są wciąż niedojrzałe. Wiarygodna automatyczna klasyfikacja takich przypadków nie jest zatem obecnie uważana przez Floriana Gallwitza, profesora informatyki medialnej za możliwą, przez co w tym obszarze zastosowania nieuchronnie pojawiają się niepożądane skutki uboczne, takie jak nadmierne blokowanie.

Wielu dostawców internetowych filmów wideo krytykuje utratę dochodów z reklam z powodu nieprawidłowej klasyfikacji ich treści za pomocą filtrów przesyłania. Filmy, które w sposób rzeczowy lub rozrywkowy zajmują się krytycznymi tematami, można blokować bez naruszania wytycznych opartych na treści i pewnych schematycznych cechach filtra. Bardzo wątpliwe jest również wyrwanie poszczególnych słów w filmie z kontekstu, na przykład poprzez ocenę odtwarzanej obelgi jako nienawiść. To ogranicza swobodę artystyczną, na przykład, w satyrę .

Jednak niektóre filtry przesyłania powinny nie tylko rozpoznawać znane materiały, ale powinny również być w stanie klasyfikować nowe treści w oparciu o uczenie maszynowe, takie jak filtry przesyłania używane przez Facebooka. Jednak zawsze prowadzi to do błędnych klasyfikacji. Aby przeciwdziałać fałszywym identyfikacjom, jakich można się spodziewać przy takim podejściu, Facebook poddaje również nagrania ręcznej kontroli.

Według dostawcy, gdy na platformie wideo YouTube wykryto treści o charakterze terrorystycznym, w pierwszym kwartale 2019 roku jego własne oprogramowanie filtrujące sklasyfikowało milion filmów jako podejrzane. Spośród nich 90 000 filmów zostało potwierdzonych poprawnością podczas ręcznej kontroli, co odpowiada dokładności poniżej 10%.

Zobacz też

linki internetowe

Indywidualne dowody

  1. a b c d so Frank Pallas, TU Berlin, na Deutschlandfunk: Jan Rähm: Uploadfilter. Dlaczego krytycy boją się cenzury. 9 marca 2019, dostęp 22 marca 2019 (wiele szczegółów technicznych plus krótka historia).
  2. ^ B Florian Gallwitz, profesora informatyki mediów, Politechniki Georg Simon Ohm Norymberdze: Prawa autorskie reformujący UE: Eksperci o Wrzuć Filtry. Na pytanie, jak niezawodne byłyby filtry przesyłania w trudnych przypadkach, na przykład przy ocenie wkładów satyrycznych. 8 marca 2019, dostęp 13 marca 2019 (otrzymany przez Deutsche Welle : Memy mogą być odfiltrowane przez prawo autorskie UE , 13 marca 2019).
  3. PhotoDNA: krok po kroku. Microsoft, 21 września 2013, zarchiwizowane z oryginału ; udostępniono 14 marca 2019 r .
  4. a b heise online: Filtr przesyłania: Facebook i Instagram automatycznie usuwają pornografię zemsty. Źródło 17 marca 2019 .
  5. Komentarz Simona Hurtza: Ten kompromis zagraża bezpłatnej sieci . W: sueddeutsche.de . 13 lutego 2019, ISSN  0174-4917 ( sueddeutsche.de [dostęp 13 marca 2019]).
  6. Sonja Peteranderl, DER SPIEGEL: W ten sposób UE chce ograniczać treści terrorystyczne w Internecie – DER SPIEGEL – Netzwelt. Źródło 14 stycznia 2020 .
  7. ETS zatrzymuje filtry przesyłania do sieci społecznościowych. W: sueddeutsche.de. 16 lutego 2012, dostęp 4 stycznia 2019 .
  8. Nowy wyjazd do Europy. Nowa dynamika dla Niemiec. Nowa spójność dla naszego kraju. Umowa koalicyjna CDU, CSU i SPD. XIX kadencja (gabinet Merkel IV) , s. 49, wiersze 2212–2214, 12.03.2018, dostęp 7.03.2019.
  9. Federalny Komisarz ds. Ochrony Danych i Wolności Informacji, reforma prawa autorskiego również niesie ze sobą ryzyko dla ochrony danych , Bonn/Berlin 26 lutego 2019 (komunikat prasowy online)
  10. List otwarty EFR: Artykuł 13 dyrektywy UE w sprawie praw autorskich zagraża internetowi , 12 czerwca 2018 r.
  11. N° 2488 - Projekt relacji dotyczących komunikacji audiowizualnej i kultury lokalnej w zakresie numeru. Źródło 14 stycznia 2020 (w języku francuskim).
  12. Julia Reda: Francja przedstawia przepisy dotyczące filtrów przesyłania, „zapomina” o prawach użytkownika. W: JuliaReda.pl. Źródło 14 stycznia 2020 .
  13. Holger Bleich: Komisja Europejska wzywa do stosowania filtrów przesyłania. W: heise.de. Źródło 17 marca 2018 .
  14. a b Wywiad z Simonem Hurtzem: Te filtry przesyłania byłyby prawdziwymi maszynami do cenzury . W: sueddeutsche.de . 20 czerwca 2018, ISSN  0174-4917 ( sueddeutsche.de [dostęp 14 marca 2019]).
  15. YouTube – MrTrashpack krytykuje mocno spadły przychody. W: playnation.de. Źródło 17 marca 2018 .
  16. Benjamin Köhler: YouTube denerwuje użytkowników wskazówkami reklamowymi. W: derwesten.de. Źródło 17 marca 2018 .
  17. ^ David Shepardson: Google wydaje setki milionów dolarów na przegląd treści: list. Reuters, 2 maja 2019 r., dostęp 6 maja 2019 r .