Wer ist eigentlich dieser Artikel 13?
Das EU-Parlament wird mit seiner abzustimmenden Richtlinie möglicherweise eine Reform in Kraft setzen, die das Internet verändern könnte. Und manche Dinge gehen dann tatsächlich nicht mehr so einfach. Welche das aber sind, muss man sich etwas genauer angucken. Viele Fragen – einige Antworten.
von Winfried Hyronimus
Vorbemerkungen
Im vorliegenden Beitrag möchte ich zum aktuellen Diskurs, betreffend eine neue EU-Richtlinie, einige kurze Erläuterungen geben. Hierbei werde ich mich vorwiegend auf Artikel 13 des Richtlinienentwurfs beschränken, da dieser im Blickpunkt des öffentlichen Interesses derzeit den meisten Raum einnimmt und auch offenbar für die meisten Kontroversen sorgt. Insbesondere sollen hierbei Fragestellungen der Verhältnismäßigkeit, der Abwägung von Grundrechten und der Konsequenzen für Nutzer und Anbieter im Wirkungsbereich der Richtlinie erörtert werden.
Diese lassen sich in 10 Punkte aufteilen:
- Wer ist Adressat der neuen Richtlinie?
- Welche neuen Pflichten bringt die Richtlinie mit sich?
- Wie soll nach der Richtlinie die Durchsetzung dieser Pflichten aussehen?
- Sind dabei bestimmte Maßnahmen vorgeschrieben oder unumgänglich?
- Wird mit der Richtlinie eine Pflicht zur allgemeinen Überwachung von Inhalten auferlegt?
- Sind die Maßnahmen, zu denen Plattformen verpflichtet werden, verhältnismäßig?
- Ist der Nutzer durch die Richtlinie für Urheberrechtsverletzungen haftbar?
- Werden die Verpflichtungen der Richtlinie zu Einschränkungen für Nutzer führen?
- Schränkt die Richtlinie die freie Meinungsäußerung ein?
- Ermöglicht die Richtlinie den Missbrauch oder das Ausspähen von Nutzerdaten?
Dieser Beitrag ist als FAQ aufgebaut, kann jedoch auch am Stück gelesen werden.
Allgemeines
Um welche Richtlinie geht es?
Konkret geht es um den Vorschlag einer Richtlinie über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der Richtlinien 96/9/EG und 2001/29/EG. (Englische Bezeichnung: Proposal for a Directive of the European Parliament and of the Council on Copyright in the Digital Single Market).
Dieser wurde nach mehrmaliger Revision im Trilog zur Einigung gebracht und zuletzt vom Rechtsausschuss des Parlaments angenommen. Die neue Richtlinie soll die Regulierungen der bislang noch gültigen E-Commerce-Richtlinie 2000/31/EG ersetzen.
Die endgültige Abstimmung im Parlament soll am Dienstag, den 26. März stattfinden.
Pressemitteilungen des EU-Parlaments die die aktuelle Version betreffen:
- 14.02.2019: (Einigung durch Verhandlungsführer des Parlaments und des Rates)
- 26.02.2019: (Bestätigung durch den Rechtsausschuss)
Nachtrag, 26. März: Der Richtlinienvorschlag wurde vom EU-Parlament angenommen. Die Richtlinie trägt die Bezeichnung Richtlinie (EU) 2019/790 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der Richtlinien 96/9/EG und 2001/29/EG. Im Volltext ist diese hier zu finden: Richtlinie (EU) 2019/790.
Wo kann man den Text des Richtlinienvorschlags lesen?
Antwort: Hier. Im Text wird diese Fassung als Trilogfassung bezeichnet.
Vorsicht: Es gibt mehrere Versionen davon, da der Vorschlag zur Änderung der Richtlinie mehrmals überarbeitet wurde. Zahlreiche Veröffentlichungen beziehen sich auf den Text der Richtlinie in der Fassung von 2016.
Eine deutsche Fassung war zum Zeitpunkt der Erstveröffentlichung dieses Beitrags nicht verfügbar, mittlerweile wurde diese herausgegeben. Link zur deutschen Beschlussfassung: Hier.
Vorsicht: In der deutschen Fassung sind die Nummern der Artikel aus redaktionellen Gründen geändert. Artikel 13, der Hauptgegenstand dieses Beitrags und der dazugehörigen öffentlichen Debatte war, ist daher in der deutschsprachigen Fassung nun Artikel 17. Wo notwendig, sind Übersetzungen übernommen und mit den neuen Artikelnummern referenziert.
Worum geht es in der Richtlinie?
Antwort: Das steht drin. Jeder ist ausdrücklich aufgefordert, den Text selbst zu lesen.
Besonders relevant sind jedoch drei Dinge:
- Plattformanbieter, die mit von Nutzer hochgeladenen Inhalten Geld verdienen, sollen zum Erwerb von Lizenzen für urheberrechtlich geschützte Inhalte verpflichtet werden.
- Kommen sie beiden Verpflichtungen nicht oder unzulänglich nach, sind sie dafür haftbar. Das sog. Haftungsprivileg der bestehenden Richtlinie wird damit für bestimmte Plattformanbieter aufgehoben.
- Sie sollen ebenso Maßnahmen gegen rechtswidrige Veröffentlichung urheberrechtlich geschützter Inhalte einsetzen.
Der wichtigste Punkt ist die Lizenzpflicht. Sie wird abgehandelt in Abs. 1 der Artikel 13 bzw. 17.
Die Mitgliedstaaten sehen vor, dass ein Diensteanbieter für das Teilen von Online-Inhalten eine Handlung der öffentlichen Wiedergabe oder eine Handlung der öffentlichen Zugänglichmachung für die Zwecke dieser Richtlinie vornimmt, wenn er der Öffentlichkeit Zugang zu von seinen Nutzern hochgeladenen urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen verschafft.
Ein Diensteanbieter für das Teilen von Online-Inhalten muss deshalb die Erlaubnis von den in Artikel 3 Absatz 1 und 2 der Richtlinie 2001/29/EG genannten Rechteinhabern einholen, etwa durch den Abschluss einer Lizenzvereinbarung, damit er Werke oder sonstige Schutzgegenstände öffentlich wiedergeben oder öffentlich zugänglich machen darf.
Die Aufhebung des Haftungsprivilegs (in Deutschland: § 8 TMG) wird in Abs. 3 festgehalten:
Nimmt ein Diensteanbieter für das Teilen von Online-Inhalten eine Handlung der öffentlichen Wiedergabe oder der öffentlichen Zugänglichmachung unter den in diesem Artikel festgelegten Bedingungen vor, so findet die Beschränkung der Verantwortlichkeit nach Artikel 14 Absatz 1 der Richtlinie 2000/31/EG auf die in diesem Artikel beschriebenen Situationen keine Anwendung.
Die Plattformanbieter werden ferner zum Einsetzen von Maßnahmen gegen das rechtswidrige Einstellen urheberrechtlich geschützter Inhalte verpflichtet.
Dies regelt Art. 13 bzw. Art. 17 Abs. 4:
Wird die Erlaubnis nicht erteilt, so ist der Diensteanbieter für das Teilen von Online-Inhalten für nicht erlaubte Handlungen der öffentlichen Wiedergabe, einschließlich der öffentlichen Zugänglichmachung, urheberrechtlich geschützter Werke oder sonstiger Schutzgegenstände verantwortlich, es sei denn, der Anbieter dieser Dienste erbringt den Nachweis, dass er
- alle Anstrengungen unternommen hat, um die Erlaubnis einzuholen; und
- nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen hat, um sicherzustellen, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Anbietern dieser Dienste einschlägige und notwendige Informationen bereitgestellt haben, nicht verfügbar sind; und in jedem Fall
- nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern unverzüglich gehandelt hat, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. die entsprechenden Werke oder sonstigen Schutzgegenstände von seinen Internetseiten zu entfernen, und alle Anstrengungen unternommen hat, um gemäß Buchstabe b das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern.
Die o. a. Verpflichtungen unterliegen jedoch Beschränkungen. Näheres hierzu im Folgenden.
Wichtig: Der Richtlinienentwurf schafft keine neuen Rechte für Kreative. Er soll jedoch sicherstellen, dass bestehende Rechte besser durchgesetzt werden. Der Entwurf schafft strenggenommen auch keine neuen Verpflichtungen für Online-Plattformen oder Nachrichtenaggregatoren, allerdings strengere Vorgaben zur Einhaltung bestehender Verpflichtungen.
Wer ist von der Richtlinie betroffen?
Antwort: Wer ein Journal wie dieses liest, mit höchster Wahrscheinlichkeit nicht.
Tatsächlich betrifft die Richtlinie sogenannte Online Content Sharing Service Provider (OCSSP). Die Richtlinie hält zur Definition eines solchen in Abs. 37a / Abs. 62 fest:
Die für die vorliegende Richtlinie geltende Begriffsbestimmung von Diensteanbietern für das Teilen von Online-Inhalten sollte sich nur auf Online-Dienste beziehen, die auf dem Markt für Online-Inhalte eine wichtige Rolle spielen, indem sie mit anderen Online-Inhaltediensten, wie Audio- und Video-Streamingdiensten, um dieselben Zielgruppen konkurrieren. Die vorliegende Richtlinie gilt für Dienste, deren wichtigster Zweck es ausschließlich oder unter anderem ist, eine große Menge von urheberrechtlich geschützten Inhalten zu speichern und Nutzern das Hochladen und Weiterleiten dieser Inhalte zu ermöglichen, um daraus in direkter oder indirekter Weise Gewinne zu ziehen, indem die Inhalte mit dem Ziel, ein größeres Publikum anzuziehen, strukturiert und beworben werden, auch indem die Inhalte Kategorien zugeordnet werden und gezielte Werbung in die Inhalte eingefügt wird.
Es ergibt sich bereits infolge der ersten drei Kriterien der Ausschluss für die allermeisten Plattformen, darunter fallen nichtkommerzielle wie auch Plattformen ohne ernstzunehmende Marktbedeutung, d. h. Anteil des Umsatzes am Umsatz aller Anbieter insgesamt.
Kriterien sind nach Abs. 37a:
- Plattform wird mit Gewinnerzielungsabsicht betrieben
- Plattform mit nennenswerter bis erheblicher Marktbedeutung
- Plattform verfolgt den hauptsächlichen bis wesentlichen Zweck, Nutzern das Speichern und Veröffentlichen großer Mengen urheberrechtlich geschützter Inhalte zu ermöglichen
- Plattform organisiert o. g. Inhalte, bereitet diese auf und bewirbt diese
Fazit: Ziel der Richtlinie sind große Unternehmen.
Warum wird eine solche Richtlinie benötigt?
Antwort: Diese Frage könnte man in einem extra Beitrag abhandeln, da sie sehr weit führt.
Derzeit erwirtschaften große Plattformen stattliche Profite mit Inhalten, die ihnen nicht gehören. Die Urheber der Inhalte, dies sind in den gängigsten Fällen Musiker, Filmschaffende, Designer, (Drehbuch-) Autoren, Journalisten und weitere Künstler, gehen dabei meist leer aus, und können von ihrer Arbeit nur noch schwer leben.
Das Leitproblem hierbei sind fehlende Lizenzvereinbarungen für Inhalte, für die dementsprechend auch keinerlei Tantiemen für Urheber generiert werden, die über Verwertungsgesellschaften eingezogen und ausgeschüttet werden können.
Umsetzung
Was ist ein „Upload-Filter“?
Antwort: Eine Software, die vor der Veröffentlichung eines hochgeladenen Inhalts diesen auf ein bestimmtes Kriterium prüft. Je nachdem, worauf geprüft wird und wie der Filter programmiert ist, kann die Veröffentlichung so verhindert oder zugelassen werden.
Wichtig zu verstehen dabei sind zwei Dinge:
- Ein Upload-Filter basiert grundsätzlich auf einer Software zur Inhaltserkennung (Inhaltserkennungstechnologie).
- Er stellt jedoch bereits eine ganz bestimmte Implementierung dieser dar, da diese so zur Vorabkontrolle eingesetzt wird.
Algorithmen zur Inhaltserkennung sind bereits auf vielen großen Plattformen im Einsatz, funktionieren dort aber in der Regel nicht als „Upload-Filter“ im engeren Sinne, da sie nicht vor der Veröffentlichung angewandt werden. Treffender könnten diese als „Scanner“ bezeichnet werden. Soziale Netzwerke wie Facebook, Twitter, früher auch studiVZ nutzen diese beispielsweise zur Detektion anstößiger oder jugendgefährdender Inhalte. Ein aktueller Anlass war beispielsweise die Eindämmung der Verbreitung von Videos des Anschlags von Christchurch. Sinnvolle Anwendungen solcher Algorithmen existieren also durchaus; ebenso stellen z. T. banale Hintergrundfunktionen wie etwa Sortierungs-, Such- oder Indexierungsdienste genauso Inhaltserkennungstechnologien im weiteren Sinne dar. Der Einsatz dieser ist jedoch weit weniger umstritten.
Inhaltserkennungstechnologien sind übrigens keineswegs eine neue Erfindung, der für den Durchschnittsanwender gängige Anwendungsfall ist z. B. OCR (Optical Character Recognition), Texterkennungssoftware für Scanner. Nahezu jeder wird auch einmal Spracherkennung beim Mobiltelefon oder im Auto verwendet oder gesehen haben. Seit einiger Zeit haben mit Apps wie Shazam oder SoundHound auch Algorithmen zur Identifikation von Musikstücken den Weg ins Massenpublikum gefunden.
Für alle Technologien zur Inhaltserkennung gilt allerdings: Sie sind bisher noch nicht so weit entwickelt dass sie wirklich gut funktionieren. Algorithmen können bestenfalls eine Hilfsfunktion übernehmen, nicht aber autonom agieren. Verhältnismäßig gut aufspüren können sie zwar sogenannte digitale Wasserzeichen (spezielle Signaturen, die die Identifikation von Mediendateien ermöglichen) – das setzt aber voraus, dass diese auch vorhanden sind. Eine tatsächliche Kontrolle von Inhalten mittels „Upload-Filter“ wäre daher technisch (wenn überhaupt) nur sehr eingeschränkt möglich.
Um so mehr verwundert es, welchen Raum dieser Begriff angesichts o. a. Sachverhalte in der die Richtlinie betreffenden Diskussion einnimmt.
Werden durch die Richtlinie solche „Upload-Filter“ verpflichtend eingeführt?
Antwort: Nein.
Die Richtlinie gibt keinen bestimmten Weg vor, auf dem ihre Vorgaben erreicht werden sollen.
Die Richtlinie enthält weiterhin mit Art. 13 Abs. 7 / Art. 17 Abs. 8 den klaren Hinweis, dass aus der Anwendung des Artikels keinerlei allgemeine Überwachungspflicht für Inhalte resultieren darf, und verpflichtet die Anbieter zur transparenten Darlegung ihrer Maßnahmen:
Die Anwendung dieses Artikels darf nicht zu einer Pflicht zur allgemeinen Überwachung führen.
Die Mitgliedstaaten sehen vor, dass Diensteanbieter für das Teilen von Online-Inhalten den Rechteinhabern auf deren Ersuchen angemessene Informationen über die Funktionsweise ihrer Verfahren im Hinblick auf die Zusammenarbeit nach Absatz 4 und – im Fall von Lizenzvereinbarungen zwischen den Anbietern dieser Dienste und den Rechteinhabern – Informationen über die Nutzung der unter diese Vereinbarungen fallenden Inhalte bereitstellen.
An dieser Stelle fragt man sich natürlich, warum die Diskussion fortwährend um diesen Begriff kreist. Gegner der Richtlinie begründen dies damit, dass der Plattformanbieter ab Veröffentlichung eines nicht lizenzierten Werks für dieses in die Haftung genommen werden kann, was eine Vorabkontrolle unerlässlich mache.
Wir betrachten daher Artikel 13 Absatz 4 / Art. 17 Abs. 4, der die Verpflichtungen der Plattformanbieter im Detail reguliert.
Wird die Erlaubnis nicht erteilt, so ist der Diensteanbieter für das Teilen von Online-Inhalten für nicht erlaubte Handlungen der öffentlichen Wiedergabe, einschließlich der öffentlichen Zugänglichmachung, urheberrechtlich geschützter Werke oder sonstiger Schutzgegenstände verantwortlich, es sei denn, der Anbieter dieser Dienste erbringt den Nachweis, dass er
- alle Anstrengungen unternommen hat, um die Erlaubnis einzuholen; und
- nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen hat, um sicherzustellen, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Anbietern dieser Dienste einschlägige und notwendige Informationen bereitgestellt haben, nicht verfügbar sind; und in jedem Fall
- nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern unverzüglich gehandelt hat, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. die entsprechenden Werke oder sonstigen Schutzgegenstände von seinen Internetseiten zu entfernen, und alle Anstrengungen unternommen hat, um gemäß Buchstabe b das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern.
Hieraus geht hervor: Der Plattformanbieter ist – theoretisch jedenfalls – für jeden Übermittlungsvorgang eines nicht lizenzierten urheberrechtlich geschützten Werks haftbar. Eine grundsätzliche Verpflichtung, vor der Veröffentlichung sicherzustellen dass die nutzerseitig hochgeladenen Werke nicht urheberrechtlich geschützt oder lizenziert sind, folgt jedoch hieraus eben nicht. (Dies ist der gängigste Irrtum).
Zum näheren Verständnis ein kurzer Blick nach Deutschland zurück. Derartige Verpflichtungen sind nämlich keineswegs etwas neues. Entsprechende Urteile existieren in Deutschland bereits seit längerer Zeit, wenn auch nicht exakt im gleichen Kontext, siehe hierzu:
Besonders interessant ist jedoch die vorausgegangene Entscheidung:
Interessant ist diese aus zwei Gründen.
Der erste: Darin werden bereits „Filter“ – in diesem Fall „Wortfilter“ – behandelt, nur mit einem wichtigen Zusatz: manuelle Nachkontrolle. Wir erinnern uns: Algorithmen können nicht autonom handeln, jedoch möglicherweise Hilfsfunktionen übernehmen.
Der zweite: Das dort genannte Kriterium des technisch und wirtschaftlich Zumutbaren. Mit der auferlegten Pflicht zur Verhinderung des Zugänglichmachens urheberrechtlich geschützter Werke geht daher hier (und ebenso in Art. 13 / Art. 17 Abs. 4) keineswegs eine Zwangsverpflichtung zu existenzbedrohenden oder unmöglichen Maßnahmen einher.
Voraussetzung für jegliche Prüfung ist in jedem Fall, dass der Betreiber wie in Absatz 4 b) von Art. 13 / Art. 17 vermerkt mit den notwendigen Informationen versorgt sein muss.
Der Vollständigkeit halber:
Der Tenor der zitierten Entscheidungen sollte deutlich erkennbar sein. Als wichtiger Hinweis: Diese beziehen sich auf einen Anbietertyp, dessen Geschäftsmodell dem von Cloud-Diensten wie Dropbox am ähnlichsten wäre und daher unter die in der Richtlinie genannten Ausnahmen fallen würde. Die Rechtsprechung auf EU-Mitgliedsstaatenebene hat die Verpflichtungen von Plattformen z. T. somit deutlich strenger ausgelegt.
Wir halten fest: Es gibt keine grundsätzliche Pflicht zum Prüfen sämtlicher (potentiell urheberrechtlich geschützter) Inhalte für Plattformen, jedoch durchaus für bestimmte Werke, wenn diese betreffend Urheberrechtsverletzungen gemeldet werden.
Wir halten ebenso fest: Die Richtlinie verpflichtet nur zur Unternahme „aller Anstrengungen“ bzw. zum „best effort“, sowohl was den Lizenzerwerb als auch die Maßnahmen gegen rechtswidrig hochgeladene Inhalte angeht. Bestimmte technische oder sonstige Verfahren sind dabei nicht vorgeschrieben. Dies gilt auch für das formulierte Ziel, „das künftige Hochladen“ bestimmter Werke zu verhindern.
Um die Antwort auf die Frage zuende zu führen:
Die Bedingungen des Abs. 4 können durch den Einsatz von sog. „Upload-Filtern“ als erfüllt betrachtet werden, die Behauptung jedoch dass diese sich ausschließlich durch den Einsatz solcher erfüllen lassen, ist schlicht und ergreifend falsch, insbesondere deshalb, weil damit – tatsachenwidrig – suggeriert wird dass diese für alle Plattformen zur Auflage gemacht würden, was für kleinere Plattformen nicht zu leisten sei.
Einer der wesentlichen Aspekte dabei ist: Selbst mit einer Vorabkontrolle durch Inhaltserkennungstechnologien würde bedingt durch technische Unzulänglichkeiten dieser nur ein Teil der widerrechtlich hochgeladenen Inhalte erkannt. Ob deren Einsatz vor der Veröffentlichung hochgeladener Inhalte, unwesentliche Zeit nach dieser oder stichprobenartig erfolgt, ist dabei eher von untergeordneter Bedeutung, da das Ergebnis gleich schlecht bleiben wird. Umso befremdlicher wirkt in Anbetracht dessen, dass die Diskussion fortwährend auf den Begriff der „Upload-Filter“ verengt wird.
Wesentlich relevanter sind jedoch andere Möglichkeiten. Welche es da gibt, erklärt der Abschnitt: Bedroht die Reform kleine Unternehmen?
Fazit: Die Quadratur des Kreises einer Zielvorgabe, die praktisch nicht zu erfüllen ist, jedoch zugleich mit der Verpflichtung zu „allen Anstrengungen“ ihrer Erfüllung möglichst nahezukommen einhergeht, mag verwirren. Tatsächlich trifft sie exakt den Kern des Problems: Das Ziel der Richtlinie ist Lizenzieren, nicht Sperren oder „Filtern“.
Trotzdem muss man sich auch mit der häufig gestellten Frage / Vermutung befassen:
Gibt es zwar keine explizite, aber implizite Pflicht für „Upload-Filter“?
Antwort: Lässt sich in diesem Fall nur differenziert geben.
Eine Vorgabe zum Einsatz von Inhaltserkennungstechnologien ist in der Richtlinie nicht enthalten, daher gibt es selbstverständlich auch keine Vorgabe zu deren konkreter Implementierung.
Zahlreiche Sachverständige sowie auch die Bundesregierung haben bestätigt, dass jedenfalls bei großen Plattformen der Einsatz von Algorithmen zur Inhaltserkennung mit hoher Wahrscheinlichkeit erfolgen wird. Dies jedoch ist nicht gleichzusetzen mit einer Verpflichtung für „Upload-Filter“ (wenn auch irreführenderweise im verlinkten Artikel der FAZ so bezeichnet).
Die Betonung liegt 1. einhellig diese betreffend auf großen Plattformen, mit entsprechend genauso großen hochgeladenen Datenmengen, die in der Tat nicht mehr ohne Zuhilfenahme von Algorithmen gesichtet / verarbeitet werden können. Ob diese 2. in Form einer Vorabkontrolle, d. h. tatsächlich als „Filter“ fungieren ist damit des Weiteren eben nicht festgestellt, da derartige Algorithmen auf verschiedenste Art eingesetzt werden können, beispielsweise zunächst nur „Verdachtsfälle“ ausfindig machen, die dann durchaus händisch – da in wesentlich geringerer Anzahl vorhanden – kontrolliert werden.
An der bestehenden Situation ändert das darüber hinaus wenig. Besagte Plattformen entsprechender Größe setzen Inhaltserkennungstechnologien bereits lange ein, eher mit mäßigem als gutem Erfolg. Hieraus erklärt sich, warum sie in der Richtlinie nicht vorgesehen sind und noch unwahrscheinlicher ist es, dass ein Gericht diese für obligatorisch erklären würde, da sie kein sonderlich probates Mittel zur Kontrolle von Informationen darstellen, erst recht nicht im autonomen Einsatz. (vgl. hierzu auch Urteile des BGH im letzten Abschnitt).
Fazit: Eine de-facto-Verpflichtung zum Einsatz von Inhaltserkennungstechnologien wäre höchstens für große Plattformen zu bejahen, die diese ohnehin bereits einsetzen.
Trotzdem führt dieser Einwand zur nächsten Frage:
Bedroht die Reform kleine Unternehmen, die über derartige Technologien nicht verfügen?
Antwort: Nein. In der Richtlinie finden sich dazu mindestens zwei Lösungswege.
Der erste findet sich in Artikel 13 Abs. 4aa / Art. 17 Abs. 6: Ausnahmen für Start-Ups. Für kleine und junge Unternehmen, sog. Start-Ups, sind explizit Ausnahmen vorgesehen. Die Haftung sowie Prüfpflichten sind deutlich gelockert, wenn das Angebot eines Unternehmens weniger als drei Jahre verfügbar ist, das Unternehmen einen Umsatz unter 10 Mio. € erwirtschaftet und das Unternehmen unter 5 Mio. ermittelter Zugriffe pro Monat auf seine Dienste liegt. (Alle drei Kriterien müssen nach aktuellem Stand des Richtlinienentwurfs erfüllt sein).
Der zweite findet sich in Artikel 9a / Art. 12: Erwerb von Pauschallizenzen. Plattformen können in Abhängigkeit von ihrer Reichweite, angebotenem Inhalt usw. individuelle Pauschallizenzen mit Kollektivverwertungsgesellschaften – in Deutschland GEMA, VG Wort, VG Bildkunst, etc. – aushandeln. (Ähnlich funktioniert das schon lange z. B. bei kleineren Radiosendern). Die Richtlinie sieht vor, dass solche Lizenzen auch auf Nutzungsrechte ausgeweitet werden können, deren Inhaber noch nicht Mitglieder der entsprechenden Gesellschaft sind. Dies wird auch bezeichnet als „Extended Collective License“ (ECL). Für eine entsprechende Einigung mit dem Rechteinhaber ist dann diese Kollektivverwertungsgesellschaft zuständig, ebenso kann der Urheber jedoch einer weiteren Nutzung widersprechen, wenn er dies nicht wünscht.
Für Rechteinhaber im Ausland bestehen Gegenseitigkeitsvereinbarungen der Kollektivverwertungsgesellschaften. Eine Vertragspflicht „mit der ganzen Welt“ existiert aus leicht ersichtlichen Gründen nicht.
Haftbar ist ein Plattformanbieter nach Art. 13 / Art. 17 Abs. 4 (theoretisch) für jeden Übermittlungsvorgang eines nicht lizenzierten Werks, außer die in Abs. 4 genannten Bedingungen (siehe letzter Abschnitt) wurden erfüllt. Mit dem Erwerb einer Pauschallizenz sollte Abs. 4 Abschnitt a) bereits erfüllt sein.
Für alle Maßnahmen jedoch, zu denen ein Plattformanbieter verpflichtet ist gilt der Grundsatz der Verhältnismäßigkeit. Dieser ist festgehalten in Absatz 4a bzw. Abs. 5:
Bei der Feststellung, ob der Diensteanbieter den in Absatz 4 festgelegten Verpflichtungen nachgekommen ist, wird im Lichte des Grundsatzes der Verhältnismäßigkeit unter anderem Folgendes berücksichtigt:
- die Art, das Publikum und der Umfang der Dienste sowie die Art der von den Nutzern des Dienstes hochgeladenen Werke oder sonstigen Schutzgegenstände; und
- die Verfügbarkeit geeigneter und wirksamer Mittel und die Kosten, die den Anbietern dieser Dienste hierfür entstehen.
Neben dem bereits genannten Verhältnismäßigkeitsgrundsatz (principle of proportionality), der in einem Rechtsstaat ohnehin verbindlich ist, werden hier Entscheidungskriterien für die Erfüllung der Bedingungen des Absatz 4 festgelegt. Der wichtigste Satz steht ganz am Schluss: Die Verfügbarkeit angemessener und wirksamer Maßnahmen, sowie deren Kosten für die Diensteanbieter.
Wir halten fest: Zu Maßnahmen, die für den Plattformanbieter (etwa personell oder aus Kostengründen) nicht zu leisten sind, oder technisch an der Grenze der Unmöglichkeit liegen, kann er auch nicht verpflichtet werden.
Fazit: Die Richtlinie sieht neben ihrer bereits erläuterten Selbstbeschränkung Ausnahmen sowie anpassbare Lösungswege für kleine und mittelständische Unternehmen vor, die die Belastungen für diese auf das vertretbare Maß beschränken. Auf den rechtstaatlich allgemeingültigen Grundsatz der Verhältnismäßigkeit wird weiter verwiesen.
Ein kleiner Vorgriff auf den nächsten Abschnitt ist hier interessant. In der einschlägigen Kommentarliteratur des deutschen Grundgesetzes findet sich der Hinweis:
Bei erdrosselnden Abgaben kann (...) ein Verbot oder eine Behinderung i. S. des technischen Zensurbegriffs vorliegen.
– Starck / Paulus, II. Zensurverbot, Art. 5 GG Abs. 1 S. 3 in: v. Mangoldt / Klein / Starck, Kommentar zum Grundgesetz: GG Rn 263 / S. 640
Eine Verpflichtung zu Abgaben (etwa in Form von Lizenzgebühren), die einem Anbieter faktisch den Weiterbetrieb seiner Plattform verunmöglichen, wäre daher jedenfalls mit dem Grundgesetz unvereinbar.
Ist das Zensur? Oder ermöglicht das Zensur?
Antwort: Der Begriff „Zensur“ bezeichnet staatliche Aufsicht über Veröffentlichungen. (vgl. hierzu Köbler: Juristisches Wörterbuch, Verlag Vahlen, für erste Definition). Das ist hier definitiv nicht der Fall. Eine solche wäre nach Art. 5 Abs. 1 Satz 3 des Grundgesetzes sowie ebenso der EU-Grundrechtecharta völlig offensichtlich verfassungswidrig.
Der Zensurvorwurf wird in der Diskussion um Artikel 13 beharrlich aufrechterhalten und hat für eine erhebliche Emotionalisierung dieser gesorgt. Es ist daher um so wichtiger, sich gründlich mit diesem auseinander zu setzen. Wir beginnen mit der Rechtsgrundlage, namentlich dem Verbot der Zensur im deutschen Grundgesetz:
Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt.
– Art. 5 Abs. 1 GG
Zur näheren Definition findet sich in einschlägiger Fachliteratur:
Zensur i. S. d. Art. 5 Abs. 1 S. 3 ist ein präventives Verfahren, „vor dessen Abschluss ein Werk nicht veröffentlicht werden darf.“ (BVerfGE 87,209/230). Dazu gehören auch Eingriffe in die Grundrechte des Abs. 1, deren Folgen einem präventiven Verfahren faktisch gleichkommen. (Bethge, SA, Art. 5 Rn 135b; Gucht, 135ff; unklar E87 209/232f). Erfaßt ist nur die sog. Vor- oder Präventivzensur (aA Hoffmann-Riem, Hdb. VerfR, S. 221). Nachträgliche Kontroll- und Repressionsmaßnahmen sind dagegen solange zulässig, als sie sich im Rahmen der dargestellten Schranken des Art. 5 Abs. 2 halten.
– Pieroth / Schlink, Rn 605 / S. 151
Wir halten fest: Zensur ist ein präventives Verfahren, das heißt, sie muss vor der Veröffentlichung vorgeschrieben sein. Dies wäre ein Kriterium, das für den Fall eines „Upload-Filters“ i. e. S. zunächst als erfüllt betrachtet werden könnte. Genauer spezifiziert hier die Kommentarliteratur des deutschen Grundgesetzes:
Unter Vorzensur ist die präventive Vorschaltung eines behördlichen Verfahrens zu verstehen, welche die Abfassung, Herstellung oder Verbreitung eines Werkes von behördlicher Vorprüfung oder Genehmigung seines Inhalts abhängig macht (BVerfGE 33,52/72, 47,198/236, 73,118/166, 87,209/230; Schmidt-Jortzig in HStR, Bd. VII, 3. Aufl. 2009, § 162 Bd. Rn 25 ff).
– von der Decken, Art. 5 GG in: Schmidt-Bleibtreu, Kommentar zum Grundgesetz, Rn 39 / S. 349
Als Zensur gilt nicht jedes beliebige präventive Verfahren, sondern nur jedes behördliche. Der Mangoldt-Kommentar führt neben der Bestätigung des bereits genannten weiter aus:
Der technische Zensurvorgang besteht aus vier Elementen: Verbot der Meinungsäußerung ohne besondere Erlaubnis; Gebot, Meinungsäußerungen vor der Veröffentlichung einer Behörde vorzulegen; Erlaubnis oder Verbot durch die Behörde; Zwangsmittel der Behörde, um Verbote durchzusetzen.
– Starck / Paulus, II. Zensurverbot, Art. 5 GG Abs. 1 S. 3 in: v. Mangoldt / Klein / Starck, Kommentar zum Grundgesetz: GG Rn 259 / S. 639
Ebenso wird klargestellt:
Das Zensurverbot betrifft nur staatliche Maßnahmen, und Maßnahmen von anderen Trägern öffentlicher Gewalt, die vom Staat abhängig sind (...) .
– ebd., Rn 264 / S. 641
Artikel 11 der Grundrechtecharta der EU ist diesbezüglich ebenfalls eindeutig gefasst:
Jede Person hat das Recht auf freie Meinungsäußerung. Dieses Recht schließt die Meinungsfreiheit und die Freiheit ein, Informationen und Ideen ohne behördliche Eingriffe und ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben.
– Art. 11 Abs. 1 GRCh
Wir halten also fest: Sowohl Artikel 5 I 3 GG als auch Artikel 11 der EU-Grundrechtscharta regeln ausschließlich staatliche Eingriffe in das Recht auf freie Meinungsäußerung; eine Beschränkung dieser bzw. Moderation nach eigenen Grundsätzen einer Plattform wird hiervon weder verboten noch vorgeschrieben. Erst recht jedoch nicht verbieten diese die Wahrnehmung und Durchsetzung der Ansprüche Dritter, das bedeutet Privatpersonen, Unternehmen und Gesellschaften die solche vertreten.
Was die Prüfung von Inhalten bestimmter Internetportale zur Sicherstellung urheberrechtlicher Ansprüche angeht, so gilt hier dass der Staat eben genau nicht derjenige ist, der die diese ausübt. Eine Vorlagepflicht bei Behörden oder diesen gleich zu achtenden Institutionen gibt es nicht. Ebenso übt er keinerlei Einfluss darauf aus, welche Inhalte konkret von der Veröffentlichung ausgenommen werden sollen. Mithin liegt ein solcher staatlicher Eingriff nicht vor. Dies wäre selbst dann nicht der Fall, wenn es zu einer flächendeckenden Anwendung von „Upload-Filtern“ oder vergleichbaren Inhaltserkennungstechnologien kommen würde (was durch die Richtlinie nicht vorgesehen ist).
Ebenso existiert auch keine allgemeine Vorschrift im Sinne eines Verbots der Veröffentlichung: Der Anwendungsbereich des Artikel 13 ist klar eingeschränkt auf kommerzielle Anbieter bestimmter Größe sowie bestimmte Geschäftsmodelle. Alle sonstigen Wege der Meinungsäußerung außerhalb bestimmter Plattformen bleiben von dessen Vorgaben unberührt und stehen unverändert zur Verfügung.
Weiterhin findet sich im Mangoldt-Kommentar der Hinweis:
Das Zensurverbot gilt grundsätzlich auch für Meinungsäußerungen im Internet, seine dortige Ausübung erschreint aber jedenfalls in Deutschland schwer vorstellbar, weil es dessen umfassende Überwachung voraussetzte. Öffentliche Diskussionen über „Zensur“ meinen daher in der Sache angeblich unverhältnismäßige Einschränkungen der Meinungsäußerungsfreiheit, die an den üblichen Maßstäben zu messen sind.
– ebd., Rn 261 / S. 640
Diese Beschreibung trifft wesentlich besser den Kern des Problems. Unverhältnismäßige Einschränkungen der Meinungs-, Kommunikations- und Informationsfreiheit wurden auch bereits im Kontext des Einsatzes proaktiver Filtertechnologien durch Gerichtsentscheidungen (2011 und 2012) und auf EU-Ebene festgestellt und für rechtswidrig befunden. Von „Zensur“ sind diese jedoch zu unterscheiden.
Selbstverständlich ist der Grundrechtsträger in der Wahl der Darstellungsform seiner Meinung grundsätzlich frei. Aus dem Grundrecht auf Meinungs- und Informationsfreiheit lässt sich allerdings keineswegs ein Grundrecht auf die Verschaffung von Zuhörern, Podien, oder vergleichbaren Mitteln zur Verbreitung der Meinung ableiten (vgl. Starck / Paulus im Mangoldt-Kommentar, Rn 91, 96) und erst recht keines darauf fremde Inhalte unerlaubt zu monetarisieren.
Der oft geäußerte Einwand einer zumindest potentiell zur Zensur geeigneten Infrastruktur bedarf einer näheren Behandlung. Grundsätzlich gilt: Theoretisch kann man „alles mit allem“ machen. Es ist möglich, die Polizei als politischen Machtapparat zu missbrauchen, die Kennzeichenerfassung von TollCollect für die Totalüberwachung des Verkehrs, die mögliche Ortung des Standorts einer Person anhand ihrer Mobilfunkdaten zur Erstellung eines Bewegungsprofils. Die Frage ist, wie der Einsatz solcher Organe, Technologien oder Mittel gesetzlich ausgestaltet und reglementiert ist.
Die Richtlinie hält hierzu fest:
Die Zusammenarbeit zwischen den Diensteanbietern für das Teilen von Online-Inhalten und den Rechteinhabern darf nicht bewirken, dass von Nutzern hochgeladene Werke oder sonstige Schutzgegenstände, bei denen kein Verstoß gegen das Urheberrecht oder verwandte Schutzrechte vorliegt, nicht verfügbar sind, und zwar auch dann, wenn die Nutzung eines Werkes oder sonstigen Schutzgegenstandes im Rahmen einer Ausnahme oder Beschränkung erlaubt ist. Die Mitgliedstaaten stellen sicher, dass sich alle Nutzer, die nutzergenerierte Inhalte auf Diensten für das Teilen von Online-Inhalten hochladen oder auf Diensten für das Teilen von Online-Inhalten zugänglich machen, in jedem Mitgliedstaat auf die jede der folgenden Ausnahmen oder Beschränkungen stützen können:
- Zitate, Kritik und Rezensionen;
- Nutzung zum Zwecke von Karikaturen, Parodien oder Pastiches.
Der Anwendungsbereich der Richtlinie ist klar auf das Urheberrecht beschränkt. Bestimmte Ausdrucksformen anderer Rechte, insbesondere der Freiheit der Kunst und der Meinungsäußerung werden als gesondert geschützt ausgewiesen, hierunter fallen auch bspw. sogenannte „Memes“, deren Verbot zeitweise befürchtet wurde.
Fazit: Hier von „Zensur“ zu sprechen ist sachlich falsch, mehr noch: es ist unverantwortlich.
Damit einher ginge nebenbei bemerkt die Annahme, dass der Rechtsausschuss eines Parlaments einem Gesetzesentwurf zugestimmt haben soll, der mit dessen eigener Verfassung nicht vereinbar ist; die Absurdität sollte spätestens hier offensichtlich werden.
Sehr wohl jedoch wird mit der Richtlinie für Diensteanbieter bestimmter Art und Größe eine Verpflichtung geschaffen, die Voraussetzungen für Dritte zur Wahrnehmung ihre Rechte herzustellen. Zur Zeit basiert das Geschäftsmodell besagter Diensteanbieter in erheblichem Maße darauf, derartige Rechte nicht oder nur sehr spärlich zu berücksichtigen.
Die Monopolstellung bestimmter Plattformen, sowie die Dringlichkeit einer Reflexion über diese werden an dieser Stelle um so augenfälliger, wenn das Schaffen von Auflagen für sie als eine Einschränkung der allgemeinen Meinungsfreiheit empfunden wird.
Literatur:
- Köbler: Juristisches Wörterbuch. 10. Auflage. München, 2001, Franz Vahlen Verlag
- Schmidt-Bleibtreu / Hofmann / Henneke: GG, Kommentar zum Grundgesetz. 14. Auflage. Köln 2017, Carl Heymanns Verlag
- v. Mangoldt / Klein / Starck: Kommentar zum Grundgesetz: GG. Band 1: Präambel, Art. 1-19. 7. Auflage. München 2018, C. H. Beck Verlag
- Pieroth / Schlink: Grundrechte. Staatsrecht II. 20. neubearbeitete Auflage. Heidelberg, 2004, C. F. Müller Verlag
Auswirkungen
Ist der Nutzer nun für Urheberrechtsverletzungen haftbar?
Antwort: Nein. Genau das ist einer der wesentlichen Punkte.
Durch die Aussetzung des sog. Haftungsprivilegs geht tritt die Nutzerhaftung nun hinter der Haftung der Plattformbetreiber zurück, sodass der Nutzer nun in eine rechtssichere Position beim Hochladen von Inhalten gebracht wird. Der Nutzer muss nicht selbst die Lizenz erwerben oder nachweisen, sondern dies ist Sache des Plattformanbieters, für den das auch wesentlich einfacher ist.
Fazit: Der Nutzer wird durch die Richtlinie in eine rechtssichere Position gebracht.
Die grundsätzliche Strafbarkeit anderer Handlungen dabei, hierzu zählen der Gebrauch verbotener Symbole, Volksverhetzung, Bedrohung etc. bleibt von der Richtlinie unberührt.
Profitiert nicht nur Google von der Reform, da sie Filtertechnologien lizenzieren können?
Antwort: Nein. Hierzu müssen jedoch drei Teilaspekte erläutert werden.
- Google ist mit nichten der einzige Entwickler oder Anbieter von Inhaltserkennungstechnologien. Wie bereits beschrieben sind diese z. T. in kostenlose Apps wie Shazam oder SoundHound integriert. Durch die EU-Kommission selbst wurde ein Überblick von Anbietern von Inhaltserkennungstechnologien in einem Arbeitsdokument (Annex 12A) zusammengestellt, mutmaßlich gibt es abgesehen von den dort aufgeführten noch sehr viele weitere.
- Es gibt keine Verpflichtung zum Einsatz von Filtertechnologien, ebenso können Plattformen kleinerer Art einerseits individuelle, nach Größe und Art angepasste Pauschallizenzen erwerben, siehe hierzu Abschnitt Bedroht die Reform kleine Unternehmen? und zur Entfernung nichtlizensierter Inhalte auch – dem Grundsatz der Verhältnismäßigkeit entsprechend – auch wesentlich einfachere Maßnahmen einsetzen.
- Auch Inhaltserkennungstechnologien sind bereits als Open Source-Lösungen verfügbar, für Audiodateien etwa AcoustID oder echoprint, für Spracherkennung etwa CMUSphinx, OpenEars, die Liste ließe sich je nach Art des zu prüfenden Materials sicherlich noch fortsetzen.
Es ist daher nicht davon auszugehen, dass allein Google eine marktbeherrschende Stellung für Inhaltserkennungstechnologien erhalten oder behalten wird. Dies würde auch klar dem Ziel der Richtlinie zuwiderlaufen, da diese ja eben der marktbeherrschenden Stellung von Unternehmen wie Google entgegenwirken soll.
Der Einwand ist trotzdem grundsätzlich berechtigt, da Google / Alphabet das in anderen Geschäftsbereichen in der Vergangenheit gelungen ist. Die Erfahrung zeigt jedoch, dass für nahezu jede Art von Software innerhalb kurzer Zeit ein oder mehrere Open Source-Gegenstücke entwickelt werden (bzw. auch in diesem Bereich sind), möglicherweise nicht mit identischem Funktionsumfang. Ein Oligopol weniger Filteranbieter, wie auch vom Bundesdatenschutzbeauftragten Kelber befürchtet, muss daher als mögliche Folge der Reform Berücksichtigung finden, derzeit scheint ein solches allerdings sehr unwahrscheinlich.
Ein Überblick über die Thematik sowie kostenpflichtige und freie Lösungen speziell für den Bereich Audio findet sich bei MusicBrainz.
Fazit: Es gibt bereits jetzt viele Möglichkeiten außerhalb des Systems ContentID von Google, und die Anzahl dieser wird tendenziell eher zu- als abnehmen.
Kann eine Anwendung von lizenzierten Filtern zu Datenschutzproblemen führen?
Antwort: Potentiell ja. Der Datenschutz wurde in der Richtlinie deswegen auch explizit berücksichtigt. Artikel 13 Abs. 8 / Art. 17 Abs. 9 hält fest:
Diese Richtlinie beeinträchtigt in keiner Weise die berechtigte Nutzung, etwa die Nutzung im Rahmen der im Unionsrecht festgelegten Ausnahmen oder Beschränkungen, und darf weder zur Identifizierung einzelner Nutzer führen noch als Rechtsgrundlage für die Verarbeitung personenbezogener Daten dienen, außer dies erfolgt im Einklang mit der Richtlinie 2002/58/EG und der Verordnung (EU) 2016/679.
Die Verarbeitung personenbezogener Daten sowie die Identifikation individueller Nutzer durch Maßnahmen des Art. 13 / Art. 17 werden durch die Richtlinie ausdrücklich untersagt. Etwaige Ausnahmen sind an die Anwendung der DS-GVO gebunden.
Dieser Einwand zählt zu den wenigen tatsächlich substantiierten. Unter anderem wurde er vorgetragen durch den Bundesdatenschutzbeauftragten Ulrich Kelber. Dieser jedoch erwähnt nicht Art. 13 Abs. 8 / Art. 17 Abs. 9, weiterhin ebenfalls nicht den Grundsatz der Verhältnismäßigkeit, nach dem ein verpflichtender Einsatz von Inhaltserkennungstechnologien allein aus Kostengründen für kleine Plattformen unverhältnismäßige Auflagen darstellen würden.
Kann die Meinungsfreiheit durch fehlerhafte Inhaltserkennung eingeschränkt werden?
Antwort: Inhaltserkennungstechnologien arbeiten zwar fehlerhaft, differenzieren dabei nicht nach Meinungen.
Korrekt ist, dass Inhaltserkennungstechnologien auch im Zeitalter von KI immer noch sehr ungenau sind und daher bestenfalls in Frage kommen um bei der Identifizierung Lizenzpflichtiger Inhalte Hilfestellung zu leisten, nicht aber diese autonom durchführen können. Es ist durchaus möglich, dass auch Inhalte von ihnen erfasst werden die eine Meinungsäußerung darstellen, aber bspw. durch Verwendung von Musik einem Scanner / Filter ein falschpositives Ergebnis liefern. Abhängig wäre das dabei aber nicht von der Art und Weise der Meinung, die geäußert wird, sondern ob sie irgendeine Ähnlichkeit mit einem urheberrechtlich geschützten Inhalt hat, der der Plattform als rechtswidrig eingestellt gemeldet wurde.
Die Richtlinie führt dagegen erstmals ein Widerspruchsrecht sowie eine Verpflichtung der Provider zur Überprüfung durch menschliches Urteil im Fall von Löschungen oder Sperrungen ein, um genau diesem Problem entgegenzuwirken.
Dieses ist verbrieft in Art. 13 Abs. 8 / Art. 17 Abs. 9:
Die Mitgliedstaaten sehen vor, dass Diensteanbieter für das Teilen von Online-Inhalten den Nutzern ihrer Dienste im Fall von Streitigkeiten über die Sperrung des Zugangs zu den von diesen hochgeladenen Werken oder sonstigen Schutzgegenständen bzw. über die Entfernung der von diesen hochgeladenen Werke oder sonstigen Schutzgegenstände wirksame und zügige Beschwerde- und Rechtsbehelfsverfahren zur Verfügung stellen.
Verlangen Rechteinhaber die Sperrung des Zugangs zu ihren Werken oder sonstigen Schutzgegenständen oder die Entfernung dieser Werke oder sonstigen Schutzgegenstände, so begründen sie ihr Ersuchen in angemessener Weise. Im Rahmen des in Unterabsatz 1 vorgesehenen Verfahrens eingereichte Beschwerden sind unverzüglich zu bearbeiten, und Entscheidungen über die Sperrung des Zugangs zu hochgeladenen Inhalten bzw. über die Entfernung hochgeladener Inhalte sind einer von Menschen durchgeführten Überprüfung zu unterziehen.
Ein automatisches Löschen nach Eingang einer oder vieler (evtl. vorsätzlich falscher) Beschwerden ist daher explizit ausgeschlossen. Unklar bleibt dabei allerdings, ob das angesprochene „human review“ auch für die Anwendung von Inhaltserkennungstechnologien verbindlich ist, mutmaßlich deshalb weil diese durch die Richtlinie insgesamt nicht erwähnt werden. Dies wäre trotzdem ein berechtigter Kritikpunkt, auch wenn er nicht in erster Linie die Meinungsfreiheit betrifft.
Fazit: Unangemessenes Löschen von Inhalten ist sowohl mit als auch ohne Inhaltserkennungstechnologien niemals auszuschließen, auch nach bisheriger Rechtslage nicht. Die Richtlinie sieht dagegen erstmals entsprechende Handhabe dagegen vor.
Sind Diskussionsforen davon betroffen?
Antwort: Grundsätzlich nicht. Entscheidend ist aber, was genau mit einem „Forum“ gemacht wird.
Dabei steht zu prüfen:
- Wird das Forum gewerblich / kommerziell betrieben?
- Werden im Rahmen dieses kommerziellen Betriebs fremde urheberrechtlich geschützte Inhalte dort veröffentlicht?
- Falls ja: Stellen diese den hauptsächlichen oder einen hauptsächlichen Zweck des Forums dar und handelt es sich um eine „große Datenmenge“?
Die Frage des kommerziellen oder gewerblichen Betriebs ist nicht immer eindeutig zu beantworten. Schaltet der Betreiber z. B. Werbung auf, so handelt er in Gewinnerzielungsabsicht und damit kommerziell. Relevant ist jedoch ebenso, ob der Betreiber selbst eine Möglichkeit zum Speichern und Verfügbarmachen für andere Nutzer bereitstellt. In den meisten Fällen sind z. B. YouTube-Videos lediglich eingebettet, für den Forumsbetreiber ist dies nach laufender Rechtsprechung unbedenklich. Anders sieht das aus, wenn tatsächlich der Hauptzweck oder einer der Hauptzwecke des Forums darin besteht, vom Nutzer hochgeladene und dort für andere Nutzer zugriffsbereit gehaltene Werke in einer Weise zugänglich zu machen, dass damit eine Bewerbung für gewinnorientierte Zwecke eröffnet wäre.
Für die meisten praktischen Fälle muss dies verneint werden. Forenbetreiber, die eigene Möglichkeiten zur Speicherung und Wiedergabe (Fotogalerien, Streaming, etc.) vorhalten, sind nur dann betroffen wenn sie wie erörtert a) in Gewinnerzielungsabsicht handeln, b) dies ein hauptsächlicher oder der hauptsächliche Zweck des Forums ist (etwa: Foto-Community mit deutlicher Betonung auf Bildveröffentlichung und Besprechung) und c) Datenmengen von erheblicher Größe gespeichert werden.
Zum Begriff einer „großen Datenmenge“ sei kurz angeführt, dass laut einer 2015 veröffentlichten Angabe 400 Stunden HD-Videomaterial pro Minute auf YouTube geladen werden. Von der hauseigenen Empfehlung einer Datenrate von 8000kbit/s für Videos mit 1080p bei mittlerer Framerate ausgegangen, ergeben sich für eine Minute 8Mbit/s * 3600s * 400 = 1.44 TB pro Minute. Mittels einfacher Hochrechnung ergeben sich 86.4 TB pro Stunde und 2.07 PB (Petabyte) pro Tag (!). Die Exaktheit oder Aktualität der Angaben mag man diskutieren, leicht ersichtlich ist jedoch hieraus, dass ein Forumsbetreiber schwerlich auch nur annähernd eine ähnliche Größenordnung erreichen wird.
Erneut der Hinweis: Für den beschriebenen Fall eines Foto-Forums besteht jedoch wie bereits ausgeführt, ebenfalls keine Pflicht zum Einrichten irgendeiner bestimmten technischen Infrastruktur („Upload-Filter“), sondern lediglich zum Erreichen eines abstrakten Ziels. Ob dieses durch Melden von Nutzern, Erwerb von Pauschallizenzen oder den Einsatz von Bilderkennungssoftware geschieht, ist dabei nicht entscheidend.
Eine endgültige oder eindeutige Antwort auf die Frage gibt es daher nicht. Theoretisch ist es durchaus denkbar, dass eine technisch-infrastrukturseitig als Diskussionsforum angelegte Software (Beispiele: Woltlab Burning Board, vBulletinBoard, phpBB etc) in vollem Umfang als Content-Sharing-Plattform „zweckentfremdet“ wird. Das wäre zwar wenig empfehlenswert, da unnötig kompliziert und wenig nutzerfreundlich, aber möglich.
Fazit: Die wirklich allermeisten Foren werden davon nicht betroffen sein.
Wird die Angst vor Abmahnungen zu übertriebenem Löschen führen?
Antwort: Wenn ja, dann hängt das nicht mit der Richtlinie zusammen.
Diese Nachfrage ist grundsätzlich berechtigt. Wie schon ausführlich beschrieben gehen die Regelungen nicht sonderlich weit ins Detail und es liegen in manchen Punkten auch noch keine gerichtlichen Entscheidungen, Schrifttum o. ä. als Richtschnur vor.
Und ja, völlig korrekt: Abmahnungen oder auch nur die Angst davor sind ein Ärgernis für jeden Anbieter und Betreiber. Erstmalig einer breiteren Öffentlichkeit bekannt wurde diese Problematik bereits Anfang der 2000er Jahre mit der sog. Impressumspflicht und entsprechenden Abmahnungen durch zweifelhafte Anwaltspraxen. Seitdem erfolgen Abmahnungen in vielerlei Kontexten, sowohl das Geschäft mit ihnen als auch zu ihrer Abwehr hat sich mutmaßlich äußerst lukrativ entwickelt.
Für entsprechende Rechtssicherheit im Vorlauf des eigentlichen Inkrafttreten eines Rechtsaktes zu sorgen ist Sache des Gesetzgebers auf EU-Mitgliedsstaatenebene. Es gibt auch hier natürlich eine angemessene Übergangszeit von zwei Jahren, in der die Bestimmungen auf nationaler Ebene ausgearbeitet und auch mit entsprechenden Informationen / Erläuterungen für die Öffentlichkeit bereit gestellt werden.
Einer der letzten Prozesse an dem sich das anschaulich beobachten ließ ist die – durchaus auch in mancher Hinsicht kontroverse – DSGVO. Für eine Darstellung von Informationen dazu siehe z. B. das BMI - FAQ zur Datenschutz-Grundverordnung, ebenso des Bundesdatenschutzbeauftragten. Insbesondere beim BMI ist der Absatz „Drohen jetzt existenzgefährdende Bußgelder?“ einer der wichtigsten, weil dies eine der meistbefürchteten Folgen der DSGVO war. Auch hier wird auf den Grundsatz der Verhältnismäßigkeit verwiesen. Eine Abmahnwelle infolge der Einführung der DSGVO ist übrigens ausgeblieben, siehe dazu Meldungen bei tagesschau.de, tagesspiegel.de.
Ein in diesem Kontext interessantes Urteil wurde im Januar dieses Jahrs erlassen durch das LG Magdeburg, Landgericht Magdeburg, AZ 36 O 48/18, 18.01.2019, Rn 21:
Denn die DS-GVO enthält ein abschließendes Sanktionssystem, welches nur der Person, deren Rechte auf informationelle Selbstbestimmung verletzt worden sind, oder der Aufsichtsbehörde oder der Klage eines Verbandes eine Rechtsdurchsetzung erlaubt (Köhler/Bornkamm/Feddersen/Köhler, UWG, Rn. 1.74 b zu § 3 a, zitiert nach beck-online, Stand 37. Auflage 2019).
Wesentlich interessanter noch ist Rn 23:
Schließlich bietet Art. 58 DS-GVO den Aufsichtsbehörden einen abgestuften Katalog verschiedener behördlicher Maßnahmen, die von einem bloßen Hinweis bis zu einer Geldbuße reichen. Es besteht die Gefahr, dass dieses am Verhältnismäßigkeitsprinzip orientierte System unterlaufen wird, wenn daneben das Wettbewerbsrecht mit den erheblichen Streitwerten und Vertragsstrafen Anwendung fände (Köhler/Bornkamm/Feddersen/Köhler, a.a.O., Rn. 1.40 g).
Zu Sanktionen berechtigt sind laut LG Magdeburg nur die genannten Stellen. Ebenso sind diese an den Verhältnismäßigkeitsgrundsatz gebunden. Zwar ist nicht gesagt dass im Fall der Urheberrechtsnovelle genau so geregelt sein wird. Der Gesetzgeber hat mit der Umsetzung der DSGVO auf Bundesebene jedoch gezeigt dass insbesondere die Problematik unlauterer anwaltlicher Praxis (die im Ergebnis zu einer Einschüchterung von Betreibern und Nutzern führt) unerwünscht ist und über wirksame gesetzgeberische Maßnahmen eine ebensolche unterbunden werden kann und auch worden ist.
Weitere aktuelle Gesetzgebungsverfahren sollen die unseriöse Praxis missbräuchlicher Abmahnungen eindämmen. Hierbei muss jedoch auch Berücksichtigung finden, dass die Abmahnung als Abwehrinstrument gegen unlauteren Wettbewerb grundsätzlich ihre Daseinsberechtigung hat. Im Ergebnis kann gesagt werden, dass das Problem auf Seiten des Gesetzgebers erkannt und dessen Behebung sich im aktiven Prozess befindet.
Nachtrag 01. Juni 2019: Am 15. Mai 2019 hat das Bundeskabinett den Entwurf eines „Gesetzes zur Stärkung des fairen Wettbewerbs“ auf den Weg gebracht, mit dem schärfer gegen Abmahnmissbrauch vorgegangen werden soll. Mitbewerber können beispielsweise bei Verstößen gegen Kennzeichnungs- und Informationspflichten im Internet keine kostenpflichtigen Abmahnungen mehr aussprechen und bei einer erstmaligen Abmahnung kein Versprechen einer Vertragsstrafe fordern.
Fazit: Sowohl die Angst vor Abmahnungen als auch hieraus folgende übermäßige Löschung von Inhalten sind unbegründet.
Gerne jedoch darf man an dieser Stelle kritisch darüber nachdenken ob eine derartige „präventive“ Löschpraxis durch einschlägige Kampagnen begünstigt wird, die wenig tatsächliche Informationen vermitteln, dabei aber viele und umso diffusere Ängste induzieren.
Diskussion
Warum gibt es so viele Kontroversen wegen dieser Reform?
Antwort: Gibt es leider keine einfache.
Im Wesentlichen müssen hier mindestens drei bestimmende Faktoren ausgemacht werden.
Das grundsätzliche Misstrauen gegenüber der Politik, insbesondere auf europäischer Parlamentsebene zeigt leider auch hier seine Auswirkungen und tritt in vielen Diskussionen, die Künstler, Journalisten, Autoren, Musiker und andere Urheber zur Zeit führen müssen, zutage. Aber nicht nur dort: In allen Ländern der EU sind mittlerweile „euroskeptische“ Parteien vertreten, und auch im EU-Parlament selbst. Und sie gelten unzweideutig als Gegner der Richtlinie.
Die offensichtliche Beeinflussung der öffentlichen Diskussion durch die Deutungshoheit, die Konzerne wie Google mittlerweile haben, führt zu einer verzerrten Wahrnehmung der tatsächlichen Inhalte der Reform. Dies wird allein daran deutlich, dass hauptsächlich über Artikel 13 diskutiert wird. Dubios finanzierte NGOs bieten Reisekostenerstattung für Aktivisten nach Straßburg, eine Kampagne von YouTube namens „Create Refresh“ bezahlte zahlreiche „Influencer“ für kritische Beiträge, die das Geschäftsmodell des Konzerns schützten – was allerdings mindestens einmal nach hinten losging, so im Fall eines französischen Künstlerkollektivs (Untertitel helfen).
Tatsächlich jedoch darf man die Ursachen nicht nur auf der einen Seite sehen. Auch zwei Wochen vor der finalen Abstimmung im Parlament lag der Text der Richtlinie bislang nur auf Englisch vor. Dies führte zu Unklarheiten über deren tatsächlichen Inhalt, was an vielen Stellen in Spekulationen und z. T. Schreckensphantasien vom „Ende des freien Internets“ endete.
Es ist nicht Schuld der Politiker im Parlament, wenn Vorgänge wie eine solche Übersetzung Zeit in Anspruch nehmen, tatsächlich jedoch bildet der Anschein, dass – noch dazu kurz vor Ende der Legislaturperiode – mit möglichst knapp bemessener Mitbestimmungszeit des EU-Bürgers ein aus seiner Perspektive undurchsichtiges Gesetzgebungsvorhaben durchgebracht werden soll, einen idealen Nährboden für Gerüchte, Verschwörungstheorien und Angst. Der absurde Vorwurf, die CDU wolle YouTube gänzlich verbieten, ist nur ein Beispiel für die haarsträubenden Auswüchse einer solchen politischen „Netzkultur“.
Wer unterstützt die Reform?
Anders als gängigerweise vorgeworfen, handelt es sich bei den Unterstützern keineswegs um eine „Lobby“ sondern mehrheitlich um Arbeitnehmervertretungen der künstlerischen Berufe.
Im deutschsprachigen Raum haben sich über 140.000 in Verbänden organisierte Urheber in der Initiative Urheberrecht zusammengeschlossen, die die Reform unterstützt. Europaweit sind es mindestens 269 der genannten Verbände, hierbei vertreten sind Musiker, bildende Künstler, Film- und Bühnenschaffende, (Drehbuch-) Autoren, Designer, Journalisten, Regisseure und Fotografen.
An musikrelevanten sind in jedem Fall zu nennen:
- Deutsche Orchestervereinigung
- Verband deutscher Komponisten
- DEFKOM (Deutsche Filmkomponistenunion)
- Bundesverband mediamusic e. V.
- Union Deutscher Jazzmusiker
Kleine und mittelständische Musikunternehmen aus dem Tonträgerbereich, d. h. Indie-Labels werden durch den VuT repräsentiert. Selbstverständlich sind auch Dachverbände unter den Unterstützern, etwa:
- Deutscher Musikrat
- Deutscher Kulturrat
Ebenso die Gewerkschaftsvereinigungen ver.di und DGB.
Warum protestierte Wikipedia dagegen, obwohl sie als Projekt gar nicht betroffen ist?
Antwort: Nichtkommerzielle Online-Enzyklopädien – daher zweifelsfrei auch Wikipedia – sind in der Tat explizit vom Richtlinienentwurf ausgenommen. Das heißt im Gegenzug natürlich nicht, dass sie diesen deswegen unterstützen müssen. Um die Position von Wikipedia Deutschland einzuordnen, muss man allerdings mindestens drei Dinge wissen:
- Die Wikimedia Foundation, Trägerin von Wikipedia, ist als gemeinnützige Organisation auf Spenden angewiesen. Spender sind nach einem Bericht der SZ (Februar 2019) unter anderem Adobe, Apple, Cisco, Google, Hewlett Packard, Oracle, Netflix sowie Salesforce. Google als einer der größten Sponsoren hat kürzlich einen Betrag von 3,1 Millionen Dollar an Wikipedia gespendet und damit die Gesamtheit der Zuwendungen in der letzten Dekade auf 7,5 Millionen Dollar erhöht.
- Wikipedia hat nicht nur seit einiger Zeit ein ernstzunehmendes Aktualitätsproblem, sondern bereits seit längerer Zeit kontinuierlich weniger Autoren. Die Anzahl der Admins nimmt seit 2008 nach eigenen Angaben immer weiter ab, gleiches gilt für die Bearbeitungen und Zugriffe insgesamt. Die ZEIT titelte zum 15. Geburtstag der Enzyklopädie: „Happy Birthday, Sorgenkind!“ Es bedarf keiner näheren Erläuterung, welche Folgen eine derartige Entwicklung nach sich zieht.
- Eine kurze Recherche zu den Köpfen der Wikimedia Foundation Deutschland e. V. sowie eventueller Verbindungen zu NGOs wie iRights, Digitale Gesellschaft und Creative Commons (sponsored by...) sollte die o. g. Frage abschließend klären.
Für das Zustandekommen der Abschaltung der deutschen Wikipedia am 21. März 2019 sei auf diesen Kommentar der FAZ verwiesen, der einige weitere Hintergründe offenlegt. Treffend kann der Kulturwissenschaftler Michael Seemann (o. a. Artikel) zitiert werden, dass „die Krise der Wikipedia ein Sinnbild für die Krise der digitalen Gesellschaft und damit der Gesellschaft im Ganzen [ist].“
Schlussbetrachtung
Ich hoffe mit diesem Überblick die dringendsten Fragen beantwortet zu haben.
Wir fassen in 10 Punkten zusammen:
- Die Reform ist auf Anbieter bestimmter Art und Größe beschränkt.
- Sie verpflichtet diese zur Lizenzierung von Inhalten. Die Möglichkeiten zur Lizenzierung werden vereinfacht und erweitert.
- Sie verpflichtet zum Einsatz wirksamer Maßnahmen gegen rechtswidriges Einstellen urheberrechtlich geschützter Inhalte. Diese Verpflichtung ist geknüpft an die Voraussetzung einer Meldung derartiger Inhalte, sowie notwendiger Informationen zu deren Identifikation.
- Es sind keine bestimmten technischen oder sonstigen Maßnahmen dabei vorgeschrieben.
- Eine allgemeine Prüfpflicht für Plattforminhalte wird explizit ausgeschlossen.
- Alle Maßnahmen zu denen Plattformanbieter verpflichtet sind, werden ausdrücklich am Grundsatz der Verhältnismäßigkeit orientiert, insbesondere im Hinblick auf deren technische Möglichkeit und Kosten. Ausnahmen für Start-Ups sind festgehalten.
- Die Reform bringt Nutzer in eine rechtssichere Position.
- Nutzern werden umfassende Widerspruchsrechte bei der Einschränkung der Verfügbarkeit von Inhalten eingeräumt.
- Das Recht auf freie Meinungsäußerung sowie Information und Kommunikation wird nicht angetastet. Bestimmte Formen dieser sind dabei gesondert geschützt.
- Der Datenschutz ist berücksichtigt.
Die Meinungs-, die Informations- und Pressefreiheit sind hohe Güter, die durch das Urheberrecht jedoch nicht eingeschränkt, sondern erst verwirklicht werden.
Zur Zeit besteht eine Schieflage auf zwei Ebenen. Die erste betrifft Geschäftsmodelle, die auf der konsequenten Missachtung des Urheberrechts und des geistigen Eigentums basieren. Die zweite betrifft die Wahrnehmung, die in genau ebendiesem Geschäftsmodell, ähnlich einer Fata Morgana, die Oase einer wahren Freiheit zu erblicken glaubt. Dieser Sinnestäuschung – die kaum größer sein könnte – nachzugeben, bedeutete den sprichwörtlichen Irrgang in die digitale Wüste anzutreten.
Die Reform ist ein Schritt zur Beseitigung eines Ungleichgewichts zwischen großen Konzernen und Urhebern, die das Wachstum dieser Konzerne erst ermöglicht haben. Er ist nicht nur dringend notwendig, sondern auch überfällig.
Kommentare