Denn sie wissen nicht, was sie tun
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 10 | |
Author | ||
License | CC Attribution 3.0 Unported: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/40480 (DOI) | |
Publisher | ||
Release Date | ||
Language | ||
Producer |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
|
1
10
00:00
Content (media)Internet service providerService (economics)ACCESS <Programm>InternetMechanism designMainframe computerData storage deviceComputing platformYouTubeContent (media)PerimeterCopyright infringementImplementationContent providerPhysical quantityWordContent (media)Computer animationLecture/Conference
03:31
ProviderService (economics)InformationZahlProviderGoogleComputing platformContent (media)YouTubeUploadingLecture/Conference
07:14
Computing platformProviderComputer animation
08:34
Hash functionData streamFiltrationBusiness modelSpeciesYouTubePerimeterProviderWordContent (media)DatenerhebungBoom barrierComputing platformUploadingSoftwareLecture/Conference
15:22
NetscapeSystems <München>InternetPyramid (geometry)Copyright infringementLecture/Conference
Transcript: German(auto-generated)
00:05
Die EU-Kommission versucht das Internet auf mehrere Weisen zu zerstören und eine davon möchte ich euch heute vorstellen. Es geht um Content-ID-Pflicht für Plattformen und um euch näher zu bringen, worum es da
00:22
eigentlich geht, ein paar Worte vielleicht erstmal zur gegenwärtigen Rechtslage, bevor wir dann sehen, inwieweit die schlimmer wird. Die gegenwärtige Rechtslage sieht eigentlich vor nach der bisher geltenden E-Commerce-Richtlinie, die in Deutschland durch das Telemedien-Gesetz, also in deutsches Recht umgesetzt wurde, dass Host-Provider nicht haften für die Inhalte, die sie dort für ihre Nutze speichern,
00:46
jedenfalls solange nicht, solange sie nicht wissen, dass diese Inhalte rechtswidrig sind. Diese Rechtslage ist eigentlich, würde ich sagen, mittlerweile so ganz bewährt
01:00
Ich finde eigentlich, dass das ganz gut funktioniert. In der Praxis stellt sich das eben so da, wir haben vielleicht irgendwie eine Plattform, nennen wir sie mal Wikimedia Commons und da lädt vielleicht irgendjemand was hoch auf diese Plattform und das ist vielleicht gar nicht von ihm selber gemacht, sondern von jemand anderem und der andere möchte das vielleicht gar nicht, dass das hoch
01:21
geladen wird, dann kann derjenige sich an den Plattformbetreiber wenden, nämlich die Foundation in diesem Fall in San Francisco, schreibt dahin, bitte nimm es runter und dann wird das dann irgendwie gemacht, ist jedenfalls so das, was sich der Gesetzgeber dabei vorgestellt hat und man muss sagen, dass zumindest mir in meiner Praxis jetzt keine gravierenden Probleme bekannt sind mit diesem Mechanismus, der
01:43
scheint eigentlich so ganz gut zu funktionieren und der gilt eigentlich jetzt also auch nicht nur für Urheberrechtsverletzungen, sondern der gilt im Grunde für jede Art von Rechtsverletzungen, also insbesondere auch zum Beispiel im Presserecht, wir haben hier ein Forum, jemand schreibt etwas Böses rein, der Betroffene sagt dem Forumbetreiber, soll es bitte rausnehmen, das passiert dann in der
02:00
Gelände, kein Problem, also stark verkürzt natürlich, ganz so einfach ist es da manchmal doch nicht, aber im Großen und Ganzen funktioniert dieser Mechanismus so. Die geplante jetzt im Entwurf vorliegende Direktive, Urheberrechtsdirektive der EU-Kommission bedeutet für diesen
02:23
Mechanismus, der eigentlich so ganz gut funktioniert, einen ja schon fast kompletten Paradigmenwechsel, denn darin wird vorgesehen, dass Content Provider, jedenfalls solche, die in erheblichem Umfang, muss man sich nochmal drüber unterhalten, wann dieser Umfang erreicht ist, Content Provider jedenfalls
02:41
dazu verpflichtet werden sollen, Maßnahmen zu ergreifen und zwar wirksame und verhältnismäßige Maßnahmen, um also die Rechteinhaber vor Urheberrechtsverletzungen zu schützen und insbesondere nennt die Kommission in ihrer Richtlinie dort die Implementierung effektiver
03:03
Technologien als eine mögliche Maßnahme oder ich würde vielleicht eher sagen, als die präferierte Maßnahme. Die Frage ist natürlich, was hat die Kommission da vor Augen, wenn sie so was fordert und das dürfte wohl sehr klar sein, woran sie da gedacht hat, nämlich an das Content ID
03:25
Programm von YouTube. Das Content ID Programm, Julia Rehder hat es vorhin schon gesagt, wurde von der Google-Tochter YouTube entwickelt, im Grunde, um so ein bisschen den Druck aus dem Kessel zu lassen, wenn man so möchte. Also den
03:42
Urheberrechts-, den Rechteinhabern die Möglichkeit zu geben, durch das Content ID Programm selber nach Rechtsverletzungen an ihren eigenen Werken zu suchen und diese irgendwie entweder abzustellen oder sie zu erlauben und dafür sich an den Werbeeinnahmen beteiligen zu lassen oder was auch immer, da gibt es verschiedene Optionen. Jedenfalls hat YouTube das
04:00
entwickelt, das war unglaublich teuer. Julia Rehder sagte 60 Millionen Euro, ich übernehme, mache mir diese Zahl einfach mal zu eigen, das wird schon stimmen. Jedenfalls ist es, du hattest das auch irgendwo her, also ich weiß nicht, Google sagt es, die werden es wissen. Also nehmen wir mal an, dass Google das zutreffend mitteilt und ich hoffe, ich werde jetzt hier nicht von
04:25
Google abgemahnt für falsche Äußerungen oder sowas, das wäre mir extrem peinlich, aber okay, kommen wir zurück zum Thema, jedenfalls ist es ziemlich teuer und die EU-Kommission stellt sich nun vor, das irgendwie so auf alle Plattformen zu erweitern. Jedenfalls ist das, was man diesem
04:42
Entwurf so entnehmen kann. Stellt sich mir als Jurist als erstes die Frage, wie verhält sich das denn zur gegenwärtigen Haftungsprivilegierung und dann guckt man in diesen Vorschlag der neuen Richtlinie rein und liest dann da drin, dass diese Verpflichtung also auch bestehen soll, wenn der Provider sich an sich auf die Haftungsprivilegierung aus der
05:02
E-Commerce-Richtlinie berufen kann, was natürlich jetzt ein echter Paradigmenwechsel ist, weil er nämlich bedeutet, dass der Provider eben nicht mehr im Grundsatz freigestellt ist von der Haftung, sondern dass er eben im Grundsatz erst mal Maßnahmen ergreifen muss, was absolut
05:20
entgegen der gegenwärtigen Rechtslage liegt, die eben nicht nur vorsieht, dass er das nicht muss vorher die Uploads alle durchzugucken, bevor sie veröffentlicht werden, sondern dies ihm sogar verbietet. Da komme ich gleich noch mal im Bereich Datenschutz insbesondere dazu. Also es ist ein Paradigmenwechsel in meinen Augen und es ist kein guter, wie ihr euch vorstellen könnt. Der
05:44
Erwägungsgrund sieht eben vor, das sollen Content Recognition Technologies sein, Effektive, die sollen wirksam und verhältnismäßig sein, was auch immer das bedeutet. Also die Frage stellt sich ja schon, was kann man sich da überhaupt noch vorstellen außer einem Content ID Programm? Die Überlegung ist
06:03
vielleicht auch, man könnte das dann auch manuell durchgucken oder so, aber das könnt ihr euch alle vorstellen, dass das im Grunde nicht möglich ist. Irgendwie alle Uploads, die so jeden Tag zum Beispiel auf einer Plattform wie Wikimedia Commons hochgehen, alle manuell durchzugucken, ob die irgendwie okay sind. Also ich meine, man kann die schon angucken, vielleicht noch auf Übersichtseiten und sehen, da sind viele neue Sachen gekommen.
06:23
Aber man kennt ja die Rechtslage und die rechte Inhaberschaft an diesen Seiten gar nicht. Man müsste das ja alles prüfen. Ja, das ist im Grunde nicht möglich. Und die Frage ist auch im Übrigen, ob das so eine Technologie könnte, da komme ich gleich noch mal dazu. Die Hauptfrage, die sich mir aber stellt, in der Tat ist die Frage nach der Sinnhaftigkeit. Ich kann sie ehrlich gesagt nicht erkennen.
06:42
Wir haben wie gesagt nach der gegenwärtigen Rechtslage die Situation, dass ein rechter Inhaber, der feststellt, dass seine Werke unrechtmäßig irgendwo hochgeladen wurden, jederzeit an den Provider herantreten kann und sagen kann, nimm es wieder runter. Das löst nicht nur die Verpflichtung aus, das runterzunehmen, sondern es löst auch die Verpflichtung aus zu verhindern, dass es nochmal hochgeladen wird. Also da hat man schon so eine
07:02
Art Prüfungspflicht dann dadurch gegeben. Jedenfalls sehe ich nicht, inwieweit jetzt ein Content ID Programm oder ein Vorabfilter demgegenüber noch irgendwie einen Mehrwert bieten sollte. Es wird immer falsche Positive geben und es wird immer ein erhebliches
07:20
Overblocking geben. Und da ist diese manuelle Mitteilung, nimm es runter, doch eigentlich die sinnhaftere und schonendere Variante, zumal die Kommission ja selber schon hier von Proportionates, also verhältnismäßigen Maßnahmen spricht und zum Thema Verhältnismäßigkeit, die ist da wirklich nicht zu erkennen. Okay, die Frage ist natürlich
07:41
auch, ich rede hier die ganze Zeit bewusst natürlich von Wikimedia Commons, weil man an diesem Beispiel sehr schön zuspitzen kann, die Frage, was gilt denn eigentlich bei Non-Profit Plattformen? Wikimedia Commons ist selbstverständlich Non-Profit, es ist anders als YouTube, damit wird kein Geld verdient, das lebt von Spenden, ist aber von dem Wortlaut der geplanten Direktive jedenfalls
08:02
umfasst. Ja, und die Frage stellt sich, wieso sollten eigentlich Non-Profit Plattformen in die Haftung reinkommen? Wir haben zumindest für das gegenwärtige Recht in Deutschland die Situation, dass der Bundesgerichtshof immer betont, diese Pflichten, die gegenüber Providern jetzt gelten, also auch diese Pflicht, das runterzunehmen, das
08:22
rechtsverletzende Material und zu verhindern, dass genau dieses auch nicht wieder hochgeladen wird, die dürfen nur so weit reichen, wie es ein zulässiges Geschäftsmodell nicht gefährdet. Und dann gibt es auch gewisse Grenzen eben, dass man eben sagen kann, ein Provider kann auch nicht dazu verpflichtet werden, für 60 Millionen Euro ein
08:42
Filtersystem zu entwickeln, um da irgendwie Rechteinhaber zu schützen, weil das einfach bedeutet, dann ist er platt, es hat nicht jeder 60 Millionen Euro. Und dann muss man halt eben die Maßnahmen ergreifen, die man ohne die Gefährdung des eigenen Geschäftsmodells ergreifen kann und die können da weitaus darunter liegen. Und die können auch mal bedeuten, im Einzelfall, dass man
09:01
eben keiner Prüfungspflicht an unterliegt. Dieser Grundsatz, der für das deutsche Recht bisher jedenfalls galt, der würde durch die Richtlinie eben auch aufgehoben. Das heißt im Grunde, es würde auch eine Non-Profit-Plattform wie Wikimedia Commons verpflichtet, sich hinzusetzen und wahlweise ein Content-ID-System einzukaufen oder selber eins zu machen. Dass das
09:21
irgendwie nicht funktionieren kann oder jedenfalls nicht, ohne wirklich eine Existenzgefährdung zu bedeuten, das sollte einleuchten. Die Frage ist natürlich auch, wo wir gerade beim Thema sind, Verhältnismäßigkeit. Wie verhält sich das eigentlich zu Selbstregulierungsmechanismen? Und auch da finde ich, dass Wikimedia Commons ein sehr gutes Beispiel ist, weil Wikimedia Commons im Grunde einen relativ gut
09:40
funktionierenden Selbstregulierungsmechanismus hat. Es wird zwar nicht immer gleich am selben Tag geguckt, ist es irgendwie okay, was da hochgeladen wurde, aber man kann sich schon darauf verlassen, dass früher oder später bei der Nutzung, beim einsortieren wann auch immer, mal irgendjemand drauf guckt, was ist eigentlich für ein Upload. Und wenn es sich irgendwie aufdrängt, dass der rechtsverletzend ist, dann wird
10:01
da durchaus auch von der Community aus gelöscht. Also da stellt sich auch die Frage, ob das eigentlich nötig ist, darüber hinaus noch weitere Mechanismen zu etablieren, die noch eine rigorosere Filtertechnik bedeuten würden als diese. Die Frage, die sich weiter stellt, ist, die
10:22
Kommission hat Content ID irgendwie vor Augen, können wir das hier zu einem de facto Standard machen. Die erste Frage ist die nach den Kosten, die liegt auf der Hand. Julia Reeder hat es vorhin gesagt und damit hat sie recht, müssen jetzt alle verpflichtet werden, Content ID zu lizenzieren. Die
10:41
Alternative wäre ja, jeder entwickelt ein eigenes. Jedenfalls ist es sau teuer, egal wie Romans dreht. Die zweite Frage ist die nach der Komplexität. Die Richtlinie unterscheidet ja nicht nach verschiedenen Arten urheberrechtlich geschützter Werke. Nehmen wir mal an, wir haben ein Foto, wir haben ein Musikstück, wir haben einen Text. All diese Werke müssen ja von dem Filtersystem erfasst sein und es
11:02
müssten ja auch im Grunde zumindest in gewissem Umfang Abwandlungen erkennbar sein in diesem Filtersystem. Also müssten von diesem Filtersystem erkannt werden. Nehmen wir mal zum Beispiel ein Foto, das ist noch relativ einfach. Da macht man vom Foto, JPEG-Bild, macht man einen Haschwert, guckt bei jedem Upload, hat es den gleichen Haschwert, dann ist es wohl das gleiche Foto, dann kicken wir es
11:21
raus. Was macht man aber mit Mesh-ups? Was macht man bei Texten eigentlich, wenn ein paar Worte umgestellt sind? Könnte vom Urheberrechtsschutz immer noch umfasst sein, wird es auch in der Regel, würde aber vielleicht von einem Filtersystem nicht mehr automatisch erfasst. Was bedeutet das? Was bedeutet
11:41
das auch für die Haftung hinterher? Da stellt sich dann daran anschließend die Frage nach der Effektivität. Wenn ein Filtersystem sowieso nur eine Erfolgsquote von x% hat, kann einem das dann auferlegt werden, so ein Filtersystem einzurichten, das eigentlich nichts bringt, von dem auch der Rechteinhaber vielleicht am
12:00
Ende nichts hat. Ich finde das persönlich extrem problematisch und wenn man das Filtersystem so rigoros macht, dass die Fehlerquote sinkt, dann hat man automatisch auch einen erheblichen Anteil Overblocking. Das kann man übrigens bei YouTube immer schön erkennen auch, wenn man so Situationen hat, wie jemand nutzt vielleicht von einer legalen, von einer legalen
12:21
urheberrechtlichen Schranke Gedeckt ein Teil eines fremden Werkes und es fliegt dann aber trotzdem das gesamte Nutzende, also das gesamte neue Werk fliegt trotzdem aus YouTube raus, weil es durch den Filter als Rechtsverletzung erkannt wird. Haben wir Filtersysteme, die urheberrechtliche Schranken zutreffend erfassen? Ich kann
12:42
mir sowas nicht vorstellen. Zitatsschranke, da kommt es immer auf Abwägungsmechanen, also auf rechtliche, auf Abwägungen an und Abwägungen kann das Software kaum treffen. Die nächste Frage, die nach den Kollateralschäden, jenseits
13:00
des Overblocking, Datenschutz, ein Filtersystem, das beim Upload eines Werkes prüfen muss, ob dieses Werk von einem Rechteinhaber gehört und das dann gegebenenfalls raussiebt, müsste jeden Upload, jeden Datenstrom,
13:21
der hochgeht auf die Plattform komplett durchsuchen, und zwar die Inhaltsdaten. Das Filtersystem würde bedeuten, eine vollständige Durchleuchtung der Inhaltsdaten, die vom Nutzer auf die Plattform hochgeladen werden. Das ist selbstverständlich ein Eingriff in das Recht auf informationelle Selbstbestimmung, denn es liegt ja auch völlig
13:41
klar auf der Hand, dass auch der Umstand alleine, wer zum Beispiel was hochgeladen hat, ist schon ein personenbezogenes Datum. Dann können noch hinzukommen informatisch personenbezogene Daten, die in dem hochgeladenen Werk enthalten sind. Das kann ja vielleicht ein Audio-Stream sein, zum Beispiel
14:01
von dieser Veranstaltung. Da werden Meinungen geäußert, die sind meistens auch total gut und innovativ und alles. Also auf jeden Fall sind die geschützt von der Meinungsfreiheit. Weil, naja, kurzer Einschub, auch Quatsch ist von der Meinungsfreiheit geschützt, aber nehmen wir mal an, es ist auch noch zusätzlich
14:20
was total Tolles. Und das wird dann eben aus irgendwelchen Gründen, weil es vielleicht zufällig einen ähnlichen Hashtag hat oder was auch immer, fliegt es dann eben auch raus. Dann haben wir nicht nur ein datenschutzrechtliches Problem, sondern eben auch ein Problem mit der Meinungsfreiheit. Und da hat der EGH in der Entscheidung aus dem Jahr 2012
14:40
NetLog mal gesagt, dass Filtersysteme, die die vollständige Durchleuchtung von Inhaltsdaten bedingen, nicht, nicht eingerichtet werden dürfen auf Grundlage der E-Commerce-Richtlinie bei der Frage Filterung von Uploads. Das heißt also der EGH immerhin.
15:00
Der EGH hat in der Etablierung von Filtersystemen einen Verstoß gesehen, sowohl gegen die Meinungsfreiheit als auch gegen das Datenschutz, das Grundrecht auf informationelle Selbstbestimmung. Und da möchte ich mal sehen, wie man da eine Direktive macht am Ende, die diesen Anforderungen genügt oder da keinen Verstoß bedeutet.
15:22
Bei der Meinungsfreiheit, Chilling Effects insbesondere, Filtersysteme neigen grundsätzlich zur Expansion. Das war ein wesentliches Argument auch, dass immer in der Zensursolar-Debatte gebracht wurde zu Recht, dass man gesagt hat, wenn jetzt einmal diese Filtersysteme eingerichtet werden und da ging es ja nur um Kinderpornografie.
15:41
Und das kann ja wohl keiner dafür sein, Kinderpornografie im Internet zu veröffentlichen. Dann hat man aber die Filtersysteme einmal eingerichtet und dann stellt sich eben die Frage, was fasst man denn da noch so alles drunter? Jetzt kommen wir von der anderen Seite her, nämlich nicht von der Kinderpornografie und vom Strafbaren, sondern wir kommen vom Urheberrecht her und können aber auch wunderbar die gleichen Filtersysteme,
16:01
die wir hier etablieren, hinterher nutzen, um kritische Meinungsäußerungen zu unterbinden, womit wir wieder den Bogen geschlagen hätten zur gegenwärtigen Hate Speech Debatte. Was ist denn, wenn man da anfängt nach Schlagworten, die Filtersysteme mit Schlagworten zu filtern und auf einmal fliegt ein Bericht, wie dein Beispiel ja auch war, über Folter, ein kritischer
16:21
Bericht über Folter raus, weil da irgendwie das Wort Folter drin vorkommt. Ja, also ich meine, so simpel sind die Filtersysteme natürlich nicht, aber man kann sich da beliebige Szenarien ausdenken. Auch das Oberlandesgericht Düsseldorf übrigens für die rein nationale deutsche Rechtslage mal gesagt, Filtersysteme sind kritisch, Filtersysteme darf man dann nicht einrichten, wenn da
16:41
Nutzerdaten mit erhoben werden und das wird in der Regel der Fall sein. Bei solchen Systemen. Man muss gucken, wer macht den Upload? Das ist ein personenbezogenes Datum. Im Inhalt können personenbezogene Daten stecken, im Inhalt können auch Meinungsäußerungen stecken. Das sind alles Rechte, die hier völlig beiseite gewischt werden, nur um ein einziges Rechtsgut zu bedienen
17:01
und zwar das Urheberrecht. Und da fragt man sich schon, wieso das eigentlich immer an der sozusagen an der Pyramide der Rechtsgüter immer an der Spitze stehen muss, ehrlich gesagt. Also da ist es so eine Frage, wie man sich da öfter stellen kann. Okay, nochmal zum Thema Verhältnismäßigkeit.
17:25
Das Urheberrecht scheint mir in der politischen Debatte irgendwie dasjenige Recht zu sein, bin ich schon drüber über der Zeit oder so? Oh, okay, tut mir leid. Eigentlich sollte es noch so Q&A geben oder sowas, aber das sieht man überhaupt nicht, weil hier nämlich
17:41
dieser Scheinwerfer mir so ins Auge leuchtet, dass ich im Grunde gar nichts sehe, außer außer diesem Scheinwerfer. Ich weiß nicht, wie das den anderen Rednern ging, aber okay. Ich bringe das ganz kurz zu Ende und dann so alles easy. Wer ist denn als Nächster dran? Ich entschuldige mich jetzt schon und jetzt höre ich auch weiter zu zu parlabern, weil die Zeit wird ja noch knapper. So.
18:01
Ich möchte euch nur mit einem Gedanken entlassen. Warum muss eigentlich das Urheberrecht immer um jeden Preis durchgesetzt werden? Ja, ich kenne einen Strafjuristen, der mal gesagt hat, selbst in Ermittlungen wegen schwerer Straftaten ist meistens ja nicht so viel erlaubt, wie bei der Verfolgung von Urheberrechtsverletzungen.
18:20
Man muss sich mal fragen, wieso eigentlich insbesondere, wenn man mal sieht, welchen Anteil denn die sogenannte Kreativindustrie am volkswirtschaftlichen Gesamtkuchen eigentlich hat und ob man nicht auch einfach mal sagen kann. Ja, Leute, Urheberrechtsinhaber, es ist euch zuzumuten. Schreibt einfach mal eine Mail sagt,
18:40
da ist was von mir, nehmts bitte runter, dann wird das gemacht. Ende Gelände. Ich sehe die Notwendigkeit für ein Filtersystem nicht und ich bin gerne bereit, das hinterher mit euch dann das lassen wir jetzt mal weg, noch zu diskutieren und zwar dann hier irgendwie im persönlichen Rahmen, weil jetzt ist keine Zeit mehr. Vielen Dank.