Denn sie wissen nicht, was sie tun

Video thumbnail (Frame 0) Video thumbnail (Frame 467) Video thumbnail (Frame 845) Video thumbnail (Frame 2176) Video thumbnail (Frame 7696) Video thumbnail (Frame 15496) Video thumbnail (Frame 23296) Video thumbnail (Frame 26021) Video thumbnail (Frame 28271)
Video in TIB AV-Portal: Denn sie wissen nicht, was sie tun

Formal Metadata

Title
Denn sie wissen nicht, was sie tun
Title of Series
Author
License
CC Attribution 3.0 Unported:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
2016
Language
German
Producer
Chaos Computer Club e.V.

Content Metadata

Subject Area
Abstract
Die EU-Kommission erwägt eine Content-ID-Pflicht für alle Plattformen.
Content (media)
Mainframe computer Data storage device Internet service provider
Service (economics) Mechanism design Zahl ACCESS <Programm> Information Provider YouTube Provider
Data stream Filtration Hash function
Netscape
die eu kommission versucht das internet auf mehrere weisen zu zerst?ren und eine davon m?chte ich euch heute vorstellen es geht um content id pflicht f?r plattformen und um euch n?her zu bringen
worum es da eigentlich geht ein paar worte vielleicht erstmal zur gegenw?rtigen rechtslage bevor wir dann sehen inwieweit die schlimmer wird die gegenw?rtige rechtslage sieht eigentlich vor ort nach der bisher geltenden e commerce richtlinie die in deutschland durch das
telemediengesetz also in deutsches recht umgesetzt wurde das host provider nicht haften f?r die inhalte die sie dort f?r ihre nutzer speichern jedenfalls solange nicht solange sie nicht wissen dass diese inhalte rechtswidrig sind diese rechtslage ist eigentlich w?rde ich sagen mittlerweile so ganz bew?hrt und ich finde eigentlich dass es ganz gut funktioniert es in der praxis stellt sich das eben so da wir haben vielleicht irgendwie eine plattform nennen wir sie mal wikimedia commons und erlebt vielleicht irgendjemand was hoch auf diese plattform und das ist vielleicht gar nicht von ihm selber gemacht sondern von jemand anderem und der andere m?chte das vielleicht gar nicht so sehr hoch geladen wird dann kann derjenige daneben sich an den plattform betreiber wenden n?mlich also die foundation in diesem
fall irgendwann francisco schreibt dahin bitten uns runter und dann wird es dann irgendwie gemacht ist jedenfalls so das was sich der gesetzgeber dabei vorgestellt hat und man muss sagen dass zumindest mir in meiner praxis jetzt keine gravierenden probleme bekannt sind mit diesem mechanismus erscheint eigentlich so ganz gut zu funktionieren oder gilt eigentlich jetzt also auch nicht nur f?r urheberrechtsverletzungen sondern der gilt im grunde f?r jede art von rechtsverletzungen also insbesondere auch zum beispiel im presserecht am main forum jemand schreibt was b?ses rein der betroffene sagt in form betreiber sonst bitte rausnehmen das passiert dann ende gel?nde kein problem also stark verk?rzt nat?rlich ganz so einfach ist es dann manchmal doch nicht aber im gro?en und ganzen funktioniert dieser mechanismus so die geplante jetzt im entwurf vorliegende direktive ?ber rechts direktive der eu-kommission bedeutet f?r diesen mechanismus der eigentlich so ganz gut funktioniert einen ja schon fast kompletten paradigmenwechsel denn darin wird vorgesehen dass content provider jedenfalls solche die in erheblichem umfang man sich dar?ber unterhalten wann dieser umfang erreicht ist content provider jedenfalls dazu verpflichtet werden sollen ma?nahmen zu ergreifen und zwar wirksame und verh?ltnism??ige ma?nahmen um also die rechteinhaber vor urheberrechtsverletzungen zu sch?tzen und insbesondere nennt die kommission in ihrer richtlinie dort die implementierung effektiver technologien als eine m?gliche ma?nahme oder ich w?rde vielleicht eher sagen als die pr?ferierte ma?nahme die frage ist nat?rlich was hat die kommission vor augen wenn sie so etwas fordert und das d?rfte wohl sehr klar sein woran sie da gedacht hat n?mlich an das content id programm von youtube das content id programm julia r?der hat vorhin schon gesagt wurde von der google tochter youtube entwickelt im grunde um so ein bisschen den druck aus dem kessel zu lassen wenn man so m?chte also den urheberrechts den rechteinhabern die m?glichkeit zu geben durch das content id programm selber nach rechtsverletzungen an ihren eigenen werken zu suchen und diese irgendwie entweder abzustellen oder sie zu erlauben und daf?r sich an den werbeeinnahmen beteiligen zu lassen oder was auch immer da gibt verschiedene optionen jedenfalls hat youtube das entwickelt es war unglaublich teuer julia r?der sagte 60 millionen euro ich ?bernehmen macht mir diese zahl einfach mal zeigen das wird schon stimmen jedenfalls ist es du hattest das auch irgendwoher also ich wei? nicht google sagt es die werden es wissen ok also nehmen wir mal an dass google das zutreffend mitteilt und ich hoffe ich werde jetzt hier nicht von google abgemahnt f?r falsche ?u?erungen oder so was bei mir extrem peinlich aber okay zur?ck zum thema jedenfalls ziemlich teuer und die eu kommission stellt sich nun vor dass irgendwie so auf alle plattformen zu erweitern dass das was man diesem entwurf so entnehmen kann stellt sich mir als jurist als erstes die frage wie verh?lt sich das denn zu gegenseitigen haftungsprivilegierung und dann guckt man in diese neue diesen vorschlag der neuen richtlinie rein und lie? dann darin dass diese verpflichtung also auch bestehen soll wenn der provider sich an sich auf die haftungsprivilegierung aus der e commerce richtlinie berufen kann was nat?rlich jetzt ein echter paradigmenwechsel ist weil er n?mlich bedeutet dass der provider eben nicht
mehr im grundsatz freigestellt ist von der haftung sondern dass er eben im grundsatz erst mal ma?nahmen ergreifen muss was absolut entgegen der gegenw?rtigen rechtslage liegt die eben vorsieht dass nicht nur vorsieht dass er das nicht muss vorher seine vorher die uploads alle durch zu gucken bevor sie ver?ffentlicht werden sondern dies ihm sogar verbietet da komme ich gleich noch mal im bereich datenschutz insbesondere dazu also es ist ein paradigmenwechsel in meiner in meinen augen und es ist kein guter wie ihr euch vorstellen k?nnt der erw?gungsgrund sieht eben vor dass sollen content recognition technology seien effektive die sollen wirksam und verh?ltnism??ig sein was auch immer das bedeutet also die frage stellt sich ja schon was kann man sich da ?berhaupt noch vorstellen au?er einem content id programm die ?berlegung ist vielleicht auch wenn man k?nnte das dann auch manuell durch gucken oder so aber das k?nnt ihr euch alle vorstellen dass es im grunde nicht m?glich ist irgendwie alle uploads die so jeden tag zum beispiel auf einer plattform wie wikipedia commons hochgehen alle manuell durch zu gucken ob die irgendwie okay sind also ich meine man kann die schon an gucken vielleicht noch auf ?bersichtsseiten und sehen da sind viele neue sachen gekommen aber man kennt die rechtslage und die rechteinhaber schafft an diesen banken gar nicht man m?sste das ja alles pr?fen das ist im grunde nicht m?glich und die frage ist auch im ?brigen ob das so eine technologie k?nnte da komme ich gleich noch mal dazu die hauptfrage die sich mir aber er stellt in der tat ist die frage nach der sinnhaftigkeit ich kann sie ehrlich gesagt nicht erkennen wir haben wie gesagt nach der gegenw?rtigen rechtslage die situation dass ein rechteinhaber der feststellt dass seine werke unrechtm??ig irgendwo hochgeladen wurden jederzeit an den provider herantreten kann und sein kann es wieder runter das l?st nicht nur die verpflichtung aus dass runterzunehmen das l?sst auch die verpflichtung aus zu verhindern dass es noch mal hoch geladen wird also da hat man schon so eine art pr?fungspflicht dann dann dadurch gegeben jedenfalls sehe ich nicht inwieweit jetzt ein content id programm oder ein vorab filter demgegen?ber noch irgendwie mehrwert bieten sollte ja es wird immer also falsch positive geben und es wird immer ein erhebliches ober blog hingeben und da ist diese manuelle mitteilung des runter doch eigentlich die sinnhafte und schonende variante zumal die kommission ja selber schon hiervon proporz also verh?ltnism??ige ma?nahmen spricht zum thema verh?ltnism??igkeit die ist da wirklich nicht zu erkennen ok die frage ist nat?rlich auch ich rede hier die ganze zeit bewusst nat?rlich von wikimedia commons weil man an diesem beispiel sehr sch?n zuspitzen kann die frage was bild und eigentlich bei non profit plattformen wikimedia commons selbstverst?ndliche nonprofit der ist anders als youtube damit wird kein geld verdient das lebt von spenden ist aber von dem wortlaut der geplanten richtlinie der direktive jedenfalls umfasst und die frage stellt sich wieso sollten eigentlich noch ein profit plattformen die haftung reinkommen wir haben zumindest f?r die f?r das gegenw?rtige recht in deutschland die situation dass der bundesgerichtshof immer betont diese pflichten die gegen?ber providern jetzt gelten also auch diese pflicht des runterzunehmen das rechtsverletzende material und zu verhindern dass genau dieses auch nicht wieder hochgeladen wird die d?rfen nur so weit reichen wie es ein zul?ssiges gesch?ftsmodell nicht gef?hrdet und dann gibts auch gewisse grenzen eben dass man ihm sei man also ein provider kann auch nicht dazu verpflichtet werden f?r 60 millionen euro ein filtersystem zu entwickeln weil es um da irgendwie rechteinhaber zu sch?tzen weil das einfach bedeutet dann ist platt es hat nicht jeder 60 millionen euro und dann muss man halt eben die ma?nahmen ergreifen die man ohne die gef?hrdung des eigenen gesch?ftsmodells ergreifen kann und die k?nnen da weitaus drunter liegen ja und die k?nnen auch mal bedeuten im einzelfall dass man eben keine pr?fungspflicht dann unterliegt dieser grundsatz der f?rs deutsche recht bisher jedenfalls gehalte wurde durch die richtigen eben auch aufgehoben das hei?t im grunde es w?rde auch eine non-profit plattform wikipedia commons verpflichtet sich hinzusetzen und wahlweise konnten dieses thema einzukaufen oder 1 zu machen dass das irgendwie nicht funktionieren kann oder jedenfalls nicht ohne wirklich eine existenzgef?hrdung zu bedeuten das sollte einleuchten die frage ist nat?rlich auch wo wir gerade beim thema sind verh?ltnism??igkeit wie verh?lt sich das eigentlich zur selbst regulierungsmechanismen und auch daf?r nicht dass wikipedia commons ein sehr gutes beispiel ist weil wikipedia commons im grunde einen relativ gut funktionierenden selbst regulierungsmechanismus hat es wird zwar nicht immer gleich am selben tag geguckt ist es irgendwie okay was der hochgeladen wurde aber man kann sich schon darauf verlassen dass fr?her oder sp?ter bei der nutzung beim einsortieren war noch immer mal irgendjemand drauf guckt was ist das eigentlich f?r ein upload und wenn sich das irgendwie aufdr?ngt dass der rechtsverletzend ist dann wird er durchaus auch von der community ausgel?st also dann stellt sich auch die frage ob das eigentlich n?tig ist dar?ber hinaus noch weitere mechanismen zu etablieren geht noch eine regel rigorosere filtertechnik bedeuten w?rden als diese die frage die sich weiter stellt ist die kommission hat content id
irgendwie vor augen k?nnen wir das hier zu einem de facto standard machen die erste frage ist die nach den kosten liegt auf der hand julia r?der hat vorhin gesagt und damit hat sie recht werden jetzt m?ssen jetzt alle verpflichtet werden konnte tidy zu lizensieren die alternative w?re ja jeder entwickelten eigenes jedenfalls ist es so teuer egal wie man es dreht die zweite frage ist die nach der komplexit?t die richtlinie unterscheidet ja nicht nach verschiedenen arten urheberrechtlich gesch?tzter werke nehmen wir mal an wir haben ein foto wir haben 1 1 ein musikst?ck wir haben einen text all diese werke m?ssen ja von dem filter system erfasst seien und es m?ssten ja auch im grunde zumindest in gewissem umfang abwandlungen erkennbar seien in diesem filter system also m?ssen von diesem filter system erkannt werden nehmen wir mal zum beispiel ein foto ist noch relativ einfach da macht man vom foto jd bild macht mein helm schwert guckt bei jedem upload hat es den gleichen hash wert und das ist wohl das gleiche foto dann klicken muss raus was machen aber mit ausschnitten was macht man mit mashups was macht man bei texten eigentlich wenn ein paar worte umgestellt sind k?nnte vom urheberrechtsschutz immer noch umfasst sein wird auch in der regel wird aber vielleicht waren filtersystem nicht mehr automatisch erfasst was bedeutet das was bedeutet das auch f?r die haftung hinterher da stellt sich dann daran anschlie?end die frage nach der effektivit?t wenn ein filtersystem sowieso nur eine erfolgsquote von sechs prozent hat ja kann einem das dann auferlegt werden so ein filtersystem einzurichten dass eigentlich nichts bringt von dem auch der rechteinhaber vielleicht am ende nicht zeit ich finde das pers?nlich extrem problematisch und wenn man das filtersystem so rigoros macht dass die fehlerquote sinkt dann hat man automatisch auch einen erheblichen anteil overclocking das kann man ?brigens bei youtube immer sch?n erkennen auch wenn man so situationen hat wie jemand nutzt vielleicht von einer legalen von einer legalen urheberrechtlichen schranke gedeckt ein ein teil eines fremden werkes und es fliegt dann aber trotzdem das gesamte nutzende also das gesamte neue werk fliegt trotzdem aus youtube raus weil durch den vom filter als rechtsverletzung erkannt wird haben wir filtersysteme die urheberrechtliche schranken zutreffend erfassen ich kann mir so etwas nicht vorstellen zitat schranke der kommt immer auf abw?gungs michael also auf rechtliche auf abw?gungen an und abw?gungen kann die software kaum treffen die n?chste frage die nach den kollateralsch?den jenseits des oberen blocking datenschutz der ein filtersystem das beim upload eines werkes pr?fen muss ob dieses werk von einem rechteinhaber einem rechteinhaber geh?rt und dass dann gegebenenfalls rausgibt m?sste jeden upload jeden datenstrom der hoch geht auf die plattform komplett durchsuchen und zwar die inhaltsdaten ist filtersystem w?rde bedeuten eine vollst?ndige durchleuchtung der inhaltsdaten die vom nutzer auf die plattform hochgeladen werden das ist selbstverst?ndlich ein eingriff in das recht auf informationelle selbstbestimmung denn es liegt ja auch v?llig klar auf der hand dass auch der umstand alleine wer zum beispiel was hochgeladen hat er ist ein personenbezogenes datum dann k?nnen noch hinzukommen informatik personenbezogene daten die in dem hochgeladen und werk enthalten sind es kann ja vielleicht ein audio stream seien zum beispiel von dieser veranstaltung werden meinungen ge?u?ert die sind meistens auch total gut und so und innovativ und alles ja also auf jeden fall sind die geschwitzt von der meinungsfreiheit weil kurzer einschub auch quatsch ist von der meinungsfreiheit gesch?tzt aber nehmen wir mal an ist es auch noch zus?tzlich was total toll ist und das wird dann eben ?lter aus irgendwelchen gr?nden wei? vielleicht zuf?llig einen ?hnlichen hash wert hat oder was auch immer wird es dann irgendwann klick sind eben auch aus dann haben wir dann haben wir nicht nur ein datenschutzrechtliches problem sondern eben auch ein problem mit der meinungsfreiheit und da hat der ogh in der entscheidung aus dem jahr 2012 netlog mal gesagt dass filtersysteme die die vollst?ndige durchleuchtung von inhaltsdaten nicht nicht eingerichtet werden d?rfen auf grundlage der e commerce richtlinie bei der frage filterung von von uploads das hei?t also der ogh immerhin der ogh hat in der etablierung von filtersystemen ein versto? gesehen sowohl gegen die meinungsfreiheit als auch gegen datenschutz das grundrecht auf informationelle selbstbestimmung und da m?chte ich mal sehen wie man da eine direktive macht am ende die diesen anforderungen gen?gt oder kein versto? bedeutet bei der meinungsfreiheit die chilling effects insbesondere filtersysteme neigen grunds?tzlich zur expansion das war ein wesentliches argument auch das immer in
der zensursula debatte gebracht wurde zu recht dass man gesagt hat wenn jetzt einmal die so filtersysteme eingerechnet werden und da ging es ja nur um kinderpornografie und das kann ja wohl keiner daf?r seien kinderpornografie im internet zu ver?ffentlichen dann hat man aber die filtersysteme einmal eingerichtet und dann stellt sich eben die frage was fast man denn da noch so alles drunter jetzt kommen wir von der anderen seite her n?mlich nicht vom von der kinderpornografie und vom strafbaren sondern wir kommen vom urheberrecht her und kann aber auch wunderbar die gleichen filtersysteme die wir hier etablieren hinterher nutzen um kritische meinungs?u?erungen zu unterbinden womit wir wieder den bogen geschlagen h?tten zu gegenw?rtigen hate speech debatte ja was ist denn wenn man da anf?ngt nach schlagworten die filtersysteme mit schlagworten zu f?ttern und auf einmal fliegt ein bericht wieder ein beispiel ja auch wahr ?ber folter kritischer bericht ?ber falter raus weil er irgendwie das wort weiter drin vorkommt ja also ich meine so simpel sind die filtersysteme nat?rlich nicht aber man kann sich der beliebige szenarien ausdenken auch das oberlandesgericht d?sseldorf ?brigens f?r die rein nationale deutsche rechtslage mal gesagt filtersysteme sind kritisch filtersysteme darf man dann durch einrichten wenn da nutzerdaten mit erhoben werden und es wird in der regel der fall sein bei solchen systemen man muss gucken wer macht den upload das ist ein personenbezogenes datum im inhalt k?nnen personenbezogene daten stecken im inhalt k?nnen auch meinungs?u?erungen stecken das sind alles rechte die hier v?llig beiseite gewischt werden nur um einen einzigen einziges recht gut zu bedienen und zwar das urheberrecht da fragt man sich schon wie so dass eigentlich immer an der sozusagen an der pyramide der rechtsg?ter immer an der spitze stehen muss eigentlich gesagt also das ist eine frage die man sich stellen kann okay noch mal zum thema verh?ltnism??igkeit das urheberrecht
scheint mir in der politischen debatte irgendwie dasjenige recht zu sein wenn ich schon dr?ber ?ber derzeit oder so ok tut mir leid eigentlich sollte es noch so cool game oder sowas aber das sieht man ?berhaupt nicht weil hier n?mlich dieser scheinwerfer mir so eingerichtet dass ich im grunde gar nix sehe au?er au?erdem scheinwerfer ich wei? nicht wie das den anderen motorr?dern ging aber okay ich bringt es ganz kurz zu ende und dann alles easy ersten als n?chster dran ich entschuldige mich jetzt schon und jetzt h?re ich auch weiter zu verlagern weil die zeit wird ja noch knapper ich m?chte euch nur mit einem gedanken entlassen warum muss eigentlich das urheberrecht immer um jeden preis durchgesetzt werden ja ich kenne einen straff juristen einmal gesagt hat selbst in ermittlungen wegen schwerer straftaten ist meistens gar nicht so viel erlaubt wie bei der verfolgung von urheberrechtsverletzungen muss ich mal fragen wieso eigentlich insbesondere wenn man sieht welchen anteil denn die sogenannte kreativindustrie am volkswirtschaftlichen gesamten eigentlich hat und ob man nicht auch einfach mal sagen kann ja leute urheberrechtsinhaber es ist euch zuzumuten schreibt einfach mal ne mail sagt da etwas von mir nix bitte runter dann wird s gemacht ende gel?nde ich sehe die notwendigkeit f?r ein filtersystem nicht und ich bin gerne bereit das hinterher mit euch damit dass lassen jetzt mal weg noch zu diskutieren
und zwar dann hier irgendwie im pers?nlichen rahmen weil es keine zeit mehr vielen dank
Feedback