Wenn Computer bereits Texte verfassen, die in Literaturwettbewerben bestehen oder und Bilder erstellen, die sechsstellige Summen bei Kunstauktionen erzielen, dann stellt sich die Frage, wer die Rechte an diesen Werken hat.
Sind als Urheber die Programmierer der Software, diejenigen die sie anlernen, die Nutzer oder gar alle zusammen als Miturheber zu betrachten? Oder sind die KI-Werke gemeinfrei und vom Urheberrecht überhaupt nicht erfasst?
Bedarf es dann sogar spezieller Leistungsschutzrechte, um diese Art des kreativen Computeroutputs zu schützen? Umgekehrt kann man sich aber auch fragen, ob nicht die Künstler, Autoren und andere Kreative vor der digitalen Konkurrenz geschützt werden müssten.
Auf der Suche nach Antworten auf diese Fragen schauen wir uns daher nicht nur die Rechtslage, sondern blicken auch auf die gesellschaftlichen und wirtschaftlichen Grundlagen des Urheberrechts. Ferner gehen wir auch der Frage nach, ob und im welchen Umfang die KI auf Grundlage urheberrechtlich geschützter Werken angelernt werden darf.
Zu Gast begrüßen wir Mag. Katharina Bisset aus Niederösterreich, die sich mit den rechtlichen Herausforderungen der Zukunft nicht nur als Rechtsanwältin, sondern gemeinsam mit Mag. Michael Lanzinger auch in Ihrem Podcast „Nerds of Law“ beschäftigt.
Wir bedanken uns bei Katharina herzlichst für den Besuch, empfehlen auch bei den Nerds of Law reinzuhören und wünschen viel Vergnügen beim Zuhören!
Kapitel
- 00:03:30 – Gibt es Unterschiede zwischen dem österreichischen, deutschem und weltweiten Urheberrecht?
- 00:05:30 – Was ist ein urheberrechtliches Werk und wer ist ein Urheber und ab wann wird die nötige Werk-, bzw. Schöpfungshöhe überschritten (z.B. bei Fotos, Musik, Tweets, Texten und anderen AGB)?
- 00:14:55 – Wer oder was ist der Urheber und ab wann hört eine Maschine auf, ein Werkzeug zu sein?
- 00:22:00 – Sind diejenigen die KI programmieren, sie anlernen oder nutzen Urheber?
- 00:28:30 – Sind neuronale Netze Werkzeuge oder autonome Schöpfer?
- 00:34:00 – Bedarf es eines besonderen Leistungsschutzes für computergenerierte Werke.
- 00:40:00 – Schutz der Quellen, aus denen die KI-Wissen gewinnt (d.h. fremde Bilder, Texte, Datenbanken, etc.) vs. Interesse an möglichst objektiver und neutraler KI.
- 00:45:00 – Erleichterung des Data und Textmining durch die EU-Urheberrechtsreform (§§ 44b für kommerzielle Zwecke und 60d UrhG-DE und wissenschaftliche Zwecke ).
- 00:48:00 – Sind menschliche Stimmen sowie andere Persönlichkeitsmerkmale geschützt und sollten Deepfakes ebenfalls gesetzlich geregelt werden?
- 00:52:00 – Entfällt der Sinn des Urheberrechts, wenn die KI-Werke von menschlichen Werken nicht zu unterscheiden sind?
- 00:58:00 – Transzendentale Wertigkeit von Werken und sollten von der KI erstellte Werke explizit als solche gekennzeichnet werden?
- 01:03:00 – Was sollte gesetzlich noch geregelt werden?
Weiterführende Links (2do)
- Schutz des Zitates „Mögen hätte ich schon wollen, aber dürfen hab ich mich nicht getraut.” von Karl Valentin (LG München I, 08.09.2011 – 7 O 8226/11).
- Affenselfie vs. Urheberrecht.
- Neuronale Netzwerke.
- Tay, Microsofts Chatbot – wenn Chatbots das Schlechte von Menschen lernen.
- Star Trek TNG: „Wem gehört Data?“.
Project Guttenberg
Andreas Unkelbach
7. Juli 2021 at 16:59Guten Abend miteinander,
so manchmal bin ich dann doch erstaunt auf welchen Weg ihr zu euren Themen kommt und habe mich heute sowohl inhaltlich als auch durch die Referenzen zu Star Trek gefreut nicht nur etwas gelernt zu haben, sondern auch juristisch etwas gelernt haben zu können. Vielen Dank dafür und ein großes Lob für die Folge.
Der innere Geek/Nerd war natürlich besonders angetan durch den kurzen Verweis auf TNG 2.9 wobei das Thema Urheberrechte noch ein klein wenig vertiefter in der Folge VOY 7.20 (Die Veröffentlichung, Author, Author) aufgegriffen wurde und gezeigt hat, dass die Föderation offensichtlich Elemente des Case Law innehat :-). Hier wurde Autorenrechte des Doktors im Föderationsrecht verweigert, da Hologramme keinerlei Rechte besitzen aber am Ende dann doch zumindest Rechte als Urheber zugesprochen bekommt.
Da ich aber nicht davon ausgehe, dass ihr bald wieder eine Impressumsfolge geplant habt und die Moderation nicht durch KI übernommen wird hoffe ich, dass ihr noch eine ganze Weile (monatlich) neue Folgen der Rechtsbelehrung online stellen werdet.
Vielen Dank dafür und euch eine erfolgreiche Woche noch.
Sandra
8. Juli 2021 at 2:50Zum Thema KI möchte ich Herr Richter ein bisschen widersprechen. Eine „KI“ heutzutage ist nichts anderes als ein (komplexes) Programm, das aus einem Haufen an Inputs deterministisch einen Zustand generiert anhand dessen dann deterministisch Entscheidungen getroffen werden. D.h. solange ich den Input kenne, kann ich das gleiche neuronale Netzwerk reproduzieren und die gleichen Entscheidungen treffen lassen (in der Praxis wird zwar oft randomisiert, aber auch Zufallszahlen sind Teil dieses Inputs).
Daraus folgt aber auch: natürlich kann ich prinzipiell dem Netzwerk beim Lernen zuschauen und auch verstehen, wie es entscheidet. Das wird ja auch haufenweise gemacht, man denke nur an die Masken, die Gesichtserkennungssysteme verwirren oder an Forschergruppen, die sich einen Spaß daraus machen, vollkommen themenfremde Bilder subtil so zu bearbeiten, dass daraus irgendwie plötzlich mit 99,7% Wahrscheinlichkeit ein Hund erkannt wird – das geht natürlich nur, wenn du verstehst, wie das Netz entscheidet.
So, und jetzt kann ich natürlich ein System so komplex machen oder mit so vielen Variablen füttern, dass man seinen Zustand nicht mehr verstehen und keine Entscheidungen mehr voraussagen kann – aber dafür brauche ich keine KI/kein neuronales Netz; das kann ich auch mit einem beliebigen anderen System machen (dafür reicht eine Lavalampe).
Bezüglich Deepl: Was ist der Unterschied zwischen Deepl und einer Kamera? In beiden Fällen definiere ich den Input, drücke den Auslöser und dann passiert (aus Nutzersicht) Magie. Genauso wenig wie bei Deepl weiß ich genau, was Sony da physikalisch mit seinem Sensor macht, wie die Sensorrohdaten in ein Bild umgewandelt werden usw. – mal ganz abgesehen davon, dass ich durch das Sensorrauschen sogar noch einen echten physikalischen Zufallsmoment drin habe, der bei Deepl so fehlt.
Diese Sendung hat bei mir irgendwie mal wieder mehr Fragen aufgeworfen als beantwortet 😅 – top, weiter so!