Künstliche Intelligenz verändert die Berufswelt, auch die von Musikschaffenden. Aber was haben Musikschaffende von KI zu befürchten? Wird KI ihre Werke verwenden, ohne dafür zahlen zu müssen? Wird KI sie gar ersetzen, ihre Kunst entwerten? Und: Was passiert mit Werken, die mittels KI erstellt wurden? Genießen sie urheberrechtlichen Schutz? Der Versuch einer Annäherung an ein komplexes Phänomen, das alle Musikschaffende in den kommenden Jahren intensiv beschäftigen wird. Markus Deisenberger geht diesen Fragen in unserer dreiteiligen Serie aus unterschiedlichen Perspektiven nach – hier ist Teil 3, der die urheberrechtliche Problematik „Mensch vs. Maschine“ beleuchtet und die essentielle Frage im Kontext einer partizipativen Demokratie stellt: „Wie wollen wir die KI gestalten?“ Und was hat die Entwicklung von KI eigentlich mit der Erfindung der Eisenbahn zu tun? Für alle, die sie noch nicht gelesen haben, hier geht es zu Teil 1 und Teil 2.
Soweit die rechtliche Bewertung des Inputs, also des Contents, mit dem KI gefüttert wird. Wie aber verhält es sich mit dem Output, also den mithilfe von KI erzeugten Werken?
In den USA hat das Copyright Office im Februar dieses Jahres in einer Entscheidung ganz klar ausgesprochen, dass für vollständig auf Basis von KI-Modellen erzeugte Werke, computergenerierte Bilder auf Basis eines KI-Modells etwa, kein Urheberschutz geltend gemacht werden kann. Konkret ging es um eine Graphic Novel der Autorin Kris Kashtanova. Demnach ist es der Autorin nicht möglich, die vom KI-Programm „Midjourney“ generierten Darstellungen in ihrer Graphic Novel „Zarya of the Dawn“ schützen zu lassen. Das sei nur für die von ihr geschriebenen Texte sowie das Bildarrangement möglich.
In weiterer Folge hat das US-amerikanische Copyright Office eine Richtlinie veröffentlicht, die darlegt, wie und unter welchen Umständen ein Urheberschutz für Werke möglich sein könnte, die mithilfe von KI-Werkzeugen erstellt wurden und die im Wesentlichen die Entscheidung „Zarya of the Dawn“ bestätigt und konkretisiert. Grundlage der Entscheidung und der aktuellen Richtlinie ist, dass in den USA nur Werke menschlicher Kreativität geschützt werden könnten. Die Mitnutzung von KI-Technologie ist demnach aber allein noch kein direkter Ausschlussgrund vom Urheberschutz. Die Behörde werde künftig prüfen, ob die Maschine lediglich geholfen habe und die bisherigen Kriterien für einen Urheberschutz erfüllt seien, erklärte das Copyright Office. Das wiederum hänge von der Arbeitsweise der KI ab und könne nur auf Einzelfallbasis beurteilt werden.
Ähnlich ist es in Österreich in § 1 UrhG geregelt, der vorsieht, dass eine eigentümliche geistige Schöpfung nur durch einen Menschen, nicht aber durch ein Tier, einen Computer oder einen Algorithmus geschaffen werden kann. Nur das von Menschenhand geschaffene Werk genießt daher den Schutz des Urheberrechts.
Auch die EU hat das in einer von der Kommission beauftragten und im März 2022 veröffentlichten Studie „Copyright and New Technologies“ festgehalten. Und in einer Stellungnahme, die mir auf eine konkrete Anfrage an die Rechtsabteilung der EU-Kommission vom Pressebeauftragten übermittelt wurde, heißt es: „In line with the study results, if General Purpose AI (GPAI) tools, like image-generating AI applications, generate output without human creative choices, such an output is not protected by copyright.“ So weit so gut. Rein Computer- bzw. Algorithmus-generierter Content genießt also keinen Schutz.
KI – Künstler:in oder Inspirationsquelle?
Aber ein Werk, das mit Hilfe eines Computers geschaffen wird, sollte dann Schutz genießen, meint Gernot Schödl, wenn ich den Computer nur als Werkzeug verwende. Dahinter müsse natürlich immer der Mensch sein, der ihn steuert und die wesentlichen Entscheidungen trifft. Um beim US-amerikanischen Fall eines KI-generierten Comics zu bleiben: Da müsste man laut Schödl schon differenzieren. Gebe ich der Maschine nur ein paar Hinweise, wie sie zu illustrieren hat, wird das Werk keinen Schutz genießen. Wenn ich allerdings sehr kreativ prompte, wenn ich mich etwa fünf Stunden hinsetze und der KI bis ins letzte Detail sage, was sie zu tun hat und was letztlich rauskommen soll, sollte das Ergebnis auch geschützt sein. Sonst ergibt sich ganz zwangsläufig auch ein Wertungswiderspruch, weil die Voraussetzungen für die Werkhöhe im Urheberrechtsgesetz denkbar niedrig sind. Schödl bringt das Beispiel eines Schüttbilds von Nitsch ins Spiel. Jemand schüttet Farbe (oder Blut), auf eine Leinwand und das Ergebnis gilt als Werk im Sinne des UrhG.
Ein anderes Beispiel ist die so genannte Eurobike-Entscheidung (an der der Autor dieses Artikels nicht ganz unschuldig ist, weil er sie persönlich, als er noch als Jurist tätig war, als Vertreter der Klägerin beim Obersten Gerichtshof erwirkt hat). Darin heißt es wörtlich: „Lichtbilder sind als Lichtbildwerke zu beurteilen, sofern nur die eingesetzten Gestaltungsmittel eine Unterscheidbarkeit bewirken. Dieses Kriterium der Unterscheidbarkeit ist immer schon dann erfüllt, wenn man sagen kann, ein anderer Fotograf hätte das Lichtbild möglicherweise anders gestaltet.“
Dass ein:e Andere:r das Foto anders gemacht hätte, ist aber logischerweise schon dann der Fall, wenn er bzw. sie eine andere Kamera verwendet oder zu einem anderen Zeitpunkt abgedrückt hätte. D.h. nahezu jedes Foto, ob künstlerisch intendiert oder nicht, ist ein Werk im Sinne des Urheberrechtsgesetzes. Aber eine Abfolge von Bildern, für die ich eine Maschine stundenlang instruiert habe, nicht? Die derzeitige Rechtslage sagt: Nein, dafür gibt es keinen Schutz.
Schödl plädiert für eine Wertung je nach Einzelfall (wie sie auch das US-amerikanische Copyright Office anregt) und bekommt Schützenhilfe von der EU-Kommission, die konkret in der an mich ergangenen Stellungnahme schreibt:
„Even if the general copyright rules are clear, each situation involving AI programmes may be different. Therefore, each of such situations should be considered on a case-by-case basis as the ultimate legal assessment may differ.“
Nehmen wir nun an, ich arbeite basierend auf einem der von Chatbot generierten Plots einen 300-seitigen Kriminalroman aus. Mit meinen Charakteren, meiner geistigen Leistung. Wie ist das zu beurteilen?
Gorzala meint dazu: „Wenn Sie sich eines von diesen fünfzeiligen Inspirationsmomenten nehmen und das völlig eigenständig ausarbeiten, ist das natürlich gänzlich anders zu bewerten als wenn Sie der KI bloß sagen: Bitte schreib mir einen Roman zu diesem Thema. Das wird ihr Werk sein, basierend auf einer KI-Idee. Künstler:innen haben sich seit jeher gegenseitig inspiriert. In diesem Fall ist die Inspirationsquelle halt eine technische.“
Nach all dem bisher Gehörten: Müssen wir jetzt um unsere Jobs fürchten oder nicht?
Schödl meint aus der Sicht des Filmschaffens, der Sprecher:innenberuf werde bald, was Image anbelangt, nur noch durch KI gesprochen, den Beruf des Synchronsprechers werde es bald gar nicht mehr geben und auch beim Big Picture werde sich die Entwicklung empfindlich auswirken. Gorzala sieht das anders: „Für einfache Sachen, wenn es etwa um das Sprechen eines standardisierten Satzes im Call-Center geht, wird die Industrie wohl in Zukunft auf KI setzen. Überall dort, wo die menschliche Stimme keine Wertsteigerung bringt, wird es wohl eine künstliche Stimme sein. Aber gerade wo es darum geht, Menschen durch Intonation, Stimmfarbe und Klang zu berühren, werden sich die menschlichen Sprecher erhalten. Da klingen die KI-Ergebnisse immer noch sehr hölzern. Es ist derzeit noch immer schwierig, Emotionalität über Stimme zu transportieren. Da geht die Zukunft der Sprecher:innen hin. Aber noch einmal: Es spricht ja nichts dagegen, meine Stimme synthetisieren zu lassen. Nur wenn sie verwendet wird, muss man dafür auch fair entlohnt werden.“
Keine Frage: Ob Sprecher:innen, PR-Arbeiter:innen, Journalist:innen, Musiker:innen – manche Jobs sind massiv bedroht. Umso spannender ist, dass eine aktuelle Studie der International Labour Organisation [kurz: ILO, die Internationale Arbeitsorganisation ist eine Sonderorganisation der Vereinten Nationen und damit beauftragt, soziale Gerechtigkeit sowie Menschen- und Arbeitsrechte zu fördern, Anm.] genau das untersucht hat und zu dem Schluss gekommen ist, die Technologie werde eher neue Jobs schaffen als bestehende vernichten.
„Ist das nicht schräg?“, will ich von Gorzala wissen. „Klar, KI wird die Arbeitswelt verändern“, sagt sie, „es werden bestehende Jobs wegfallen, bestehende Jobprofile werden sich ändern. Aber in Summe ist die Angst, dass wir durch KI alle arbeitslos werden, nicht unbegründet, weil Angst immer einen Grund hat, aber unberechtigt. Natürlich werden Weiterbildungsmaßnahmen nötig sein, um den gänzlich geänderten Jobprofilen gerecht zu werden. Und wir haben jetzt schon einen Talente- und Fachkräftemangel. Der wir noch schlimmer werden. KI kann, sagt die Studie, eine Chance sein, wenn sie sinnvolle Jobs schafft.“
Ob KI tatsächlich so viele Jobs schaffen kann, wie an Sprecher:innen-, PR-, Journalist:innen und Musiker:innenjobs abhandenkommen werden? Man wird sehen.
Masse und Macht
Eine Bedrohung der Kunst, insbesondere der Literatur und der Musik, ist aber auch durch die schiere Masse an KI-generierten Veröffentlichungen zu befürchten, mit der wir uns jetzt schon konfrontiert sehen. Auf Amazon etwa werden Verkäufer:innen beim Hochladen von Büchern gefragt, ob KI in deren Erstellung mitgewirkt habe. Zudem wurde festgelegt, wann ein Inhalt als „KI-generiert“ und wann als „KI-unterstützt“ gilt. „KI-generiert“ meint in der Definition Amazons, dass Werke von KIs erstellt worden sind. „KI-unterstützt“ ist, wenn KI bloß zum Ideenfinden, Verbessern, Faktencheck genutzt wurde. Ersteres müsse ausgewiesen werden. Vor kurzem legte Amazon nach: Autorinnen und Autoren, die mit „Kindle Direct Publishing“ publizieren, dürfen künftig nicht mehr als drei Bücher pro Tag veröffentlichen. Letzteres klingt absurd, zeigt aber das Problem, dass die Zahl der von KI verfassten Texte nicht nur stark steigt, sondern sie es längst in den Verkauf schaffen. Und wie das mit Masse immer ist – das kennen wir aus der Musik: Das Gute lässt sich, je mehr verfügbar ist, schwerer finden, geht mitunter in der Masse unter.
Ein anderes Problem ist die Machtkonzentration. Die KI-Systeme gehören ausnahmslos privaten Unternehmen. Meredith Whittaker, ehemalige Mitarbeiterin von Google Open Research, wird deshalb nicht müde, in Artikeln, Interviews und Vorträgen vor dieser drohenden Machtkonzentration zu warnen. Kaum einer verstehe, sagt sie, welche gesellschaftlichen Auswirkungen damit einhergehen. Siegfried Handschuh sieht das ähnlich: „Die Systeme sind so groß geworden, dass sie nur noch von großen Unternehmen gebaut werden können. Ist die Forschung undemokratisch geworden? Handschuh bejaht. „Für alle Universitäten wird das Ganze eine Herausforderung. Wir haben nicht die Ressourcen, um ein Sprachmodell für 12 Millionen Dollar zu trainieren. Das muss man in Forschungsverbünden machen. Geglaubt wird aber, was die Menschen in Google und Wikipedia finden. Und wenn sich ChatGPT als System durchsetzt, werden die Leute auch dessen Antworten glauben. Dass solch ein Normativ von einer Firma kommt, ist bedenklich. Das System ist auch nicht neutral. Den Maschinen wurde eine Ethik beigebracht, die bei den Antworten durchschlägt. Wenn ich die Maschine nach Argumenten für den Klimawandel frage, liefert sie die. Argumente dagegen liefert sie nur mit Einschränkungen. Man kann also gut erkennen, wo die Menschen, die es programmiert haben, politisch stehen. Als neugieriger Forscher ziehe ich Systeme vor, die keine Antworten filtern, aber ich kann natürlich verstehen, dass Unternehmen dies tun, weil sie fürchten, einen Backlash zu erleiden. Manche Antworten gibt das System nicht einmal widerwillig, sondern gar nicht.“
Was bringt die Zukunft?
Droht die „Auslöschungsrisiko für die Menschheit“, wie es OpenAI-Mitgründer Sam Altman und viele andere in einem gemeinsamen Statement recht dramatisch formuliert haben? Wohin geht die Reise? „Das hängt ganz davon ab, wie wir diese Technologien benutzen“, sagt Emilia Gómez. „Technologie bewirkt immer einen gesellschaftlichen Wandel, aber Technologie wird letztlich von Menschen gemacht und von Menschen benutzt. Warum also die Technologie verteufeln? Wir müssen die Technologie in vertrauenswürdiger Art und Weise entwickeln, damit sie für soziales Wohlergehen sorgt.“
Stefan Wally, Zukunftsforscher und Leiter der Robert-Jungk-Bibliothek für Zukunftsfragen in Salzburg, verweist darauf, dass wir in der Regel bei neuen Technologien solche Debatten führten: „Oft wird die Kritik lächerlich gemacht, in dem man dran erinnert, dass Menschen schon die Eisenbahn für lebensgefährlich hielten.“ Aber Besorgnis sei gut, „denn wenn man durch Besorgnis auf Probleme draufgekommen ist, hat man versucht, sie zu regulieren. Sicherheits- und Kontrollstandards wurden eingeführt.“ Regulierungen aber setzen laut Wally einen Akteur voraus, der stark genug ist zu regulieren. „Ist ein Staat stark genug, mit internationalen Konzernen so zu sprechen, dass bestimmte Dinge durchgesetzt werden?“ Die Frage sei, ob wir uns als demokratische Gesellschaft zutrauen, bestimmte demokratische Entwicklungen in die Hand zu nehmen. „Die KI-Diskussion ist ein schönes Beispiel dafür. Die Fragen, die gestellt werden, sind: „Wie wird sich die KI entwickeln? Was wird sie bringen?“ Und nicht: „Wie wollen wir die KI gestalten?“ Das wirkt, als hätten wir das gar nicht mehr in der Hand, weil uns bestimmte Dinge entglitten sind, weil die Macht bei bestimmten Unternehmen größer ist als bei regulierenden Institutionen.“
Aber haben wir es noch in der Hand? „Ja. Es geht darum, sich zu fragen, wie man internationale Institutionen stärken kann, dass sie hier regulierend eingreifen. Das ist nicht aussichtslos. Wir haben die EU, die in Auseinandersetzung mit derlei Institutionen tritt. Wir müssen uns die Frage stellen, was wir brauchen. Dann bringen sich Menschen mit Ideen und Vorstellungen ein.“
Die einzige Institution, die man stärken kann, damit sie der angesprochenen Machtkonzentration etwas entgegensetzt, ist die EU. Wir werden sehen, was der AI Act in seiner letztlich beschlossenen Fassung und andere Verordnungen/Richtlinien, die ihm vielleicht folgen werden, bringen. Leicht wird es jedenfalls nicht, wenn wir uns an das jahrzehntelange Ringen um eine EU-weite urheberrechtliche Regelung erinnern, die in die Urheberrechts-Richtlinie mündete, die vieles regelte, aber auch manches offen ließ. Aber Aufgeben ist in diesem Fall keine Option. Wie Wally richtig festhält, ist der partizipative Ansatz von Demokratie wichtiger denn je, wenn wir mitgestalten wollen, was KI können soll – und was nicht.
Markus Deisenberger
++++
Links
Künstliche Intelligenz in der Musik – Teil 1
Künstliche Intelligenz in der Musik – Teil 2
Interview mit Emilia Gómez (mica)