KI in der Musikindustrie – Teil 1: Was ist künstliche Intelligenz?

2023 wird als das Jahr in die Geschichte eingehen, in dem künstliche Intelligenz als Game-Changer in der Musikindustrie erkannt wurde, nachdem auf den Social Media Seiten der Song „Heart on My Sleeve“, der von einer KI, die täuschend echt die beiden Rap-Superstars Drake und The Weeknd nachahmte, interpretiert wurde. Zwar spielen KI-Anwendungen schon seit vielen Jahren eine wesentliche Rolle in der Musikerkennung, Musikempfehlung und bei der sogenannten Produktionsmusik, aber die täuschend echte Replikation von Stimmen großer Superstars und das selbständige Musikschaffen von KI-Systemen stellen eine neue Qualität im musikindustriellen Produktionsprozess dar, die eine Disruption in der Musikindustrie einläuten könnten.

Was liegt daher näher, als sich ausführlich in einer Blog-Serie mit verschiedenen Aspekten des Einflusses von KI auf Prozesse und Strukturen in der Musikindustrie auseinanderzusetzen. Den Anfang macht ein Beitrag, in dem eine definitorische Abgrenzung, was eigentlich unter künstlicher Intelligenz zu verstehen ist, vorgenommen wird. Der einleitende Blog-Post stellt daher die Frage: „Was ist KI?“

KI in der Musikindustrie – Teil 1: Was ist künstliche Intelligenz?

Am 31. August 1955 reichte der junge Assistenzprofessor für Mathematik, John McCarthy, der am Dartmouth College in Hanover, New Hampshire tätig war, einen Förderantrag für einen Sommer-Workshop mit dem Titel „Dartmouth Summer Project on Artificial Intelligence“ bei der Rockefeller Foundation ein.1 McCarthy war mit der Begriffsverwirrung, die damals über „thinking machines“ herrschte, unzufrieden und fand mit Marvin Minsky, Nathaniel Rochester und Claude Shannon namhafte Mitstreiter, die den Workshop ausrichteten. Marvin Minsky, der später das AI Laboratory am Massachusetts Institute of Technology (MIT) gründen sollte, hatte vor Kurzem sein Doktorat mit einer Arbeit über künstliche neuronale Netzwerke, die physiologischen Prozessen im menschlichen Gehirn nachempfunden sind, an der Harvard University fertiggestellt und arbeitete dort als Junior Fellow für Mathematik und Neurologie. Er hatte auch eine Maschine gebaut, die Lernprozesse auf Basis von neuronalen Netzwerken simulieren konnte, wie aus dem biografischen Teil der Förderantrags hervorging.2 Darin konnte man auch nachlesen, dass Nathaniel Rochester als Manager für Information Research bei der IBM Corporation tätig war und dort den ersten modernen Computer, den IBM Type 701, mitentwickelt hatte.3 Schließlich wird als Mitantragsteller auch noch Claude Shannon genannt, der als Mathematiker für die Bell Laboratories arbeitete, wo er sich mit Kryptografie und maschinellem Lernen beschäftigte. 4

Die Förderung über US $13.5005 wurde offensichtlich von der Rockefeller Foundation genehmigt, weil sich zwischen Juni und August 1956 elf Wissenschaftler aus unterschiedlichsten Disziplinen am Dartmouth College trafen, die ein gemeinsames Interesse an maschinellem Lernen, neuronalen Netzwerken und Computern hatten. Darunter der spätere Wirtschaftsnobelpreisträger Herbert Simon von der Carnegie Mellon University, der Spieltheoretiker John Nash, der ebenfalls den Wirtschaftsnobelpreis erhalten sollte, Ray Solomonoff, der Entwickler der algorithmischen Informationstheorie, der Komplexitätsforscher John H. Holland, der Pionier des maschinellen Lernens, Oliver Selfridge und Allen Newell, der soeben das erste Computerprogramm für Schach entwickelt hatte, das er den Workshop-Teilnehmern präsentierte.6 Sie und auch die anderen Workshop-Teilnehmer gelten zurecht als Begründer der künstlichen Intelligenz-Forschung, nicht nur weil sie den Begriff „Artificial Intelligence“ erstmals in den wissenschaftlichen Diskurs eingeführt hatten, sondern weil sie die Möglichkeiten für selbstlernende maschinelle Systeme gemeinsam ausloteten und in ihren späteren, wegweisenden Forschungsarbeiten vertieften und die Grundlagen für KI-Anwendungen legten.7

Der Förderantrag für den Workshop gibt bereits einen ersten Hinweis, was unter KI bzw. AI zu verstehen ist. McCarthy und seine Mitstreiter sahen das Ziel der Veranstaltung darin „(…) that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves.“8 In dieser Projektbeschreibung sind bereits die wichtigsten Zutaten für eine Definition, was unter künstlicher Intelligenz zu verstehen ist, vorhanden. Es geht um maschinelles Lernen und die Nachbildung menschlicher Intelligenz. Es werden auch schon die ersten Grundzüge von Anwendungen skizziert, wie Sprach- und Bilderkennung sowie allgemein das eigenständige Lösen von Problemen nach menschlichem Vorbild.

John McCarthy knüpfte Jahrzehnte später an diese Grundüberlegungen an, indem er auf der Webpage der Standford University Q&As zu Artificial Intelligence zusammenstellte und dabei die Frage, was künstliche Intelligenz ist, so beantwortete: „It is the science and engineering of making intelligent machines, especially intelligent computer programs. It is related to the similar task of using computers to understand human intelligence, but AI does not have to confine itself to methods that are biologically observable.“9 Unter Intelligenz versteht McCarthy „(…) the computational part of the ability to achieve goals in the world.“ Diese Fähigkeit schreibt McCarthy nicht nur Menschen, sondern auch Tieren und Maschinen zu.10 Richard S. Sutton nimmt diese Überlegungen zum Ausgangspunkt für seine KI-Definition und verweist auf die Zielerreichung als das Kernstück von McCarthys Definition. Dabei geht es aber nicht um den mechanischen Aspekt, wie das Ziel erreicht wird, sondern um die Beziehung zwischen dem intelligenten System und der BeobachterIn. „The relationship between the system and an observer that makes it a goal-seeking system is that the system is most usefully understood (i.e., predicted or controlled) by the observer in terms of the system’s outcomes rather than in terms of its mechanics.“11 Mit dem letzten Satz ergänzt Sutton die Definition von McCarthy, indem er die Relevanz des Outputs eines intelligenten Systems hervorhebt und nicht die Mechanismen, die hinter der Outgenerierung stecken.12

Mit diesem Definitionsversuch reagiert Sutton auf die Problematik, dass es eine Vielzahl, oft auch widersprüchlicher Definitionen von KI gibt, die sich im Laufe der Jahre durch verschiedene Forschungsansätze und KI-Anwendungen ergeben haben, worauf Pei Wang verweist.13 Wang hat bereits 2008 die Definitionsfrage von KI problematisiert, als diese noch als rein akademische Insiderdiskussion angesehen wurde. Er stellt dabei vier Postulate für eine brauchbare KI-Definition auf:

  1. „AI should be defined as identical to human intelligence in certain sense. At the early stage of research, this ‚identical to‘ (a matter of yes/no) can be relaxed to ’similar to‘ (a matter of degree), and the progress of research can be indicated by the increased degree of similarity.“14
  2. „Since AI is an attempt to duplicate human intelligence, not to completely duplicate a human being, an AI system is different from a person in certain other aspects. Otherwise the research would be aimed at „artificial person“, rather than intelligent computer. Therefore, it is not enough to say that an AI is similar to human without saying where the similarity is, since it cannot be in every aspect.“15
  3. „AI should not be defined in such a narrow way that takes human intelligence as the only possible form of intelligence (…).“16
  4. „AI should not be defined in such a broad way that takes all existing computer systems as already having intelligence (…).“17

Die Definition von künstlicher Intelligenz sollte weder zu eng gefasst und nur als Nachahmung menschlicher Intelligenz verstanden werden, weil dadurch selbständige maschinelle Lernprozesse ausgeschlossen würden. Noch darf eine zu breite Definition erfolgen, weil sonst jedem Computer Intelligenz zugeschrieben werden könnte. Künstliche Intelligenz ist also nicht mit menschlicher Intelligenz identisch, sondern ihr ähnlich, aber keine „künstliche Person“, was weitreichende rechtliche Auswirkungen, z.B. im Urheberrechtsschutz hat.

Durch die rasante Entwicklung von KI-Anwendungen in den letzten Jahren, die immer breitere Kreise der Bevölkerung erreichten, wandelte sich die anfangs rein akademisch geführte Diskussion zu einem gesellschaftspolitischen Diskurs, auf den politische Entscheidungsträger reagieren mussten. So hat die EU-Kommission bereits am 21. April 2021 einen „Vorschlag zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz“ – kurz „Gesetz über künstliche Intelligenz“ – gemacht, auf den sich das Europäische Parlament und der Europäische Rat am 9. Dezember 2023 nach langwierigen Verhandlungen geeinigt haben.18 Das Europäische Parlament hat im Vorfeld bereits eine Definition von künstlicher Intelligenz vorgeschlagen: „Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.“19 Und das EU-Parlament führt weiter aus, dass KI-Systeme in der Lage sind, „(…) ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen.“20

Die Wahrnehmung der Umwelt und die adäquate Reaktion darauf ist also das Herzstück dieser KI-Definition. Es stellt sich aber die Frage, ob eine KI überhaupt in der Lage ist, ihre Umwelt wahrzunehmen. Wahrnehmung, das wissen wir aus der Psychologie, ist eine Form der bewerteten Informationsaufnahme und -verarbeitung. KI kann natürlich Informationen aufnehmen und verarbeiten. Das ist ja gerade die Aufgabe von Computersystemen. Aber kann eine KI die aufgenommenen Informationen auch bewerten? Dabei scheiden sich schon die Geister, denn Bewertung setzt bereits voraus, den Inhalt der Information zumindest bis zu einem bestimmten Grad zu verstehen. Computersoftware, egal wie komplex diese ausgestaltet ist, kann Informationsinhalte aber nicht verstehen, worauf Ralf Otte in seinem Buch „Maschinenbewusstsein“ verweist.21

Daran knüpft Otte auch seine Kategorisierung von KI-Systemen,22 die auch den historischen Wellen der KI-Entwicklung entspricht. Die erste Generation von KI bestand darin, dass sie auf Umweltreize reagieren und daraus einen Vorteil ziehen bzw. Nachteile vermeiden konnte. Solche KI-Systeme haben eine angemessene Intelligenz, die aber nicht in der Lage ist, Fehler zu erkennen und diese zu korrigieren. Der Schach-Computer Deep Blue von IBM, der 1996 gegen den damals regierenden Schachweltmeister Garri Kasparow gewonnen hat,23 fällt unter diese KI der ersten Welle. Eine KI der zweiten Generation kann bereits aus Fehlern lernen und sich dadurch an seine Umwelt anpassen. Diese KI wird auch als induktives System bezeichnet, weil es eine einzelne Beobachtung auf ein allgemeines Regelwerk zurückführen kann. Sie können aber auch einzelne Aussagen aus vorgegebenen Regeln ableiten, was als Deduktion bezeichnet wird. Eine solche KI sind die Chatbots Alexa und Siri, aber auch viele Übersetzungsprogramme oder das autonome Fahren zählen zu dieser Intelligenzstufe. Diese KI-Systeme basieren auf dem maschinellen Lernen, dessen Funktionsweise wir im nächsten Abschnitt noch genauer beleuchten werden. Kommen wir zur dritten Generation von künstlicher Intelligenz. Diese KI-Systeme, die gegenwärtig gerade in Entwicklung sind, sprengen den Rahmen von Induktion und Deduktion und sind in der Lage, selbständig originäre, kreative Leistungen hervorzubringen. Sie benötigen keinen Menschen mehr, der sie anleitet bzw. Vorgaben macht. Allerdings handelt es sich um pseudokreative Systeme, deren Output durchaus als kreativ bezeichnet werden kann, die aber weder wissen, was sie hervorbringen noch von Emotionen und Gefühle im Schaffensprozess getrieben sind. Das von DeepMind entwickelte WaveNet oder Watson Beat von IBM zählen zu dieser KI der dritten Welle. Die Intelligenz der vierten und fünften Stufe, die als bewusste Intelligenz und selbstbewusste Intelligenz bezeichnet werden, besitzen künstliche Intelligenzen heutzutage noch nicht. Aber es wird in den Laboren bereits an KI-Systemen gearbeitet, die zumindest so etwas wie ein maschinelles Bewusstsein ausprägen können. Ob Maschinen irgendwann in der Zukunft auch ein ICH-Bewusstsein, wie der Mensch oder manche höhere Tiere haben werden, ist lediglich Gegenstand der Spekulation.

Diese Kategorisierung überlappt sich mit den im Englischen gebräuchlichen Begriffen der ANI, AGI und ASI. ANI steht für Artificial Narrow Intelligence (ANI) und umfasst die KI der ersten und zweiten Generation und wird auch als „schwache KI“ bezeichnet.24 ANI-Anwendungen basieren auf maschinellem Lernen, haben aber trotz ihrer Problemlösungskapazitäten kein dem Menschen ähnliches Bewusstsein, Gefühle oder Emotionen.25 Dennoch übersteigen ihre Fähigkeiten die von Menschen, wenn es darum geht, große Datenmengen zu verarbeiten und Vorhersagen zu treffen. Es gibt aber aktuell Bestrebungen, die Grenzen der ANI zu einer Artificial General Intelligence (AGI) – in Deutsch künstliche allgemeine Intelligenz oder „starke KI“ – zu erweitern. Eine AGI würde die Fähigkeit besitzen, wie Menschen zu denken, wie Menschen Probleme zu lösen und letztendlich ein maschinelles Bewusstsein zu besitzen.26 Die AGI entspricht der dritten und vierten KI-Generation, an denen in den Forschungsabteilungen von Google oder Open AI bereits gearbeitet wird und die in den nächsten Jahren erste marktreife Anwendungen hervorbringen wird.

Das könnte in einer ferneren Zukunft zur Artificial Super Intelligence (ASI) führen, die der Philosoph Nick Bostrom bereits 1998 als „any intellect that greatly exceeds the cognitive performance of humans in virtually all domain of interest“ definierte.27 Die ASI ginge über die menschenähnliche künstliche Intelligenz hinaus und wäre in der Lage, den Menschen in jeglicher Hinsicht zu übertreffen. Ob eine solche transhumane Intelligenz überhaupt möglich ist, bleibt Gegenstand philosophischer Spekulation. Der Diskurs darüber zeigt aber, wohin die Reise mit künstlicher Intelligenz geht: Sie soll nicht nur als Werkzeug für den menschlichen Verstand dienen (ANI) oder diesem bis zu einem gewissen Grad ähnlich sein (AGI), sondern diesen sogar übertreffen (ASI), was gewaltige moralische und ethische Fragen aufwirft.

Im nächsten Teil der Blogserie geht es dann um die Frage, wie KI funktioniert und welche verschiedenen KI-Systeme bereits existieren.

Peter Tschmuck

Dieser Artikel erschien erstmal am 15. Jänner 2024 auf der Seite https://musikwirtschaftsforschung.wordpress.com/2024/01/15/ki-in-der-musikindustrie-teil-1-was-ist-kunstliche-intelligenz/


Teil 2: Wie funktioniert künstliche Intelligenz?
Teil 3: Der Aufstieg von Musikerkennungsdiensten
Teil 4: KI in der Musikerkennung und Musikempfehlung
Teil 5: Die Musikempfehlung im Musikstreaming
Teil 6: Fake-Streams und Streamingfarmen
Teil 7: KI in der Musikproduktion


Peter Tschmuck ist Professor am Institut für Popularmusik (ipop) der mdw.


Endnoten

  1. Ein Faksimile des Antrags, mit Randnotizen von Ray Solomonoff kann unter http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf heruntergeladen werden, Zugriff am 04.09.2023. ↩︎
  2. Ibid. ↩︎
  3. Ibid. ↩︎
  4. Ibid. ↩︎
  5. Ibid. ↩︎
  6. Die Teilnehmer des Workshops lassen sich aus einer Mitschrift von Ray Solomonoff rekonstruieren, die als Faksimile unter http://raysolomonoff.com/dartmouth/boxbdart/dart56ray812825who.pdf heruntergeladen werden kann. Zugriff am 4. September 2023. ↩︎
  7. James Moor, 2006, The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years, AI Magazine, Vol. 27(4), S. 87-91. ↩︎
  8. Siehe John McCarthy et al., „A Proposal for the DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE“, 31. August 1955, Zugriff am 05.09.2023. ↩︎
  9. McCarthy, John, 2007, „What is Artificial Intelligence“, 12. November 2007, Zugriff am 05.09.2023. ↩︎
  10. Ibid. ↩︎
  11. Richard S. Sutton, „John McCarthy‘ Definition of Intelligence“, Journal of Artificial General Intelligence, Vol. 11(2), 2020, S. 66. ↩︎
  12. Ibid., S. 67. ↩︎
  13. Pei Wang, „On Defining Artificial Intelligence“, Journal of Artificial General Intelligence, Vol. 10(2), 2019, S. 1. ↩︎
  14. Pei Wang, „What Do You Mean by ‚AI’“, Frontiers in Artificial Intelligence and Applications, Vol. 171(1), 2008, S. 363. ↩︎
  15. Ibid. ↩︎
  16. Ibid., S. 364. ↩︎
  17. Ibid. ↩︎
  18. Europäische Kommission, Vorschlag zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union, COM(2021) 206 final, 2021/0106(COD), Brüssel am 21. April 2021. ↩︎
  19. Europäisches Parlament, „Was ist künstliche Intelligenz und wie wird sie genutzt?“, aktualisierte Version vom 20. Juni 2023, Zugriff am 06.09.2023. ↩︎
  20. Ibid. ↩︎
  21. Ralf Otte, 2021, Maschinenbewusstsein. Die neue Stufe der KI – wie weit wollen wir gehen? Frankfurt/New York: Campus Verlag, Kindle-Ausgabe Pos. 651. ↩︎
  22. Ibid., Pos. 307-325. ↩︎
  23. Wikipedia, „Deep Blue – Kasparow, Philadelphia 1996, 1. Wettkampfpartie“, Version vom 3. April 2023, Zugriff am 3.10.2023. ↩︎
  24. Siehe dazu die Unterscheidung von „starker“, „schwacher“ und „Super“-Intelligenz bei Tina Gausling, 2020, „KI und DS-GVO im Spannungsverhältnis“, in: Johannes Graf Ballestrem et al. (Hg.), Künstliche Intelligenz, Rechtsgrundlagen und Strategien in der Praxis, Wiesbaden: Springer VS, S. 13. ↩︎
  25. Siehe Norbert Wirth, 2018, „Hello marketing, what can artificial intelligence help you with?“, International Journal of Marketing Research, Vol. 60(5), S. 437. ↩︎
  26. Siehe Stefan Strauß, 2018, „From big data to deep learning : A leap towards strong AI or ‚intelligentia obscura‘?“, Big Data and Cognitive Computing, Vol. 2(3), S. 16.. ↩︎
  27. Nick Bostrom, 1998, „How long before superintelligence?“, International Journal of Future Studies, Vol. 2, veröffentlicht auf der Homepage des Autors: https://nickbostrom.com/superintelligence, Zugriff am 11.09.2023. ↩︎