„Es hängt von uns ab, was wir daraus machen“ – EMILIA GÓMEZ im mica-Interview

EMILIA GÓMEZ ist Pianistin, KI-Expertin und forscht an der Schwelle zwischen Machine Learning und Musik. Als Senior Researcher ist sie am Joint Research Centre der Europäischen Kommission in alles involviert, was mit KI zu tun hat. Dementsprechend viel Arbeit hat die Wissenschaftlerin derzeit, denn sie setzt die Kommission davon in Kenntnis, was der technische Status quo in puncto KI ist, und „es gibt viel, was es da erst einmal zu verstehen gilt“. Danach wird evaluiert und eventuell reguliert. Gómez’ Job sind die ersten beiden Bereiche. Sie muss Kommission und Rat die wissenschaftliche Seite näherbringen, für Verständnis sorgen und evaluieren, um so die Grundlage für etwaigen gesetzlichen Regelungsbedarf zu schaffen.

Mit Markus Deisenberger sprach EMILIA GÓMEZ über die unterschiedlichen Zugänge von Musik-Empfehlungssystemen, die Vertrauenswürdigkeit von Algorithmen und warum es wichtig ist, die Diversität im Auge zu behalten.

Sie sind Senior Researcher am Joint Research Centre der Europäischen Kommission. Was sind exakt die Themen, über die in der EU-Kommission derzeit geredet bzw. verhandelt wird?

Emilia Gómez: Zuerst muss ich klarstellen: Ich bin keine Politikerin und habe auch nichts mit Gesetzgebung zu tun. Ich bin Wissenschaftlerin, arbeite also nicht auf der gesetzgebenden Seite der Angelegenheit. Ich kann daher nur die technische, wissenschaftliche Seite der Sache näherbringen und erklären.

Das ist ein großes Feld, oder?

Emilia Gómez: Das kann man wohl sagen. Mittlerweile lesen auch normale Bürger:innen über künstliche Intelligenz, und es ist ein kompliziertes Thema. Leute haben ein sehr unterschiedliches Verständnis darüber, was State of the Art ist und was gerade passiert.

Sie sind Senior Researcher amJoint Research Centre der Europäischen Kommission. Sie haben an zwei großen europäischen Projekten federführend mitgewirkt, in denen es um Analyse von Musik durch KI ging, PHENICX und TROMPA. Worum ging es dabei? Was ist Ihre Spezialisierung?

Emilia Gómez: Ich bin Forscherin, mein Hintergrund ist Maschinenbau und ich habe mich auf Übertragungssignale und Sound spezialisiert: Sound-Match-Processing. Gleichzeitig bin ich Musikerin, habe Klavier studiert und daher einen interdisziplinären Background an der Schwelle zwischen Musik und Technologie. Worauf ich spezialisiert bin, ist, Informationen in großen Datensammlungen zu finden. Das, was Web-Suchmaschinen oder auch Musik-Empfehlungssysteme tun. Die schauen sich individuelle Vorlieben an und empfehlen dann Ähnliches. Darüber hinaus habe ich viele Algorithmen entwickelt, die Musik und Musikvideos beschreiben und dann darauf basierend empfehlen: Wenn du diese Art von Rhythmus magst, wirst du auch diese Art von Rhythmus mögen und dergleichen. Ich habe eine ganze Menge solcher Machine-Learning-Algorithmen programmiert und im Anschluss daran untersucht, welchen Impact, welche Auswirkungen solche Algorithmen haben können – auf Zuhörer:innen, auf Menschen, die sich Musik anhören, Musiker:innen, Menschen, die in Ausbildung sind. Es ging und geht mir darum, die sozialen Auswirkungen zu untersuchen, die diese Algorithmen haben können und technische Methoden und Methodologien zu entwickeln, diese Systeme zu evaluieren. Es geht nicht nur darum, ob sie funktionieren, sondern auch darum, ob sie fair und transparent sind und ob man ihnen trauen kann, welche Auswirkungen sie auf Menschen und deren Jobs haben. Ich rede von einer Evaluierung in einem sehr weiten Sinne.

Vor fünf Jahren habe ich mich dem Joint Research Center angeschlossen – das ist ein Inhouse Scientific Service der Europäischen Kommission, um dort ein Team zu gründen, das sich genau damit beschäftigt: Welche Auswirkungen haben hauptsächlich auf künstlicher Intelligenz basierende Algorithmen auf unsere kognitive, soziale und emotionale Entwicklung und unser Leben? Und wie können wir Methoden entwickeln, sie zu evaluieren. Dabei gilt es wie gesagt nicht nur herauszufinden, ob sie gut funktionieren, sondern ob sie vertrauenswürdig sind, ob sie etwa diskriminieren. In meinem Team arbeite ich mit Leuten, die aus den Computerwissenschaften kommen, aber auch aus der Verhaltensforschung, aus der Wirtschaft und den Sozialwissenschaften. Ich komme mehr aus der Musik, aber in meinem Team sind auch Spezialist:innen für Chatbots und automatisches Fahren.

D.h. Ihr forscht in allen Feldern und schaut euch dann genau an, welche soziale Auswirkung neue Technologien in den verschiedenen Bereichen haben. Stimmt das?

Emilia Gómez: Ja, und wir erledigen den wissenschaftlichen Support für Kolleg:innen, die mit der Regulierung beschäftigt sind, also mit der Gesetzgebung zur künstlichen Intelligenz beauftragt sind. Wir versorgen sie mit wissenschaftlichen Daten und Beweisen, die sie zu Regelungen führen, sie inspirieren sollen. Natürlich verfügt die Kommission aber auch noch über andere Informationsquellen, offene Konsultationen etwa.

Und Lobbying.

Emilia Gómez: [lacht] Genau, Lobbying natürlich auch.

Das sind unglaublich viele Tätigkeitsbereiche. Wie viele Leute sind in Ihrem Team, um das alles abzudecken?

Emilia Gómez: Im Moment sind wir fünfzehn Leute, die als Senior Researcher hier beschäftigt sind.

Sind das denn aus Ihrer Sicht genügend Leute, um all die Anforderungen zufriedenstellend abzudecken?

Emilia Gómez: Das ist nicht genug, nein, aber wir haben teilweise mit denselben Problemen, multipliziert in unterschiedlichen Applikationen, zu tun. Es hört sich also nach mehr an als es am Ende des Tages ist. Und unsere Forschung ist kooperativ, d.h. wir arbeiten eng mit externen Search-Teams und dem European Network of AI Excellence Centres zusammen und tragen selbst zu Projekten bei, die breiter aufgestellt sind. Wir haben Partnerschaften mit Universitäten und wissenschaftlichen Zentren. Wir kooperieren und versuchen auch, von anderen Leuten zu lernen. Sie sehen: Mein Team ist zwar klein, aber breit aufgestellt. Wir sind in vielen Netzwerken unterwegs.

Von der Treffsicherheit lernen die Systeme.“

Wie haben sich diese Empfehlungssysteme entwickelt? Vor einigen Jahren noch bekam ich da auf Spotify noch seltsame Vorschläge aus dem Schlager oder Death Metal, obwohl ich beides nicht höre. Die Treffsicherheit hat sich seitdem enorm verbessert, oder?

Emilia Gómez: Da gibt es unterschiedliche Zugänge. Einer ist es, die Musik selbst zu benutzen. Der Sound wird beschrieben. Gibt es da etwa Violinen oder Trompeten? Ist es orchestral? In welchen Tonarten wird gespielt? Davon ausgehend werden Ähnlichkeiten definiert. Das ist ein Zugang. Der andere Zugang benutzt die Meta-Daten. In welchen anderen Projekten war John Lennon noch tätig? Mit welchen anderen Künstler:innen stand er in Verbindung? Das ist der soziale Kontext. Und dann gibt es noch die Informationen über die User:innen. Was hat er/sie in den letzten Wochen und Monaten über John Lennon hinaus gehört, positiv bewertet etc. Content, Kontext und User-Eigenschaften also. Die Systeme haben nun unterschiedliche Zugänge, wie sie diese unterschiedlichen Ansätze miteinander kombinieren. Sie schauen sich dein Verhalten an, schauen sich die Musik an, die du hörts, und dann empfehlen sie. Die Systeme sagen deine Neigungen mittlerweile effektiver und treffsicherer voraus, wie Sie richtig sagen, weil es mehr Forschung gibt, weil sie über mehr Informationen verfügen und weil sie die unterschiedlichen Informationen besser miteinander kombinieren. Und sie lernen auch, wenn Vorhersagen zutreffen. Wenn du etwa die Musik, die dir vorgeschlagen wird, dann auch tatsächlich häufig hörst, werden die Systeme in ihren Vorhersagen bestätigt. Von der Treffsicherheit lernen die Systeme.

Funktioniert das auf ähnliche Art und Weise wie die Computer-unterstützte Tumor-Erkennung in der Medizin? Da habe ich das Foto eines Tumors, das ich dann mit Millionen von anderen Tumoren, deren Fotos in der Datenbank gespeichert sind, abgleiche.

Emilia Gómez: Im Prinzip funktioniert das genauso, ja. Es geht darum, viele Informationen zu verarbeiten, zu lernen und zu empfehlen. Ob das Bücher sind, Musik oder Diagnosen, macht keinen allzu großen Unterschied. Bei der Tumorerkennung geht es darum, auf die Informationen vergangener Fälle zurückzugreifen, um eine Lösung für einen aktuellen Fall zu finden. Wir haben heute sehr viele Daten und immer schneller werdende Lernsysteme, die deshalb immer erfolgreicher in ihren Vorhersagen werden. Deshalb müssen wir das, was passiert, gut verstehen und ebenso gut evaluieren.

„Wenn diverser empfohlen wird, wirst du mehr verschiedene Stilrichtungen kennenlernen und deinen Musikgeschmack verbreitern.“

Was kann dabei schiefgehen?

Emilia Gómez: Bleiben wir in der Musik. Wenn dir immer die gleiche Musik vorgeschlagen wird, wirst du irgendwann sehr spezialisiert in diesem Genre sein, aber du verlierst den Blick auf das große Ganze. Die Diversität im Blick zu behalten, ist aber sehr wichtig. Wenn diverser empfohlen wird, wirst du mehr verschiedene Stilrichtungen kennenlernen und deinen Musikgeschmack verbreitern. Und genau da müssen wir sehr behutsam sein, denn Empfehlungen können kurzfristige und langfristige Konsequenzen haben.

Nun werden solche Empfehlungs-Algorithmen von Unternehmen wie Apple, Amazon und Netflix betrieben. Wie viel Interesse an Diversität darf ich mir da erwarten? Geht’s da nicht einfach nur um Geld, schließlich messen einen die Aktionäre an Ergebnissen, nicht an Diversität.

Emilia Gómez: Das ist alles im Algorithmus kodiert, aber wir wissen nicht, wie genau die Systeme arbeiten. Genau deshalb versuchen wir zu evaluieren. Wie haben eben ein komplexes Projekt zu Gender-Diskriminierung abgeschlossen, das wir gerade evaluieren. Im PHENICX-Projekt haben wir diese Systeme benutzt, um Empfehlungen in sehr komplexer Musik auszusprechen, symphonischer Musik. Beethovens „Eroica“ ist zum Beispiel ein sehr langes und ebenso kompliziertes Stück. Manche Leute haben ein Problem, diese Musik aufgrund ihrer Komplexität zu verstehen. Diese Systeme können die Musik analysieren und dir Dinge erklären, dir die Musik näherbringen. Gleichzeitig können sie sich auf ein ganz unterschiedliches Publikum einstellen. Die Infos über das Stück, seine Geschichte, speichern wir in einem iPad, auf das die Leute Zugriff haben, und das kann dann maßgeschneidert für Bildungseinrichtungen verwendet werden.

Das hilft Leuten, ihr Wissen zu erweitern, aber hilft es auch, wenn man gar nichts über Beethoven und sein Stück weiß?

Emilia Gómez: Wenn du ein kompliziertes Stück hast, kannst du die Erklärungen auf unterschiedliche Profile, sprich Anwendergruppen anpassen. Sinn und Zweck ist es, dein Musikerlebnis genussvoller zu machen. Wenn du schon ein Kenner der klassischen Musik bist, willst und brauchst du das vielleicht gar nicht. Dann reicht es dir, dich hinzusetzen und die Musik auf dich wirken zu lassen. Vielen aber hilft es. Deshalb unternehmen Orchester ja mannigfaltige Versuche, sich und die Musik besser zu erklären. Erklärungen vorher, Gesprächsrunden nachher. Technologie kann hier eine große Hilfestellung leisten. Wir hatten auch ein anderes Projekt über die langfristigen Auswirkungen von Empfehlungssystemen in elektronischer Musik. Wenn die Empfehlungen divers sind, lernen die Musikkonsument:innen über elektronische Musik als Ganzes. Die Systeme können dir dabei helfen, dich Schritt für Schritt an neue Musik heranzuführen, oder dir zu erklären, dass dieses Muster da und dort verwendet wird etc. Es sind also mannigfaltige Applikationen für den Bildungsbereich denkbar.

Aber noch einmal: Wie offen sind Konzerne wie Amazon gegenüber diesen Möglichkeiten?

Emilia Gómez: Natürlich gibt es da widerstreitende Interessen. Die Notwendigkeit, eine bestimmte Musik im Radio zu spielen oder Geschäft mit einer bestimmten Musik zu machen. Dem gegenüber gibt es das Bedürfnis der Konsument:innen nach möglichst maßgeschneiderter Empfehlung. In all diesem Empfehlungssystemen gibt es daher Empfehlungen, die auf dem Verhalten der User:innen beruhen und die Plattform-eigenen Business-Modelle, die in den Algorithmus eingebettet werden können. Aber an diese Informationen heranzukommen, ist aus unserer forschenden Perspektive unmöglich.

„Wie bei einem Auto: Da willst du auch nicht, dass der erstbeste Prototyp auf die Straße geschickt wird.“

Sie haben auch Anliegen, die Sie an die Kommission kommunizieren. Können Sie mir sagen, welche das sind?

Emilia Gómez: Ich bin der Technologie gegenüber positiv eingestellt. Gerade in der Musik bringt sie Musiker:innen und Komponist:innen unzählige Möglichkeiten. Die Komposition mit Computern hat eine lange Tradition, die durch die neue Technologie auf eine neue Stufe gehoben wird. Aber wie jede andere Technologie auch haben wir sie zu evaluieren.

Wir brauchen Zeit, wir müssen also Zeit investieren, um beurteilen können, ob die Technologie auch sicher ist. Wie bei einem Auto: Da willst du auch nicht, dass der erstbeste Prototyp auf die Straße geschickt wird. Du willst, dass er vorher ausreichend auf Sicherheit geprüft wurde. Und in der wissenschaftlichen Gemeinschaft werden wir uns mehr und mehr klar darüber, dass wir hier evaluieren müssen, bevor wir es auf die Menschheit loslassen.

Nun ist es zwangsläufig so, dass das Rechtssystem auf technologische Entwicklungen reagiert, also einen Schritt hinterherhinkt. So hat das Rechtssystem beinahe zwei Jahrzehnte verzweifelt damit gekämpft, in Hinblick auf das Urheberrecht mit der technologischen Entwicklung im Musik-Business schrittzuhalten. Je schneller nun eine technologische Entwicklung voranschreitet – und die jüngsten Berichte lassen vermuten, dass sie, was Machine Learning anbelangt, exponentiell fortschreitet –, desto mehr Arbeit kommt zwangsläufig auf Ihre nicht gerade üppig besetzte Abteilung zu. Ist das nicht von vorneherein ein aussichtsloser Kampf, den Ihre Abteilung da in puncto Evaluierung führt?

Emilia Gómez: Es steckt auch ein Riesenaufwand in der Entwicklung dieser Technologien. Klar, je schneller die Entwicklung fortschreitet, desto mehr gibt es zu evaluieren. Und in der Wissenschaftsgemeinschaft gab es lange nur die Regel: Performance, bessere Performance und noch bessere Performance! Da fielen Begriffe wie Evaluierung, Fairness oder Transparenz so gut wie nie. Aber da hat ein Umdenken stattgefunden. Die Gemeinschaften verwenden mehr und mehr Zeit auf die Analyse. Aus der Sicht eines Anwalts ist es so: Es gibt eine neue Technologie, also müssen Regeln angepasst werden, damit sie die neue Technologie regulieren. Da muss man kreativ sein und adaptieren, ja, aber das ist die Arbeit der Gesetzgeber, nicht meine.

In vielen Branchen geht die Angst um, KI könnte manche Jobs ersetzen. Warum sollte ich etwa eine:n Studiomusiker:in dafür bezahlen, ein Saxofonsolo einzuspielen, wenn ich das in annähernd gleicher Qualität auch von der KI bekommen kann? Halten Sie die Angst für begründet?

Emilia Gómez: Das hängt ganz davon ab, wie wir diese Technologien benutzen. Technologie bewirkt immer einen gesellschaftlichen Wandel, aber Technologie wird letztlich von Menschen gemacht und von Menschen benutzt. Warum also die Technologie verteufeln?

„KI kann positive Auswirkungen haben, aber auch negative – das hängt von Gebrauch und Kontext ab.“

Das heißt, wir müssen nur evaluieren und regulieren, dann wird es passen?

Emilia Gómez: So kann man das sagen. Wir müssen die Technologie in vertrauenswürdiger Art und Weise entwickeln, damit sie für soziales Wohlergehen sorgt. Deshalb hat die Kommission auch diese zwei Bereiche: das „Ecosystem of Excellence“, was Exzellenz in der AI bedeutet, und das „Ecosystem of Trust“, ein System des Vertrauens und der Vertrauenswürdigkeit. Wir sind uns sehr wohl bewusst, dass die Technologie eine Auswirkung auf Musiker:innen und Zuhörer:innen von Musik hat und es eine Notwendigkeit gibt, das Musik-System zu schützen. Das ist eine Forderung an die Politik, und ich hoffe, dass die Politikmachenden ihr Bestes geben werden. Aus wissenschaftlicher Sicht geht es mir eher um Verständnis; darum also, ein Verständnis darüber zu erlangen und zu vermitteln, welche Auswirkungen KI hat. KI kann positive Auswirkungen haben, aber auch negative – das hängt von Gebrauch und Kontext ab. Ich bin weder superoptimistisch noch superpessimistisch. Es hängt von uns ab, was wir daraus machen. Das ist ein Thema unserer Gesellschaft.

Adressiert der „AI Act“ der EU, der im Entwurf vorliegt, aus Ihrer Sicht die richtigen Dinge?

Emilia Gómez: Ich bin keine Spezialistin in diesen Dingen, aber ich glaube, es ist einmal ein Schritt in die richtige Richtung. In Europa haben wir eine große Tradition in Bezug auf Menschenrechte. Wir stellen den Menschen ins Zentrum, und mit dem „AI Act“ ist eine große Diskussion entstanden. Der „AI Act“ wird eine gute Auswirkung haben, weil er Plattformen dazu zwingt, über die Auswirkungen nachzudenken.

Vielen Dank für das Gespräch!

Markus Deisenberger

Emilia Gómez ist Senior Researcher am Joint Research Centre der Europäischen Kommission, wo sie das Projekt HUMAINT leitet, das die Auswirkungen künstlicher Intelligenz auf menschliches Verhalten untersucht. Auch dem Projekt AI WATCH der Kommission steht sie vor, das allgemein den Einfluss von KI in Europa untersucht.