Die Grenze zwischen Ton und Bild war schon immer fließend. In der Tat sind die beiden Bereiche in vielerlei Hinsicht miteinander verwoben. Die Frage ist nur, wie sehr man sie aufdeckt und aus welchem Blickwinkel man sich ihr künstlerisch nähert. Zahlreiche Künstlerinnen und Künstler in Österreich, aber auch international, arbeiten an genau dieser Schnittstelle.
Diese synästhetische herangehensweise trägt derart vielfältige Blüten, dass es schwierig scheint, eine Struktur auszumachen oder sich eine Übersicht zu verschaffen. Dieser Artikel macht den Versuch, das in aller kürze und mit Signifikanten Beispielen zu unternehmen. Von bildender Kunst, die womöglich installativ Klänge hervorbringt, über 3D-Musikvisualisierungen, „Visual Music“ über Soundtrack im Film bis hin zum klassischen Musikvideo gibt es unzählige Projekte, die sich dieser Thematik auf verschiedenste Weise annähern.
Als Ausgangspunkt könnte hier jeder beliebige Punkt dienen. Historisch gesehen ist der Wunsch nach dem Bild zur Komposition bei Alexander Skrjabin, Arnold Schönberg, Wassily Kandinsky, Olivier Messiaen und vielen Größen der „Neuen Musik“ zu finden. Eine hier besonders hervorzuhebende Figur wäre die Pionierin Mary Hallock-Greenewalt die, 1871 in Beirut geboren, in Wien studierte und der wir die ältesten noch erhaltenen bemalten Filme verdanken, welche sie für eine von ihr erfundene Musikvisualisierungsmaschine („Farborgel“) anfertigte.
Plakate, Platten-Covers, Performances
Gegenwärtig könnte man abseits des Kerns der Musikvisualisierung im engeren Sinne die bildende Kunst betrachten. Hier findet man selbstredend eine lange Geschichte der Grafik, die seit jeher auf Plakaten und Tonträger-Covers eine große Rolle in der Musikvermittlung spielt. An der Schnittstelle zwischen Komposition und bildender Kunst bewegen sich beispielsweise Christopher Sturmer, der mit der Band Fuckhead Schüttungen auf der Bühne vornimmt, Andreas Trobollowitsch, dessen Skulpturen an die benachbarte Kunst des Instrumentenbaus erinnern, oder auch die Arbeiten von Maja Osojnik, Kathrin Stumreich, Karl Salzman, Paul Gründorfer, Manuel Knapp, Klaus Filip oder noid.
Interview: “I WANT TO REMAIN A CURIOUS CHILD” – MAJA OSOJNIK (RDEČA RAKETA)
Wenn Bilder zu Klang werden – und umgekehrt
Eng verwandt mit der Visualisierung ist etwa auch das Feld der grafischen Notation. Hier ist historisch Iannis Xenakis zu nennen, der auch namensgebend für ein aktuelles Software-Paket ist: „Iannix“.
Die grafische Notation schlägt eine Brücke zu jener Art der Musikvisualisierung im eigentlichen Sinne, die man „didaktisch“ nennen könnte. Hier ist der Versuch durch detaillierte Vorab-Analyse Tonhöhen, Dauern, womöglich harmonische Strukturen, und Lautstärken sichtbar zu machen.
Stephen Malinowsk, ‘Animated Score’
Ein erwähnenswertes Projekt, das näher an der grafischen Notation als an der didaktischen Visualisierung liegt, ist SYN-Phon:
Was uns an SYN-Phon faszinieren kann, ist die Balance aus zunächst ins Auge stechender Rigorosität und ihrer späteren Brechnung zugunsten künstlerischen Ausdrucks und reicherem Spannungsbogen. Wir beobachten eine rote Linie, die uns suggeriert, dass die Zeit an uns vorüberzieht, wir an einem exakten Moment stehen und das Ensemble den Moment der roten Linie vertont. Die Entscheidung, uns dieser sich aufdrängenden Logik folgend, mehr in die Zukunft als in die Vergangenheit schauen zu lassen (die rote Linie ist links des Zentrums), ist bestimmt nicht nur der einfacheren Aufführungspraxis geschuldet. Das Publikum hat somit Zeit zu reflektieren wie die auf uns zukommenden Formen klingen mögen und spätestens wenn die Linien und Formen in Schleifen in der Zeit zurück zu reisen scheinen, wird unsere Vorstellungskraft gefordert, alle Genauigkeit und Eins-zu-eins-Übertragbarkeit hinterfragt.
Candaş Şişman ist ebenso der Video-Künstler hinter der für die Szene der Echtzeit-Musikvisualisierung einflussreichen Arbeit „FLUX“, die sich wiederum explizit auf die bildende Kunst in Person von İlhan Koman bezieht.
Oszilloskop Musik
Eine mehr oder minder in Österreich fußende Technik der Komposition, die auf ein visuell ansprechendes Resultat abzielt, ist die durch Jerobeam Fenderson und Hansi Raber entwickelte „Oszilloskop Musik“. Hier werden gezielt Audiosignale erzeugt, die, auf einem Oszilloskop dargestellt, visuell interessante Formen ergeben. Somit ist nahezu keinerlei Übersetzung, Analyse oder Interpretation als Zwischenschritt der Visualisierung vorangestellt.
Eine Komposition, die diese Technik bei der Arbeit mit akustischen Instrumenten zum Einsatz brachte, wurde von dem in Salzburg ansässigen Matthias Leboucher im Zuge des Projektes „Sounding Visions“ vorgestellt. Wenngleich im ersten Moment ähnlich wirkend, sind die ebenso spektakulären Auftritte von Lukas König mit Visualisierungen von Bernhard Rasinger anders gestrickt, da bei letzteren performativ in die Visualisierung eingegriffen wird – demnach wird hier das visuelle Material nicht allein durch die rohen Audiosignale gestaltet, sondern es kommt eine Interpretation hinzu.
Wenngleich im ersten Moment ähnlich wirkend, sind die ebenso spektakulären Auftritte von Lukas König mit Visualisierungen von Bernhard Rasinger anders gestrickt, da bei diesen in die Visualisierung direkt performativ eingegriffen wird. Demnach kommt bei König eine weitere Interpretation hinzu, da das visuelle Material nicht allein durch die rohen Audiosignale gestaltet wird.
SONIFIKATION
Bevor nun näher auf Musikvisualisierung im eigentlichen Sinn eingegangen wird, sollte doch auch erwähnt werden, dass die Umkehr – also die Sonifikation – eine interessante, wenn auch nicht so verbreitete Rolle spielt. Eine auf der Ars Electronica 2017 gezeigte Arbeit in diesem Bereich ist der Animationsfilm „Geophone“ des griechischen VFX-Artists Georgios Cherouvim. Hier finden wir den Versuch, Klänge direkt aus Punktpositionen im dreidimensionalen Raum zu synthetisieren. Der Anspruch liegt in der sehr direkten Übersetzung und Transparenz der Methode. Es wird dargestellt, wie genau die Klänge entstehen – theoretisch wäre wohl die Information auf der Audioebene genug, um die gesehenen Objekte annäherungsweise zu rekonstruieren. Möglicherweise ist der Reiz der Arbeit ihre Direktheit, Rohheit, Einfachheit im Spannungsfeld einer aufgeräumten, eleganten, sauberen, klaren visuellen Darstellung, durchaus auch die Auswahl von Geometrie mit hoher Komplexität (z. B. Büsten) im Kontrast mit zufällig scheinendem klanglichen Donner, dessen Ursprung doch offensichtlich klar definiert und Greifbar scheint:
Im Zuge des bereits erwähnten Projekts „Sounding Visions“ fand auch eine freiere Form der Sonifikation statt. Ein Teil des Projekts bestand aus den „Visuals“ der sehr aktiven österreichischen Visualistin Conny Zenk. Diese Arbeit wurde als Kompositionsgrundlage, als eine Art grafische Notation angesehen und in einer Umkehr des gängigen Prozesses der Musikvisualisierung durch den Komponisten Hannes Kerschbaumer zum Klingen gebracht.
Nachdem offensichtlich wurde, dass zahlreiche Formen existieren, Musik und Bild miteinander zu verschränken oder zu einer Form von ästhetischem Mehrwert zusammenzufügen, soll nun die klassische Musikvisualisierung näher beleuchtet werden.
Protagonistinnen und Protagonisten in diesem Feld bedienen sich unterschiedlicher Ästhetiken, wobei doch vor allem die Verbreitung eines gewissen Formalismus ins Auge fällt wie auch Anlehnungen an „Glitch“, also das Spiel mit diversen technischen Artefakten.
Eine interessante Arbeit, um uns diesen Strömungen anzunähern, ist etwa die Arbeit „Aphàiresis“ des italienischen Künstlers Gianluca Iadema, der 2020 in Kooperation mit Davide Santini bei Wien Modern seine Arbeit „Aritmie“ hätte präsentieren sollen (was durch COVID verhindert wurde).
In „Aphàiresis“ können diverse ästhetische Einflüsse ausgemacht werden, die für unsere Zeit spezifisch und signifikant wirken. Zum einen wird hier filmisches Material (z. B. Ingmar Bergmans „Persona“) gesampelt und neu arrangiert. Zum anderen werden Artefakte von älterem Equipment ästhetisch genutzt, um zu rekontextualisieren und der Materialität der Dispositive einen Mehrwert zu entlocken (vgl. McLuhan etc.). Darüber hinaus enthält die Arbeit formalistisches Material wie einfache Linien in Schwarz-Weiss, verbunden mit Klängen, die durch „Databending“ entstanden. All diese Aspekte mögen uns an mehr oder minder aktuelle Arbeiten aus dem Hause Raster-Noton erinnern, im speziellen vielleicht die einflussreichen Werke von Ryōji Ikeda, der seine Ausstellung „micro | makro“ 2018 im Zuge der Wiener Festwochen im Museumsquartier Wien präsentierte.
Eine Arbeit, die man wohl ebenso in dieser Ästhetik verankert sehen könnte, wenngleich das Augenmerk hier stärker auf der Sonifikation und Visualisierung von Rohdaten zu liegen scheint, ist „MESH ANALYSIS“ (2013) von Thomas Wagensommerer:
„Ich kuratiere eigentlich immer meine eigenen Fehler.“ – Thomas Wagensommerer im mica-Interview
Allgemein lässt sich wohl feststellen, dass der Einfluss der Bauhaus-Bewegung noch immer ein prägender Faktor der Musikvisualisierung in Mitteleuropa ist. Dies geht einerseits klar aus der Ästhetik vieler Visualisierungen hervor, liegt andererseits vermutlich an der Notwendigkeit, ein gewisses handwerkliches Niveau vorweisen zu müssen, um zeitgemäße Musikvisualisierungen anzufertigen und könnte belegt werden durch einen Vortrag für VisualistInnen, der diese Nähe in einem technischen Sinne versucht aufzuzeigen. Ein für die Ästhetik und Arbeitsweisen unserer Zeit prägendes Buch ist zudem „Generative Gestaltung“ (Hartmut Bohnacker et al., 2009), in welchem die sehr verbreiteten Ansätze der generativen Kunst praktisch durchleuchtet werden.
Analog versus digital?
Um ein wenig konkreter auf gängige Arbeitsweise einzugehen, kann man zunächst zwischen analogen und digitalen Arbeitsweisen Unterscheiden. Mit „analog“ ist hier gemeint, dass Signale zwar vielleicht digital erzeugt werden, letztlich aber etwa auf alten Röhrenbildschirmen wiedergegeben werden. Diese Wiedergabe ermöglicht es, mit analogen Videosignalen zu arbeiten – diese wiederum erlauben unterschiedlichste Eingriffsmöglichkeiten. Lokale Beispiele hierfür wären etwa die leider wenig dokumentierten analogen Visuals von Michael Perl oder die audiovisuellen Auftritte der bekannten Künstlerin Billy Roisz.
„ICH BIN KEINE DOGMATIKERIN“ – BILLY ROISZ IM MICA-GESPRÄCH
Die bei weitem häufiger anzutreffende Arbeitsweise ist natürlich die digitale Generierung von Visualisierungen. Vorab muss man hier wohl gleich feststellen, dass vor allem im kommerzielleren Sektor die vorwiegende Technik darin besteht, sich mehr oder weniger damit zu begnügen, entweder selbst vorab gerenderten oder aufgenommen Content zu präsentieren oder sogar auf „visual Packs“ zuzugreifen. Dieses Sampling bietet die Möglichkeit, sehr eklektisch vorzugehen und ist durch ihre Einsteigerfreundlichkeit wohl die verbreitetste Technik, um in Clubs rasch eine große Vielfalt an Material zu präsentieren.
Ein Beispiel für eine kreative und wirkungsvolle Anwendung der Sampling-basierten Technik ist die Arbeit „GIF Frenzy“ von Christof Ressi, die sowohl von Studio Dan als auch dem häufig mit Visualisierungen arbeitenden Wiener Black Page Orchestra aufgeführt wurde. Diese Arbeit besticht durch einen gewissen Humor, der in in ihrer Abgrenzung zum Unterhaltungssektor der „ernst“ genannten Musik gelegentlich schwer anzutreffen scheint:
„ES IST EINE SAUARBEIT ALLES“ – CHRISTOF RESSI IM MICA-PORTRÄT
Selbstverständlich gibt es auch Beispiele von sehr hochwertig produzierten kommerziellen Arbeiten, hinter denen teils große Teams stehen. Ein internationales Beispiel hierfür ist etwa die „isam“-Tour von Amon Tobin, welche durch die für damalige Verhältnisse umfangreich verwendete 3D-Mapping-Technik Aufsehen erregte:
In Österreich angesiedelte, zum Teil auch ein wenig kommerzieller ausgerichtete Arbeiten sind etwa jene des jungen VFX-Artists Jascha Suess oder die großformatigen Lichtinstallationen von Neon Golden/Stefan Kainbacher.
Ein weiteres internationales Beispiel für Arbeiten, die in großen Teams ausgeführt wurden und auf dem kommerziellen Sektor reüssierten, aber dennoch Pioniercharakter behielten, sind die Arbeiten von Daito Manabe, die sich oft in den Bereichen Biotechnologie, Tanz und Robotik bewegen:
Synchronizität
Wie schon in einigen der angeführten Beispiele zu sehen, ermöglichen die digitalen Techniken der Visualisierung Synchronizität, legen sie vielleicht sogar nahe. Dies bringt uns dazu, was man vielleicht die Gretchenfrage der Visualisierung nennen könnte: „Ist Synchronizität gewünscht?“ Ist es nicht vielmehr interessanter, eine Symbiose, einen Kontrapunkt zu setzen? Wozu Musik künstlich auf eine andere Ebene überschwappen lassen, ein anderes Medium stumpf mittanzen lassen, als Nachgedanke und Spektakel? Dies scheint ein prägender Faktor im Diskurs von studierten Komponist*innen zu sein, was vielleicht nebst der Verankerung im Club-Kontext eine der Erklärungen bietet, warum Visualisierungen im Kontext der „ernsten“ zeitgenössischen Musik noch immer rar zu sein scheinen. Ein wunderschönes historisches Beispiel für einen anderen Zugang ist die Arbeit „Arnulf Rainer“ von Peter Kubelka:
Es gibt zahlreiche Möglichkeiten, digitale Visualisierungen zu erstellen. Digitale Visualisierungen, die auf eine starke Synchronizität abzielen, lassen sich in zwei Kategorien unterteilen:
- Manuell gesteuerte Synchronizität im Sinne einer Produzentin bzw. eines Produzenten, die*der das visuelle Geschehen händisch und nach Gehör auf das musikalische abstimmt.
- Datenvisualisierung, wobei im wesentlichen symbolische Daten (z. B. MIDI) oder Audio-Analyse die Datengrundlage bildet.
Selbstverständlich gibt es hier viele Mischformen. Ein sehr bekanntes Beispiel für ein Musikvideo, das einen sehr hohen Grad an Synchronizität ohne ausgiebige Audio-Analyse oder Datenextraktion erzielt, ist das Musikvideo „Gantz Graf“ von Alex Rutterford:
Für performative Settings und experimentelle Anwendungen ist es teils eine Voraussetzung, das musikalische Material in Echtzeit zu analysieren, da etwa improvisatorische oder stochastische Elemente in der Musik zu finden sind, wobei die Synchronizität gewahrt bleiben soll.
Es existiert eine Gruppe von Software-Paketen, die genau für diese Zwecke gemacht sind und ihren Anwender*innen die Manipulation und Generierung von Inhalten in Echtzeit erlauben. Das tatsächliche Vorproduzieren eines „Films“ ist zwar eine Möglichkeit, jedoch kann tatsächliche Synchronizität im Live-Kontext nur erreicht werden, wenn die aufgeführte Musik ebenso fixiert werden kann (etwa mit Klick im Ohr der Musiker*innen), was wiederum in den meisten Fällen eine grobe Einschränkung darstellt.
Die Geschichte der Musikvisualisierung in diesem engen, Analyse-basierten, digitalen Sinne ist ebenso reich wie jung und geht von alltäglichen Visualisierungsmaschinen in Musik-Playern (wie Winamp oder iTunes) über offline gerenderte Midi-basierte digitale Orchester (z. B. die sehr einflussreiche und eigenartig hypnotische, wenn auch nicht ideal gealterte Animusic Reihe) über Datenvisualisierung zur strukturellen oder harmonischen Analyse bis hin zu zeitgenössischen visuellen Interpretationen klassischer Orchesterwerke.
Die Extraktion von Signalen und deren Grenzen
Das Problem der ganzen Idee ist ja folgendes: Wie lassen sich perzeptuell informierte Parameter aus der musikalischen Darbietung extrahieren? Das heißt: Wie kann aus Musik in Echtzeit ein Signal gewonnen werden, das etwas mit unserer Wahrnehmung zu tun hat, semantischen Gehalt wie „Lautheit“, „Schrillheit“, „Wärme“, „Lieblichkeit“ oder ähnliches hat? Einerseits kann hier MIDI benutzt werden, falls die Interpret*innen solches in Echtzeit generieren, jedoch ist das typischerweise nur bei akusmatischer oder elektronischer Musik der Fall. Es gibt seit langem Bestrebungen, an den Instrumenten Schnittstellen einzubauen, die einem Computer das Auslesen der entsprechenden Tonhöhe erlauben, jedoch ist hier ein derart großer Raum an Artikulation potenziell unerfasst, so dass diese Herangehensweise ihre Grenzen hat. Ein aktuelles Projekt in dieser Richtung ist das durch die beiden in Österreich angesiedelten Musiker/Komponisten Rafał Zalech und Alessandro Baticci gegründete Start-up ‘Digitaize’, welches in Echtzeit MIDI-Daten aus Geigen und Blasinstrumenten ausliest (zu didaktischen Zwecken, um Synthesizer oder Effekte zu steuern oder eben auch um Performances zu visualisieren).
Steht einer Visualistin, einem Visualisten ein Ensemble gegenüber, das über keine solche Technik verfügt, wobei aber Synchronizität gewünscht ist, bleibt nur der bei weitem häufigste Weg der sogenannten ‘audio feature extraction’. Im einfachsten Fall kann hier einfach die „Lautstärke“ gemessen werden (annäherungsweise z. B. via ‘RMS’) oder es kann versucht werden, mittels digitaler Filter die Lautstärke von verschiedenen Frequenzbändern zu analysieren, um so beispielsweise den Bassgehalt der Darbietung getrennt von den Höhen zu visualisieren. Wenn mehrere Mikrofone verwendet werden, um jede Interpretin bzw. jeden Interpreten einzeln als Signal zur Verfügung zu haben, kann so der Versuch gemacht werden, weiter ins Detail zu gehen. Diese Ansätze bieten in den allermeisten fällen schon eine ausreichende Analyse zur Visualisierung.
Eine Kombination aus MIDI- und Audio-Analyse kann beispielsweise im oben erwähnten Amon-Tobin-Video beobachtet werden, ist aber so gängig, dass es schwerfällt, hier ein besonders markantes Beispiel zu geben. Zahlreiche Beispiele für verschiedenste Formen der Analyse für mehrheitlich experimentelle elektronische Musik finden sich auf dem YouTube-Kanal audioreact-lab. Ein Beispiel für ein wenig komplexere spektrale Audio-Analysen wäre die unten angeführte Kooperation zwischen dem sehr erfolgreichen Visualisten und VFX-Artist Andrew Quinn (z. B. verantwortlich für VFX beim Film „The Matrix“) und dem Komponisten Nikolay Popov:
Räumlichkeit
Was in dieser Arbeit beobachtet werden kann, ist in Echtzeit gerenderter audio-reaktiver 3D-Content, der teils grafische Ästhetik annimmt, teils räumliche Strukturen in einer mehr oder minder fotorealistischen Weise abbildet. Eine im Groben ähnliche Technik – audio reaktiver Echtzeit-3D-Content – wird von vielen Visualist*innen verfolgt, so etwa auch von dem jungen Visualisten Marian Essl unter seinem Pseudonym Monocolor.
Offensichtlich wird in der oben angeführten Arbeit auch Räumlichkeit stärker mitverhandelt, was durch das Dispositiv, einen sogenannten „full dome“ ermöglicht wird. Ähnliche Möglichkeiten bietet der im Ars Electronica Center befindliche „Deep Space“. Bei dieser Darbietungsweise wird etwa auf eine Leinwand, auf einen Dome, mehrere Leinwände, vielleicht auf halbdurchlässige Gazen wie ab und an in den Arbeiten von Conny Zenk projiziert oder womöglich ein Haus mit 3D-Mapping bestrahlt – dies wurde hier noch kaum besprochen. Diese unterschiedlichen Varianten bieten selbstredend spezifische Möglichkeiten wie einen stärkeren räumlichen Eindruck oder fast holografische Erfahrungen. Die österreichische Künstlergruppe NO1[/ˈnuːn/] (der zugegebenermaßen der Autor dieses Texts angehört) hat ein spezielles bewegliches Dispositiv entwickelt, auf dem mittels 3D-Mapping und der Idee, die bestrahlte Fläche rasant rotieren zu lassen, eine Art holografischer Effekt erzielt wird.
Künstlische Intelligenz
Alle digital generierten Beispiele, die wir nun betrachtet haben, haben entweder zweidimensionalen Charakter oder wurden mit einer Art 3D-Render-Engine generiert. Derzeit gibt es jedoch ein zart blühendes Pflänzchen oder vielleicht eher ein wucherndes Rhizom, dem wohl die Zukunft gehört: die künstliche Intelligenz. Es gibt internationale Beispiele für diese vorgangsweise wie etwa das Video „T69 Collapse“ des Künstlers Richard D. James AKA Aphex Twin, und die Forschungslandschaft im Bereich „motion transfer“, „‘style transfer’“ und GANs (siehe unten) ist enorm aktiv.
Dies wiederum eröffnet natürlich mehr und mehr Möglichkeiten für Künstler*innen. Österreichische Künstler, die diese neuen Potenziale erkunden, sind etwa der Autor dieses Texts oder Rainer Kohlberger:
Im internationalen Vergleich ist die Szene der Visualisierung wohl in Ländern wie Kanada, Japan oder Russland ausgeprägter. Doch profitiert die lokale Szene auch von der Aktivität in Osteuropa durch Kooperationen wie FLUCA, dem Österreichischen Kultur-Pavillon in Plovdiv, Bulgarien, wo beispielsweise der Visualist Petko Tanchev involviert ist, wie natürlich auch durch Zuzug aus jenen Regionen wie beispielsweise den in Wien ansässigen vielseitigen Medienkünstler Antoni Rayzhekov.
Um das Gesagte zusammenzuraffen, hier noch ein Veranstaltungstipp: Der in Salzburg ansässige Komponist Marco Döttlinger präsentiert am 12. November 2022 im Rahmen von Wien Modern eine Arbeit, die von AI generierter Komposition, Audio-Analyse, einer Art graphischen Notation gebraucht macht. Ebenso an diesem Abend zu erleben sind Kompositionen, Videoarbeiten, Performances und bildende Kunst von Peter Jakober, Alexander Martinz, Thomas Hörl und Peter Kozek.
Patrik Lechner
Patrik Lechner, geb. 1986 in Wien, arbeitet seit den 2000er Jahren in den Bereichen experimentelle Musik und echtzeit Video-Kunst. Veröffentlichungen in den Bereichen Digitale Audio Effekte, Multimedia Programmierung im Allgemeinen, Audio Analyse, AI, Industrie 4.0. Tätigkeiten als Lektor etwa an der Universität für Angewandte Kunst, Universität für Musik und darstellende Kunst Wien, FH Salzburg und FH St. Pölten.
Bisherige Aufführungen Audio/Visueller Performances etwa in:
Österreich (Musik Protokoll, Impuls Tanz Festival u. a.), Belgien (BAM Festival), Italien, Bulgarien, Deutschland (ZKM), Kanada, Dubai, Mexico (MUTEK), Montreal (MUTEK), Shanghai 2010 (Expo 2010). Lechner erhielt eine ehrenvolle Erwähnung beim PRIX ars electronica 2019/Kategorie Sound Art.