Warum Gesang schlaganfallbedingte Aphasie auslöschen kann

Im Rahmen eines Schwerpunktes setzt sich das Online-Magazin von mica – music austria aus unterschiedlichen Perspektiven mit dem Zusammenhang zwischen Musik und Gesundheit auseinander, aktuell mit dem positiven Einfluss von Musik auf Schlaganfallpatient:innen.

Das Unglück Schlaganfall raubt dem Menschen häufig sein wichtigstes Verständigungs- und Kommunikationsmittel – die Sprache. Dabei können die Folgen des Verlusts verschiedene Varianten annehmen. Die Rückkehr zum normalen Sprechen ist oft mit viel Mühen verbunden. Einigen Betroffenen bleiben diese Chancen aber dauerhaft verborgen. Doch selbst wenn allem Anschein nach Sprachfähigkeit unwiederbringlich verschüttet ist, gibt es Wege, sie auszugraben: durch Musik.

Hintergrund Schlaganfall und Sprache im Gehirn

Unterversorgungen im Gehirn aufgrund von abrupten Durchblutungsstörungen oder Hirnblutungen, welche zudem das Hirngewebe schädigen, sind kurz als Schlaganfälle bekannt. Deren Auswirkungen auf körperliche wie kognitive Fähigkeiten können so unterschiedlich und einzigartig sein, wie auch jeder Mensch ein Individuum ist. Verletzungen, Krankheitsbilder und Symptome sind bei keinen zwei Patienten gleich. Der Umfang der Schädigung ist jedoch entscheidend von der Zeit abhängig, bis der Schlaganfall erkannt und gestoppt wird. Je später desto schwerer und meist auch irreparabler die Beeinträchtigung.

Unter die Vielfalt an möglichen resultierenden Defiziten reihen sich aber am häufigsten Sprachprobleme.  Warum dies so ist, hängt mit der Lage der Sprachareale im Gehirn zusammen, denn sie sind nahe einer der drei Hauptarterien lokalisiert, die beim Schlaganfall am häufigsten betroffen ist.

Führt man sich die Sprachfunktionen im Groben vor Augen, so bestehen diese aus zwei entscheidenden Teilen: Wahrnehmung und Produktion. Die hierfür zuständigen Bereiche im Gehirn sind frontal im Stirnlappen im sogenannten Broca-Areal (Produktion) und temporal im Schläfenlappen im sogenannten Wernicke-Areal (Wahrnehmung, Verständnis) zu verorten. Zusammen bilden diese Kernzentren die perisylvische Sprachregion.

Auf diese zwei Haupt-Sprachareale beziehen sich auch die geläufigsten Störungsbilder bei Sprachverlusten: die Wernicke-Aphasie einerseits und die Broca-Aphasie andererseits. Betroffene der erstgenannten haben den Sinn der Sprache, sprich jegliches Verständnis, verloren. Jene der zweitgenannten können zwar verstehen, sind aber in der Artikulation, dem fließenden Hervorbringen von Sprache, häufig massiv eingeschränkt. Diese starre Unterscheidung gilt nur als Orientierung. In der Realität sind die Störungsbilder viel komplexer.

In den meisten Fällen ist das Sprachzentrum in der linken Gehirnhälfte lokalisiert, denn Sprache ist in der Basis eher der Logik zuzuordnen, wofür diese Seite zuständig ist. Man spricht von einer Linkslateralisierung bzw. von der (sprach-)dominanten Hemisphäre. Was die Anatomie der beiden Gehirnhälften betrifft, so spiegeln sie zwar einander, unterscheiden sich aber in der Verarbeitungsweise. Das heißt, dass basierend auf genetisch bedingten Vorgaben und Mustern verschiedene Neuronen(-gruppen) auf bestimmte Aufgaben spezialisiert sind und folglich je nach Reiz und Anforderung eine Seite vorrangig in Anspruch genommen wird. Dies zeugt von der charakteristischen funktionalen Asymmetrie des menschlichen Gehirns. Für vollständige Funktionsausführungen müssen nichtsdestotrotz sowohl die unterschiedlichen Bereiche innerhalb einer Gehirnhälfte als auch beide Seiten ständig zusammenarbeiten und sich ergänzen. Da die rechte Gehirnhälfte im Allgemeinen für die kreativen, emotionalen Parts verantwortlich ist, übernimmt sie so in Hinblick auf die Sprache emotionale Aspekte, wie Prosodie und Pragmatik oder die Erkennung von Sprecher, Stimmen oder Gesten, was vor allem auch für eine lebhafte Kommunikation relevant ist.

Doch trotz der Erbanlage für den Auf- und Ausbau der Hemisphären und ihren funktionellen Spezialgebieten besteht nicht bei jedem Menschen eine Linkslateralisierung der Sprache. Im Wesentlichen ist die Händigkeit ein Indiz dafür, wo sich die zuständigen Areale befinden. Von den ca. 90 Prozent an Rechtshänderinnen und Rechtshändern in der Bevölkerung besitzen fast alle eine linksseitige Sprachdominanz (Anm.: allgemein vorliegende Kreuzlateralität von Körper- und Gehirnhälfte). Beim Rest (Nicht-Rechtshänderinnen oder Linkshänder) liegen Varianten in der Sprachbereichslokalisation vor. Die Funktionen können stärker rechtsseitig ausgeprägt oder in beiden Hemisphären gleichmäßig verteilt sein. Demnach ist das Verhältnis Händigkeit und Lokalisierbarkeit von Sprache weniger eindeutig und die motorische Geschicklichkeit häufig ebenso ausgeglichener. Für Sprachtherapien insbesondere mit Musik ist dies ein wichtiger Aspekt, den es zu beachten gilt.

Wenn Musik die Sprache „wiederbelebt“

Musik ist im Gehirn schwieriger zu lokalisieren und kann nicht auf bestimmte Kernbereiche fixiert werden. Einerseits löst der Facettenreichtum eines musikalischen Ereignisses in weitreichenden multiplen neuronalen Aktivierungen mit hochkomplexen Vorgängen ohnehin nahezu ein Feuerwerk im Gehirn aus. Andererseits unterliegen jene Areale, die zur Verarbeitung und Speicherung von musikalischer Information herangezogen werden, durch den persönlichen Zu- und Umgang sowie die musikalische Bildung von Person zu Person individuelleren Mustern. Der Verweis in die rechte Hemisphäre ist zwar wegen des Wesenskerns von Musik und der einhergehenden Wahrnehmung als etwas Ästhetisches, Ganzheitliches gerechtfertigt, aber auch nur insofern im Zuge entsprechender Erfahrung oder intensiver Beschäftigung mit den Bestandteilen keine analytische Auseinandersetzung mit ihr erfolgt. In umgekehrter Weise gilt dies ebenso für Sprache. Unabhängig davon, dass sie im täglichen Gebrauch jedes und jeder Einzelnen ist, einen mehr oder weniger überlebensnotwendigen Zweck und eine andere „Vorgeschichte“ hat, weshalb sie etwas konkreter ihren Platz einnimmt, ist genauso hier die Lernerfahrung ausschlaggebend. Gleichsam kindlicher Spracherwerbsstrategien rückt auch beim Hören von Fremdsprachen, für die noch keine dem Verständnis dienlichen Informationen im Gehirn abgespeichert sind, die oberflächliche ­– stärker auf prosodische Kontur beschränkte – Wahrnehmung und somit die Leistung der rechten Hemisphäre in den Vordergrund.

Durch den großflächig gestreuten Einbezug sehr vieler assoziierter Bereiche zieht Musik insgesamt eine umfassende, im Normalfall positive, Wirkung auf den menschlichen Organismus nach sich. Ihre Besonderheit kommt dann erst recht zu Tage, wenn sie scheinbar völlig andersartige Funktionen (re-)aktiviert. Das Phänomen der „wiedergefundenen“ Sprache durch das Zutun von Musik kann meist im Fall einer Broca-Aphasie deutlicher beobachtet werden. An die Ähnlichkeit zu Stotternden, die ihre Botschaften singend plötzlich fließend produzieren können, mag hier vielleicht erinnert werden. Wie und warum Musik und Sprache so eng zusammenhängen, dass u. a. Singen die Artikulationsfähigkeit zumindest verbessert, ist nach wie vor ein attraktives Forschungsthema und setzt ein grundlegendes neurobiologisches Verständnis voraus. Dennoch lässt sich neben aller Komplexität der Kern des besagten Ereignisses auf einfachere Aspekte zurückführen. Die angesprochene Arbeitsweise der Hemisphären ist dabei ein kleiner, jedoch für den Anfang bedeutender Mosaikstein. Wenn Musik die Sprache „wiederbelebt“, werden dem Gehirn in der besagten Situation andere Signale gesendet, die quasi eine Umleitung in Gang setzen. Löscht Gesang (schlaganfallbedingte) Aphasie, passiert dies also in erster Linie nur scheinbar. Die Sprache nimmt, so ließe sich behaupten, im Mantel der Musik dann im Gehirn bloß einen anderen Weg. Notwendige neuronale Ressourcen hierfür sind nicht nur primär wegen der vorliegenden Homologie abgedeckt. Denn Wahrnehmung und Produktion sind genauso für Musik entscheidende Säulen.

Wo sich Musik und Sprache begegnen

Wenn Musik und im Speziellen das Singen die Sprache von Störungen befreien kann, müssen auf mehreren Ebenen sowohl Parallelen als auch Unterschiede zwischen diesen beiden Dimensionen bestehen. Tatsächlich finden sich Überschneidungen eher in elementaren Eigenschaften etwa von der Beschaffenheit des Signals, der Analyse des akustischen Inputs bis zum Planen des motorischen Outputs. Je tiefer man in Details eintaucht, desto mehr entfernen sich die Bereiche voneinander. Obwohl viele gleichartige bzw. ähnliche Merkmale existieren, sind spezifische Elemente nicht oder nur metaphorisch aufeinander übertragbar. Am einfachsten ist daher, sich die Systeme Musik und Sprache von jeder Perspektive aus als Pole eines Kontinuums vorzustellen. Je nach Fokus, konkretem Nutzen bzw. zu erfüllender Anforderung und Funktion oder Kontext sind verschiedene Komponenten für einen Bereich tendenziell geeigneter oder jeweils unterschiedlich stark bedeutsam.

So sind beispielsweise suprasegmentale Eigenschaften (Melodie, Betonung, Rhythmus, Klang) Musik und Sprache gemein. Während sie aber für Musik meist typisch und formgebend sind, haben sie für Sprache einen eher nebensächlichen Effekt. Dennoch liegt darin eine relevante Überlappung. Musik als Kommunikationsmittel für Emotionen kann besser als jedes Wort Gefühle und Empfindungen ausdrücken, beschreiben oder hervorrufen. Zur Vermittlung emotionaler Inhalte beim Sprechen ist daher der musikalische Teil – die Prosodie – nötig. Sie lenkt den Fokus nicht von der Sprache weg, sondern beeinflusst die Wahrnehmung, Bewertung und Wirkung des Gesagten.

Wenige Überschneidungen befinden sich zu den Enden des Kontinuums hin bei jeweils bereichsspezifisch bedeutungstragenden Elementen. Die Semantik als unerlässliches Charakteristikum der normalen Alltagssprache mit dem Ziel einer Kommunikation und einem zugrundeliegenden mentalen Lexikon hat im musikalischen System genauso wenig Entsprechung, wie ein periodischer Rhythmus mit isochronem Puls, der das synchrone Produzieren von Musik oder dazugehörenden Bewegungen unterstützt.

Das Musik-Sprach-Kontinuum kann auch die hemisphärische Funktionsaufteilung beschreiben. In einem vorliegenden Musik-Sprache-Netzwerk passieren ineinandergreifende und sich ergänzende Aktionen; die homologen Bereiche zeigen auf jeweilige Reizstimuli entweder links- oder rechtsgewichtete oder bilateral ausgeglichene Reaktionen. Als Pole können bereichsspezifische, neurologisch unterschiedliche Repräsentationsnetzwerke verstanden werden. Überschneidungspunkte, sprich domänenübergreifende (bilateral homologe) Aktivierungen, stützen sich auf ein gemeinsames Ressourcennetzwerk, das mit den Repräsentationsnetzwerken interagiert. Dies kann ferner die Dissoziation in der Artikulation erklären, wobei es ähnliche funktionale Berechnungen gibt, die in Folge in unterschiedlichen Schaltkreisen durchgeführt werden.

Eine besondere kognitive Gemeinsamkeit mit geteilter Ressource wurde in der Syntaxverarbeitung aufgedeckt. Bei syntaktischen Erwartungsverletzungen und Unregelmäßigkeiten sowohl in der Sprachsyntax (grammatikalisch korrekter Satzbau) als auch der Musiksyntax (Tonalität bzw. Harmonie und regelmäßige Akkordfolgen) ergeben sich durch die erschwerte Strukturintegration messbare Ausschläge in elektrischen Hirnströmen, wobei derselbe elektrophysiologische Index P600 dem Kontinuum entsprechend bilateral und vice versa domänenspezifisch ausgelöst wird. D. h. Musik und Sprache greifen auf dieselbe Integrationsressource zurück, die aus gleichen bzw. ähnlichen Gehirnregionen entspringt: dem Broca-Areal und seinem Homolog. Somit stellt das sprachtypische Zentrum ebenso ein Musik-Areal dar.

Ergo dürften sich in Anbetracht der jeweils bereichstypischen (klanglichen) Darstellungen und gespeicherten Inhalte die Repräsentationsnetzwerke im Temporallappen bündeln. Über die Semantik kann auch keine übereinstimmende, idente Gehirnressource gefunden werden. Die Bedeutungsverarbeitungen weisen unterschiedliche Korrelate auf und zeigen kaum Wechselwirkungen oder Interferenzen, wie sie in der Syntaxverarbeitung beobachtet werden.

Die geteilte Quelle bezüglich Sequenzierung, serieller Vorhersage und struktureller Verarbeitung deutet vor allem auf die Grundeigenschaft von Musik und Sprache – die zeitliche Entwicklung der aus sequenziellen Ereignissen bestehenden akustischen Ströme – sowie die dazu obligatorischen Wahrnehmungsfähigkeiten hin.  Im Wesentlichen handelt es sich um angeborene, universelle und automatisch ausgelöste psychoakustische Strukturierungsmechanismen und Gestaltprinzipien. Erfahrungs- und hörgewohnheitsabhängig gruppieren sie ähnliche oder als zusammenhängend bewertete Merkmale in sinnvolle Einheiten, die sich zeitlich linear gesehen akustisch durch diverse Begrenzungsmerkmale voneinander abtrennen. Ein Inhalt kann damit leichter verstanden und in Abhängigkeit der Gedächtnisfunktionen besser aufgenommen und weiterverarbeitet werden, womit folglich ein In-Beziehung-Setzen gewährleistet ist.

Zu diesen Prozessen reiht sich der Priming-Effekt, bei dem vorangegangene Erfahrungen und Erlebnisse (also bereits bestehende, verstärkte Neuronenverbindungen) neue Wahrnehmungen bahnen, also den Informationsabruf sowie die Weiterverarbeitung erleichtern. Dieser Effekt begleitet unterschiedliche Situationen, doch ist in puncto Vorhersagbarkeit auch für Sprache und Musik wesentlich. Sprachlich gesehen fände er sich in der Semantik und Grammatik, musikalisch bei vertrauten Melodieverläufen oder noch stärker auf der zeitlichen Ebene (zyklische Rhythmen, regelmäßiger Puls, Betonung) wieder. Domänenübergreifend kann möglicherweise ein Bild, ein Lied, eine (autobiografische) Erinnerung und/oder eine Emotion der gestörten Sprache den Weg bahnen. Priming kann man sich so folglich in Therapien zu Nutze machen.

Warum Musik die Anregung des Sprachflusses besser unterstützt

Der oben genannte Zusammenhang von Sprachlateralisierung und Händigkeit bzw. der stärker einseitig, rechten motorischen Geschicklichkeit ist evolutionär gesehen auf eine gemeinsame Wurzel von Sprache und Motorik zurückführbar. Eine Ursprungstheorie geht davon aus, dass motorische Fertigkeit und Werkzeugbau die Entwicklung der Sprache begünstigt haben. Immerhin sind zumindest für deren Produktion über die Zeit genau geplante, an einen bestimmten Ablauf gebundene, sequenzierte, gezielte Bewegungen entscheidend. Außerdem ist die allgemeine Motorikplanung linkslateral und bzgl. des Ausbaus der Sprachzentren war dies hier der kürzere kortikale Weg.  Nicht selten, wenn nicht sogar ausschließlich begleitend, treten bei Schlaganfällen zu den Sprachbeeinträchtigungen eben auch halbseitige Bewegungseinschränkungen oder Lähmungen jener von der Sprachdominanten gesteuerten Körperhälfte auf. Eine Art generativer Charakter ist weiter auch in musikalischen Handlungen erkennbar und wie bereits erwähnt, ist das Broca-Areal und sein Homolog für motorische Aufgaben wie auch für sequenzielle und strukturelle Verarbeitungen zuständig. Dadurch bildet die Motorik eine solide Schnittstelle.

Rhythmik

Hinsichtlich der anknüpfenden Strukturierungsmechanismen ist die Rhythmik ein unterstützender Faktor zur Gruppierung, da sie eine regelmäßige, vorhersehbare, zeitliche Struktur vorgibt. Daher aktiviert Rhythmus wahrscheinlich auch die linke Gehirnhälfte stärker. Zudem können an die zeitliche Vorgabe Bewegungen angepasst, gegebenenfalls verlangsamt und folglich besser kontrolliert werden. Wegen der engen Verwandtschaft kann so auch die Artikulation angeregt und organisiert werden. Puls-synchronisierte Bewegungen aktivieren zudem die Belohnungszentren und führen zu Dopamin-Ausschüttung, was wesentlich dem Lernen und der Anregung der Gedächtnisleistung dient. Das Belohnungszentrum ist wiederum mit subkortikalen Strukturen verbunden, welche einerseits in der Rhythmus-Verarbeitung und Puls-Synchronisation eine wichtige Rolle spielen und andererseits auch in den Sprachproduktionsschaltkreis eingebunden sind.  Diese Zusammenhänge erweisen sich als hilfreich zur Sprachinitiierung und für den Sprachwiedererwerb.

Melodie

Nun der Schwenk zur Melodie: Die diskretere Tonhöhensteuerung würde ebenso die Artikulationsrate verlangsamen und sodann die Bewegungskontrolle erleichtern. Hinzu kommt aber, dass das Singen von (wortreichen) Liedern einen Spezialfall darstellt, da hier die Integration von Sprache und Musik eine noch deutlicher bi-hemisphärische Kombination von Funktionen erfordert. Interessant ist dabei, dass Melodie- und Textinformation trotz der gemeinsamen Kodierung separat ins Gedächtnis aufgenommen werden – der Text links, die Melodie rechts. Sie können so unabhängig voneinander erkannt oder erinnert werden und sich gegenseitig primen. Bei Rhythmus und Text wäre dies nicht derartig ausgeprägt. Dennoch kann die Text-Melodie-Integration bzw. Verknüpfung, abhängig von der Vertrautheit des Liedes oder der Aufmerksamkeitsleistung des Hörers bzw. der Hörerin, so stark werden, dass die Komponenten bei gewissen kognitiven Ausfällen am ehesten in ihrer ursprünglichen Kombination abgerufen werden können. Dies ist einem gesonderten Liedgedächtnis zuzuschreiben, in dem auch alle nötigen Informationen und Funktionen zur Wiedergabe abgelegt sind. Aufgrund dieses Speichers können bekannte, eingelernte Lieder gewissermaßen automatisch hervorgebracht werden. Für den bzw. die Broca-Aphasiker*in bedeutet dies eine Stimulation entsprechender Artikulationskonzepte über eine andere, vom musikalischen Kontext vorgelegte, Route.

Aus der Praxis

Beispiel 1/allgemeiner Überblick:

Es liegen Fälle vor, in denen Schlaganfallpatient:innen mit der Diagnose Broca-Aphasie, die beim normalen Sprechen große Probleme haben und bspw. nur einzelne Worte hervorbringen, beim Singen die Texte einwandfrei artikuliert wiedergeben können.

Dem liegen mehrere mögliche Erklärungen zugrunde. Zum einen handelt es sich um vertraute Lieder, die aus dem Gedächtnis abgerufen werden. Die Musik oder die damit verbundenen Emotionen helfen sodann beim Erinnern und Aktivieren sämtlicher verbundenen Schaltkreise. Zum anderen geschieht (durch die andersartige Anforderung an das Gehirn) ein Ausgleich über die gesunden Gehirnregionen. Die Artikulation findet sozusagen funktionale Kompensationswege. Zuletzt können rhythmische Elemente oder rhythmisch angepasste Bewegungen den Sprechfluss initiieren bzw. unterstützen. Außerdem kann Singen in Gemeinschaft u. a. auch die Belohnungszentren aktivieren, was ebenso einen positiv anregenden Effekt auf die Sprache und das Gedächtnis hat.

Beispiel 2:

Die Melodische Intonationstherapie (MIT) richtet sich an Broca-Aphasiker:innen, denen die Artikulation mithilfe des Singens plötzlich viel leichter fällt. Beobachtungen von Broca-Aphasie-Patient:innen, die zum gesungenen Artikulieren fähig sind, waren auch primär für die Entwicklung dieser Therapie ausschlaggebend.

Der Schwerpunkt der MIT liegt auf dem Einsatz melodischer Muster und rhythmischen Klopfens oder Tippens mit der zur intakten (rechten) Gehirnhälfte kontra-lateralen Hand (üblicherweise die linke). Die melodischen Muster bestehen aus zwei Tonhöhen und werden so auf prosodische Sprachmuster übertragen, sodass daraus eine übertriebene Prosodie hervorgeht. Die beim natürlichen Sprechen betonten Silben sind mit dem jeweils höheren Ton versehen, die unbetonten mit dem tieferen. Pro intonierte Silbe erfolgt begleitend ein Klopfen/Tippen.

Im groben Ablauf ähnelt die Methode einer normalen Sprachwiederholungstherapie. Die MIT erlangt ihre höhere Effektivität und Nachhaltigkeit in der Besserung der Sprachfähigkeiten durch die zusätzlichen Grundmerkmale Melodie und Rhythmus. Bei der Verarbeitung der musikalisch-melodischen Intonation durch die Wahrnehmung diskreter Tonhöhen erhöht sich die Inanspruchnahme der rechten Gehirnhälfte. Die Vokalisierungsrate ist zudem verlangsamt und die automatisch einhergehenden Silbenverlängerungen wirken sich positiv auf die Wort- und Phrasenunterscheidungen bzw. -gruppierungen und die Artikulation(-simitierung) aus. Melodielinie, Rhythmus, Betonung und das gewisse entstehende Spannungs-Entspannungs-Muster sind wichtige Elemente in der MIT beim Übergang von der Liedintonation zur gesprochenen Prosodie. Die Melodie stellt ein essenzielles Element für das Finden funktionaler Kompensationswege dar.

Die (linkshändig) durchgeführten Klopfelemente sollen während der melodischen Intonation den kontra-lateralen (rechten) prä- und sensomotorischen Kortex für Artikulation aktivieren und primen. Mit anderen Worten: Es werden relevante Hirnareale für die Ton-Handlungs-Verknüpfungen aktiviert und ein für die Steuerung der Hand- und Artikulationsmotorik gemeinsames neuronales Korrelat stimuliert. Die Sprachproduktion erleichtert sich also neben rhythmischer Antizipation auch durch Priming- und Kopplungseffekte (auditorisch-motorisch), sowie jene beim normalen Sprechen zu Artikulationsbewegungen synchronisierte Hand-/Armgesten eine unterstützende Wirkung zeigen.

Zusammenfassend profitieren Broca-Aphasiker*innen funktional am meisten von Musik und diverse Therapien zielen hauptsächlich auf diesen Typen ab. Die Wernicke-Aphasie scheint komplexer handhabbar und wegen der bestimmten Bedingungen einen anderen Zugang mit Musik zu fordern. Hier ist ein Experimentieren mit Musikbedeutungsebenen und Sprachsemantik durchaus eine Überlegung wert. Welche (musikalischen) Merkmale letztendlich für welche Störung generell unterstützend wirken, ist für jeden Fall individuell zu beurteilen. Grundsätzlich sollte für jeden Patienten bzw. jede Patientin eine Therapie „maßgeschneidert“ werden, wobei die Verbindung unterschiedlichster Ansätze notwendig ist. Ob die Spontansprache, sprich: die normale Alltagssprache, wiederhergestellt werden kann, hängt von vielen Faktoren ab und ist nicht immer sichergestellt. Hauptziel ist es, die eingeschränkte Kommunikation als größten Leidensfaktor, zumindest zu erleichtern. Und wenn auch nichts greifen mag, so liegt in der Musik immer noch die Hoffnung auf eine Steigerung des Wohlbefindens, was zweifellos Türen zur Heilung eröffnet. 

Sophia Umfahrer

Sophia Umfahrer, MA, 1996 geboren in Krems/Donau und aufgewachsen in Villach, studierte „Angewandte Kulturwissenschaften“ in Klagenfurt und schloss 2021 das Studium der Musikwissenschaften an der Universität Wien ab, mit diversen Praktika im Bereich Theater, Bühne, Akustik und Musikproduktion im Gepäck. Mit einem Schwerpunkt im Bereich der Systematischen Musikwissenschaft spezialisierte sie sich vor allem auf Themen rund um Musikpsychologie, Musikwirkung, Musik und Gesundheit sowie letztlich Musik und Sprache im Gehirn und verfasste sie ihre Masterarbeit mit dem Titel „Wie schlaganfallbedingte Aphasie mit Gesang scheinbar ausgelöscht werden kann“.