Metadaten

Heidelberger Akademie der Wissenschaften [Hrsg.]
Jahrbuch ... / Heidelberger Akademie der Wissenschaften: Jahrbuch 2006 — 2006

DOI Kapitel:
III. Förderung des wissenschaftlichen Nachwuchses: Das WIN-Kolleg
DOI Kapitel:
1. Forschungsschwerpunkt "Gehirn und Geist: Physische und psychische Funktionen des Gehirns"
DOI Seite / Zitierlink: 
https://doi.org/10.11588/diglit.66961#0241
Lizenz: Freier Zugang - alle Rechte vorbehalten

DWork-Logo
Überblick
Faksimile
0.5
1 cm
facsimile
Vollansicht
OCR-Volltext
Das WIN-Kolleg

253

2. Einfluss akustischer Signalparameter auf die Hirnaktivierung bei impliziter Verarbeitung
emotionaler Sprachmelodie
Sowohl bei expliziter Beurteilung emotionaler Sprachmelodie (Prosodie) als auch
bei impliziter Verarbeitung emotionaler Prosodie (bei passivem Anhören oder Auf-
merksamkeitsfokussierung auf eine andere Aufgabe) konnte in der Vergangenheit
mittels fMRT eine Aktivierung im Bereich des mittleren Abschnitts des rechten
Sulcus temporalis Superior (m-STS) nachgewiesen werden. Dabei ist jedoch unklar,
ob diese Reaktion im Bereich des „stimmsensitiven Cortex“ der rechten Hemis-
phäre allein durch die unterschiedliche Ausprägung eines spezifischen akustischen
Parameters bedingt ist, oder ob darüber hinaus die größere biologische Relevanz
emotionaler Umweltreize eine Rolle spielt.
In dem aktuellen Experiment wurde die hämodynamische Aktivierung bei
passivem Anhören (implizite Verarbeitung) von Sprachsignalen geprüft. Zu diesem
Zweck wurden zerebrale Aktivierungsmuster bei gesunden Probanden mittels funk-
tioneller Magnetresonanztomographie (fMRT) untersucht. Den Probanden wurden
50 inhaltlich neutrale Adjektive und Substantive in fünf verschiedenen emotionalen
Intonationen (neutral, freudig, ängstlich, ärgerlich und erotisch) präsentiert. Bei Per-
zeption emotional gesprochener Worte zeigte sich dabei im Vergleich zu neutraler
Prosodie eine Aktivierung im Bereich des rechten m-STS, des linken Temporalpols
und des Thalamus (Abb. 1). Die Aktivierung im Bereich des rechten m-STS war bei
allen emotionalen Intonationsformen signifikant größer als bei neutralem Tonfall.
Eine Korrelationsanalyse der hämodynamischen Antworten mit den wichtigsten
akustischen Signalparametern (Tab. 1) zeigte einen signifikanten Einfluss der Stimu-
lusdauer (r = 0.32), der mittleren Lautstärke (r = 0.19), der mittleren Grundfrequenz
(r = 0.10) und der Grundfrequenzvariabilität (r = 0.09). In der statistischen Analyse
konnte jedoch gezeigt werden, dass keiner der untersuchten akustischen Parameter
den Anstieg der hämodynamischen Antworten bei emotionalen Reizen vollständig
erklären kann. Dieser Befund legt nahe, dass bei der Dekodierung emotionaler Pro-
sodie im Bereich des rechten m-STS die relevanten Modulationen unterschiedlicher
akustischer Signalparameter der menschlichen Stimme zu einem Perzept integriert
werden, welches die biologische Relevanz emotionaler Kommunikationssignale
repräsentiert.
3. Interpretation von emotionalen Ausdrucksverhalten
Im Teilprojekt ‘Interpretation von emotionalen Ausdrucksverhalten’ wurden fMRI-
Studien zur mimischen Kommunikation von Emotionen fortgesetzt. Dabei wurde
insbesondere ein in Tübingen entwickelter Ansatz weiterverfolgt, bei dem ein Part-
ner die Aufgabe hat, sich während der fMRI-Untersuchung in eine authentische
emotionale Situation zu versetzen und seine Gefühle seinem Partner zu vermitteln.
Der zweite Partner sieht im Tomographen ein Video seines Partners und hat die
Aufgabe, seinen Partner zu beobachten und mit ihm mitzufühlen. Mit Hilfe dieser
Versuchsanordnung wurde ‘neural mirroring’ bei Personen mit einer engen emotio-
nalen Bindung (Verliebte) und bei Fremden untersucht. Dabei zeigte sich, dass Ver-
 
Annotationen
© Heidelberger Akademie der Wissenschaften