Dissertation
Tierärztliche Hochschule Hannover / Bibliothek – School of Veterinary Medicine Hannover / Library

 

Susann Eschrich

 

Musical memory and its relation to emotions and the limbic system

 

NBN-Prüfziffer

urn:nbn:de:gbv:95-95558

title (ger.)

Musikalisches Gedächtnis und dessen Beziehung zu Emotionen und dem limbischen System

publication

Hannover, Tierärztliche Hochschule, Dissertation, 2008

text

http://elib.tiho-hannover.de/dissertations/eschrichs_ss08.pdf

abstract (deutsch)

In drei Experimenten wurde der Abruf von als emotional und als nicht emotional bewerteter Musik aus dem Langzeitgedächtnis auf Verhaltensebene in Wiedererkennensaufgaben untersucht. Eine weitere Studie erforschte die neuralen Grundlagen dieses Prozesses und von musikalischem Langzeitgedächtnis allgemein mittels bildgebender Verfahren (funktionelle Magnetresonanztomographie). Die Haupthypothese war, dass Musik, die als hoch erregend und sehr positiv bewertet wird, besser erinnert wird und leichter abzurufen ist als beruhigende, emotional neutrale Musik. Es wurde ein erster Versuch unternommen, die musikalischen Strukturen näher zu definieren, die möglicherweise die Gedächtnisleistung beeinflussen.

Musik kann starke Emotionen im Hörer auslösen und viele Menschen hören Musik wegen der emotionalen Bereicherung, die sie ihrem Leben hinzufügt. Möglicherweise kann Musik in Verbindung mit diesen Emotionen auch noch nach Jahren erinnert werden.

Es gibt überzeugende Belege dafür, dass emotionale Wörter, Bilder und Ereignisse besser erinnert und eher aus dem Langzeitgedächtnis abgerufen werden als nicht emotionale. Für Musik ist dieser Zusammenhang bisher nicht untersucht worden.

Die Studien dieser Arbeit basieren auf einem dimensionalen Emotionsmodell mit den beiden Dimensionen „Arousal“ und „Valenz“. „Arousal“ beschreibt die Erregung, die durch die Musik ausgelöst wird (von beruhigend bis aufregend) während sich „Valenz“ darauf bezieht, wie angenehm die Musik (von negativ bis positiv) empfunden wird. Beide Variablen wurden auf Fünf-Punkte-Skalen bewertet. Es wurde nach den Emotionen gefragt, die durch die Musik im Hörer ausgelöst wurden.

Die Teilnehmer aller Experimente waren musikalische Laien mit wenig oder keiner musikalischen Vorbildung.

Im ersten Experiment hörten die 10 Teilnehmer 30 kurze Ausschnitte aus Klaviermusik von J.S. Bach und wurden gebeten, die Valenz und das Arousal, das die Musik in ihnen auslöste, zu bewerten (Enkodierungsphase). Nach zwei Wochen hörten die Teilnehmer die Stücke der Enkodierungssitzung zufällig vermischt mit 30 ähnlichen neuen Stücken und führten eine klassische Wiedererkennensaufgabe durch (Rekognitionsphase). Zusätzlich bewerteten sie wiederum Arousal und Valenz. Die Stimuli wurden nach Vortests gemäß ihrer emotionalen Wirkung ausgesucht und wurden strukturell so ähnlich wie möglich gehalten, um Effekte der Struktur auf die Wiedererkennungsleistung zu minimieren.

In der zweiten und dritten Studie wurden kürzere Ausschnitte aus symphonischer Filmmusik als Stimuli verwendet und die Zeit zwischen Enkodierungs- und Rekognitionsphase wurde auf eine Woche (Studie 2) bzw. 2 Tage mit eingeschobener zweiter Enkodierungsphase (Studie 3) verkürzt, um die Wiedererkennungsleistung zu erhöhen. Im zweiten Experiment hörten die 20 Teilnehmer 104 Stücke, im dritten Experiment hörten die 24 Teilnehmer 80 Stücke.

In der zweiten Studie wurde zusätzlich der Levels-of-Processing-Effekt in der Musik untersucht, indem die Teilnehmer während der Enkodierungsphase in zwei Gruppen geteilt wurden, von denen die eine Arousal und Valenz bewertete (tiefe Elaboration) während die andere Gruppe die Länge und Lautheit der Stücke schätzte (oberflächliche Elaboration). Die Wiedererkennungsleistung und die emotionale Bewertung der Musik in der Rekognitionsphase, in der beide Gruppen Arousal und Valenz bewerten sollten, unterschieden sich nicht zwischen den Gruppen.

Im dritten Experiment wurden zusätzlich psychophysiologische Maße (tonischer und phasischer Hautleitwert, Herzrate und Atemrate) gemessen, um eine ergänzende und objektivere Kontrolle der Emotionen der bewerteten Emotionen zu gewinnen. Eine erste detaillierte Strukturanalyse der Musik wurde durchgeführt.

Das Hauptergebnis der drei Studien war, dass die Valenzbewertung eine signifikante Beziehung zur Wiedererkennungsleistung zeigte während die Arousalbewertung keinen derartigen Effekt aufwies. Das ist überraschend, da in vorherigen Studien zu Gedächtnis und Emotionen in anderen Domänen gefunden wurde, dass Arousal die wichtigere Variable beim Wiedererkennen emotionaler Ereignisse sei. Es wurde kein Levels-of-Processing-Effekt gefunden, was andere Studien im Bereich Musik bestätigt.

 

abstract (englisch)

The retrieval of music rated as emotional or non emotional (arousal and valence) from long-term memory was investigated behaviourally in three experiments by recognition tasks. A neuroimaging study (functional magnetic resonance imaging (fMRI)) examined the neural underpinnings of this process and of musical long-term memory in general. The main hypothesis was that music rated as highly arousing and very positive would be remembered better and could be retrieved more easily. A first attempt was made to define structural features possibly influencing memory performance.

Music is able to elicit strong emotions in the listener and many people listen to music because of the emotional richness it adds to their lives. Possibly in connection with these emotions, music can be remembered even years later.

For emotional words, pictures, and events there is convincing evidence that they are remembered better and are more readily retrieved from long-term memory than non emotional ones. However, for music this relation has not yet been examined.

The studies in this thesis were based on a dimensional model of emotions comprising the two dimensions “arousal” and “valence”. “Arousal” describes the excitation elicited by the music (from calming to exciting) while “valence” refers to the pleasantness of the music (from negative to very positive). Both variables were rated on five-point-scales. It was asked for the emotion elicited by the music in the listener.

Participants of all experiments were non musicians with either little or no musical training.

In the first experiment, 10 participants listened to 30 short musical excerpts of piano music by J.S. Bach and were asked to rate valence and arousal elicited in them by the music (encoding phase). After a delay phase of two weeks participants listened to the pieces of the encoding session randomly intermixed with 30 similar new pieces and performed a classical recognition task (recognition phase). Additionally, they again rated arousal and valence. Stimuli had been selected by pretests according to their emotional effect and were kept as similar in structure as possible for minimizing an effect of structure on recognition performance.

In studies two and three shorter excerpts of symphonic film music were used as stimuli and the retention phase was cut-down to one week (experiment two) and to two days with one more encoding phase in-between (experiment three) in order to enhance recognition performance. In the second experiment 20 participants listened to 104 pieces, in the third experiment, 24 participants listened to 80 pieces.

In the second experiment additionally the levels-of-processing effect in music was examined by dividing the participant group in the encoding phase into one group who rated arousal and valence (deep elaboration) and one group who rated the total length and loudness of the pieces (shallow processing). Recognition performance and emotion ratings of the recognition session, in which both groups were asked to rate emotions again, did not differ between the groups.

In the third experiment, additional psychophysiological measures (skin conductance level, skin conductance response, heart rate, and breathing rate) were collected to gain a supplementary and more objective control of the rated emotions. A first detailed structural analysis of the music pieces was conducted.

The main finding of these three studies was that valence ratings were significantly related with recognition performance whereas there was no such effect for arousal. This is surprising because studies about memory and emotion in other domains had found arousal to be the most important variable in recognition memory of emotional events. No levels-of-processing effect was found which confirms other studies in the musical domain.

In the third study, significantly higher skin conductance levels and skin conductance responses for pieces rated with high arousal and valence compared to low arousal and valence provided a further prove that the emotions had been elicited in the listeners. Interestingly, heart rate was significantly higher for new pieces (distractors) than for old pieces in the recognition session. Concerning the structural analysis, in this pool of pieces only the structural variable “strong accents” seemed to influence recognition performance. This might be due to the selection procedure and confirms that stimuli were structurally very similar as was intended.

The continous changes and improvements in design and methods with each experiment as well as the results obtained, finally allowed to conduct an fMRI study using a similar design as described above. However, this time only valence was varied from less positive to very positive while arousal was kept on an equally high level for all pieces. Participants listened to 30 target pieces in the encoding session outside the scanner and again rated valence and arousal. One day later, the recognition phase took place in the scanner where the participants listened to 60 pieces and performed the recognition task without another emotion rating. Probably due to the artificial listening situation in the scanner and a rather low recognition rate, no significant valence effect was found. The comparison of old to new pieces yielded thalamic and midbrain activity while the contrast of recognized vs. not recognized pieces showed activation in the right inferior frontal gyrus. Retrieval processes from long-term representations of music tend to engage inferior frontal regions. Like in other studies before, a mainly left-lateralized activation of the frontal and temporal gyrus as well as the cingulate cortex was found for the processing of very positive valence. Contrasting recognized positive versus recognized less positive stimuli confirmed the role of the posterior cingulate gyrus in emotion control as well as the role of frontal regions and the right temporal pole in the processing of (the valence) of complex stimuli. Taken together, more brain areas were active during the processing of the very positive stimuli.

The results of the experiments provide evidence for a relation between valence elicited in the listener by music and the retrieval of this music from long-term memory. Music inducing very positive emotion is recognized better. The left inferior frontal gyrus seems to be involved in the retrieval of music from episodic memory and more (frontal and limbic) brain areas are active during the retrieval of very positive compared to less positive music.

 

keywords

Musik; Gedächtnis; Emotion; music; memory: emotion

kb

1.830