You are here: Startseite Q&A Fragen und Antworten

Fragen und Antworten

Questions and Answers English  Vragen en Antwoorden Nederlands

Gibt es etwas, das Sie schon immer über Sprache wissen wollten? Vielleicht haben wir die Antwort! Forscher vom Max Planck Institut für Psycholinguistik beantworten hier Fragen über Sprache von Menschen, die selber keine Sprachforscher sind. Falls Sie auch eine Frage über Sprache haben, schicken Sie sie uns hier! MPI Forscher schreiben regelmäβig Antworten auf die uns zugesendeten Fragen und machen diese über die hiesige webpage einsehbar. Besuchen Sie uns wieder, um durch zukünftige Fragen und Antworten mehr über Sprache zu lernen.

Zeig oder verberg AntwortSprache und Programmieren im Gehirn
Link & Share

Siegmund und Kollegen (2014) waren die ersten, die empirisch die Verbindung zwischen Programmieren und anderen kognitiven Domänen wie Sprachverarbeitung untersucht haben - zumindest mit Hirntomographie. Sie verwendeten funktionelle Magnetresonanztomographie (fMRI), die Veränderungen in der lokalen Sauerstoffsättigung des Blutes als Funktion von Hirnaktivität verschiedener Netzwerke von Neuronen misst. Die Gehirne von Informatik-Studenten wurden beobachtet während sie im Tomographen lagen und Code-Ausschnitte lasen und verstehen mussten und während sie ähnlichen Code lasen und nach syntaktischen Fehlern suchen, aber sonst nichts verstehen mussten. Dabei wurde Aktivität in den klassischen Sprachnetzwerken festgestellt: Brocas und Wernickes Areal, vor allem in der linken Hemisphäre.

 

Der zu lesende Code war so angelegt, dass er das sogenannte bottom-up-Verständnis fördern sollte, also das Lesen und Verstehen von Ausdruck für Ausdruck und Zeile für Zeile. Versuchsteilnehmer sollten also nicht nur einen flüchtigen Blick auf die Gesamtstruktur des Codes werfen. Der bottom-up-Prozess kann mit Prozessen in der Sprachverarbeitung verglichen werden, während denen einzelne Wörter nach syntaktischen Regeln kombiniert werden, um einen zusammenhängenden Satz zu generieren, und diese Sätze dann zu einem Gespräch verknüpft werden. Es gibt zudem Hinweise darauf, dass sprachbegabte Menschen auch die besseren Software-Entwickler sind (Dijkstra 1982). Eine mechanistische Erklärung hierfür könnte die Stärke der Verbindungen zwischen den erwähnten Hirnregionen sein, die sich von Mensch zu Mensch unterscheiden. Zusammenfassend lässt sich sagen, dass die gleichen Netzwerke im Gehirn für Programmieren und Sprache verwendtet werden.

 

By: Julia Udden, Harald Hammarström and Rick Janssen

Aus dem Englischen übersetzt von Tayo Takada & Sebastian Sauppe

 

Siegmund, J., Kästner, C., Apel, S., Parnin, C., Bethmann, A., Leich, T., Saake, G. & Brechmann, A. (2014) Understanding Understanding Source Code with Functional Magnetic Resonance Imaging. In Proceedings of the ACM/IEEE International Conference on Software Engineering (ICSE).

 

Dijkstra. How Do We Tell Truths that Might Hurt? In Selected Writings on Computing: A Personal Perspective, 129–131. Springer, 1982.

Zeig oder verberg AntwortWarum können mehrsprachige Menschen nach einem Schlaganfall manchmal nur noch eine ihrer beiden Sprachen sprechen?
Link & Share

Bei einem Schlaganfall ist die Blutzufuhr in bestimmten Hirnarealen kurzeitig gestört. Das passiert entweder durch eine Gehirnblutung oder durch die Blockierung eines Blutgefäßes. Wenn der Schlaganfall Hirnareale betrifft, die eine wichtige Rolle für Sprache spielen, können Sprachfunktionen teilweise oder sogar ganz verloren gehen. Dies wird Aphasie genannt. Mit viel Zeit, der richtigen Behandlung und Rehabilitation kann eine Aphasie in manchen Fällen zumindest zu einem gewissen Grad geheilt werden. Menschen, die mehr als eine Sprache sprechen, also Zwei- bzw. Mehrsprachige, können sich auf verschiedene Weisen von einem Schlaganfall erholen. Der wahrscheinlichste Fall ist, dass der Patient die Sprachfertigkeit in beiden Sprachen auf eine ähnliche Weise gleich wiedererlangt (parallele Aphasie). In einigen Fällen wird eine der Sprachen jedoch unverhältnismäßig schnell und besser wiedererlangt als die andere(n) Sprache(n) (selektive Aphasie).

7_13_strokepatients

Die Bekanntheit der Fälle von selektiver Aphasie bei mehrsprachigen Patienten sorgte dafür, dass Forscher anfänglich annahmen, verschiedene Sprachen seien in verschiedenen Hirnarealen gespeichert. Dank bildgebender Verfahren in der Neurowissenschaft wissen wir heute jedoch, dass dies nicht der Fall ist. Im Gegenteil, auch wenn eine Person viele unterschiedliche Sprachen spricht, werden stets die gleichen Gehirnregionen aktiviert. Während wir leider noch immer nicht vollständig  verstehen, wie unser Gehirn dazu in der Lage ist, mehrere Sprachen zu beherrschen, so kennen wir doch bereits einige Faktoren, die einen Einfluss darauf zu haben scheinen, bis zu welchen Grad ein mehrsprachiger Patient seine Fähigkeit zu sprechen wiedererlangen wird. Wenn eine Sprache zum Beispiel weniger gut beherrscht wurde, wird diese vermutlich nicht so gut wiedererlangt wie die Sprache, die besser beherrscht wurde. Das bedeutet je automatischer eine Fähigkeit ist, desto leichter ist es diese nach einem Schlaganfall wieder zu erlangen. Fähigkeiten, die viel Mühe kosten, wie das sprechen einer Sprache, die man kaum benutzt, sind hingegen viel schwieriger wieder zu erlangen. Soziale Faktoren und emotionale Verbundenheit spielen ebenfalls eine wichtige Rolle, wenn wir verstehen wollen, welche Sprache nach einem Schlaganfall wiedererlangt wird. Hierbei kommt es zum Beispiel darauf an wie häufig eine Sprache verwendet wird oder welche Gefühle wir mit einer Sprache verbinden. Obgleich wir wissen, dass diese Faktoren eine wichtige Rolle spielen, muss erst noch erforscht werden wie die Faktoren genau miteinander zusammenhängen, um erfolgreich den Wiedererlangungsprozess einer Sprache vorhersagen zu können.

Eine der derzeitigen Theorien führt selektive Aphasien darauf zurück, dass bei Schlaganfällen Bereiche geschädigt werden, die für bestimmte Kontrollmechanismen zuständig sind. Mehrsprachige Personen müssen beim Gebrauch einer ihrer Sprachen die jeweils anderen unterdrücken bzw. 'ausschalten'. Wenn diese Umschaltmechanismen bei einem Schlaganfall beschädigt werden, kann es passieren, dass der Patient nicht mehr in der Lage ist, beide Sprachen gleichmäßig wiederzuerlangen, weil die Fähigkeit Sprache zu steuern verloren gegangen ist. In einem solchen Fall sieht es so aus als sei eine der Sprachen komplett verloren, jedoch liegt das Problem in den Kontrollmechanismen. Vor kurzem haben Forscher Indizien dafür gefunden, dass Kontrollmechanismen bei zweisprachigen Menschen mit selektiver Aphasie stärker beeinträchtigt sind als bei Patienten mit paralleler Aphasie. Interessanterweise werden beim Wiedererlangen von Sprache nach einem Schlaganfall neuronale Verbindungen zwischen Sprache und Kontrollmechanismen wiederhergestellt. Auch wenn dieser interessante Befund für die Theorie eines Zusammenhangs zwischen selektiver Aphasie und Kontrollmechanismen spricht, ist dies jedoch nur eines von vielen Erklärungsmodellen. Derzeit arbeitet die Forschung daran, ein besseres Verständnis der verschiedenen Faktoren zu erlangen, die den ungewöhnlichen Heilungsverläufen von mehrsprachiger Aphasie nach Schlaganfällen noch zugrunde liegen könnten.

Diana Dimitrova and Annika Hulten

Übersetzt von Franziska Hartung & Louise Schubotz

Fabbro, F. (2001). The bilingual brain: Bilingual aphasia. Brain and Language, 79(2), 201-210. pdf

Green, D. W., & Abutalebi, J. (2008). Understanding the link between bilingual aphasia and language control. Journal of Neurolinguistics, 21(6), 558-576.

Verreyt, N. (2013). The underlying mechanism of selective and differential recovery in bilingual aphasia. Department of Experimental psychology, Ghent, Belgium. pdf

Zeig oder verberg AntwortWie bilden wir Sprachlaute?
Link & Share

Die Mehrheit aller Laute wird mithilfe eines Luftstromes gebildet, der von unseren Lungen durch Mund oder Nase wandert. Während die Luft durch den Mundraum wandert, verändern wir unsere Stimmbänder sowie die Form unseres Mundes.

7.11 p b f v

Um Konsonanten zu bilden, wird im Mundraum entweder eine Verengung gebildet oder der Mund wird ganz verschlossen. Um z.B.  'p' zu sagen, schließen sich unsere  Lippen komplett. Um ein 't' zu auszusprechen, ist es die Zunge, die den Mundraum verschließt und somit den Luftraum kurz stoppt. Es kann bei der Konsonantbildung aber auch eine sehr kleine Lücke frei bleiben, durch die  Luft strömen und dabei ein zischendes Geräusch machen kann. Beim Äußern eines ‘f’ z.B. bilden Lippen und Zähne diese kleine Lücke. Beim ‘s’ hingegen entsteht diese zwischen Zunge und Gaumen.

7.11 s z m

Darüber hinaus unterscheiden sich Konsonanten je nachdem wie wir unsere Stimmbänder gebrauchen. Wenn sie dicht zusammen sind und Luft durchströmt, fangen sie an zu vibrieren und es entsteht ein Summen. Sind sie weiter auseinander, bleiben sie still und vibrieren nicht. Selber können Sie diesen Unterschied sehr deutlich merken, wenn Sie ihren Kehlkopf berühren, während Sie 'zzzzz' und 'sssss' sagen. Können Sie fühlen wie die Stimmbänder bei 'zzzzz' vibrieren (man sagt auch, sie sind stimmhaft) und wie die Stimmbänder bei 'sssss' nicht vibrieren (stimmlose Vibration)?

Wenn wir Vokale bilden, ändern wir die Form unseres Mundes indem wir Zunge, Lippen und Kiefer bewegen. Dadurch verformt sich der Mundraum immer wieder und funktioniert im Grunde wie verschiedene akustische Filter, die das Geräusch jeweils verändern. Um 'ie' zu sagen, ruht unsere Zunge zum Beispiel ganz weit vorne im Mund und unsere Lippen sind gespreizt. Im Vergleich dazu liegt unsere Zunge wenn wir 'ö' sagen eher hinten und die Lippen sind gerundet. Und um 'aaa' zu sagen bewegen wir die Zunge noch weiter nach unten, senken den Kiefer und öffnen die Lippen ganz weit.

Darüber hinaus können Laute auch noch anders gebildet werden. Wenn der Luftstrom z.B. durch die Nase wandert, entsteht ein sogenannter nasaler Ton (das wäre dann ein 'm'). In einigen afrikanischen Sprachen bildet die Zunge sogar ein kleines Vakuum bevor sie sich mit einem knallenden Laut löst, wodurch sogenannte Klicklaute entstehen.

 Matthias Sjerps, Matthias Franken & Gwilym Lockwood
Aus dem Englischen übersetzt von Manu Schuetze & Katrin Bangel

Weiterlesen?

Hartwig Eckert & John Laver (1994). Menschen und ihre Stimmen. Weinheim: Beltz, ISBN 3-621-27203-8.

Jörg Meibauer u. a.(2002). Einführung in die germanistische Linguistik. Stuttgar: Metzler Verlag. (link)

Ladefoged, P. (1996). Elements of acoustic phonetics (second ed.) (link)

Zeig oder verberg AntwortSprechen wir im Schlaf anders als tagsüber?
Link & Share

Wir tun viele Dinge im Schlaf. Wir bewegen uns, nuscheln, lachen und manchmal flüstern oder sprechen wir sogar. Das Sprechen im Schlaf (auch Somniloquie genannt) kann in jedem Alter und in allen Phasen des Schlafes auftauchen. Aber was ist der Unterschied zwischen dieser Art des Sprechens und normaler Alltagssprache ?

7.09 sleep

Image: Paul Sapiano

Sprechfehler machen wir sowohl im Schlaf als auch wenn wir wach sind. Im Schlaf kommen Fehler allerdings häufiger vor. So kommt es häufiger zu Wortfindungsstörungen oder Verwechslungen einzelner Buchstaben, z.B. Tartengor statt Gartentor. Darüber hinaus können wir uns im Schlaf durchaus so anhören, wie Menschen, die an einer Sprachstörung leiden (z.B. Aphasie durch Hirnschädigung). Manchmal ähnelt unsere Sprache im Schlaf sogar der von Schizophreniepatienten, weil unsere Äußerungen dann nicht direkt miteinander verbunden sind und dadurch ohne Sinn und zusammenhanglos erscheinen. Außerdem sprechen wir im Schlaf viel undeutlicher und es können beim Sprechen so genannte Neologismen entstehen, also frei erfundene Wörter.

Trotz dieser Unterschiede ist es allerdings bemerkenswert, wie ähnlich wir im Schlaf im Vergleich zu tagsüber sprechen. Beim Schlafen können durchaus vollständige Sätze gebildet werden, deren Satzstrukturen korrekt sind. Es tauchen immer wieder Anekdoten auf, in denen einige Menschen im Schlaf sogar wortgewandter und kreativer sind, als im wachen Zustand (z.B. wenn wir eine zweite Sprache sprechen).

Im Schlaf zu sprechen ist an sich keine psychische Störung, kann aber zusammen mit anderen Schlafstörungen auftreten, z.B. beim Schlafwandeln (Somnambulismus). Außerdem sprechen Menschen nach einem traumatischen Ereignis, (z.B. Soldaten, die im Krieg gekämpft haben), im Schlaf generell mehr als Menschen, die noch nie ein traumatisches Erlebnis hatten. Neben diesen äußeren Faktoren, die das Sprechen im Schlaf beeinflussen können, wurden auch mögliche genetische Ursachen festgestellt. Die Chancen sind viel höher, irgendwann einmal im Schlaf zu sprechen, wenn auch die Eltern regelmäßig im Schlaf sprechen.

Im Endeffekt sprechen wir also im Schlaf nicht so viel anders, als man (anfangs) vielleicht vermuten würde. Der größte Unterschied lässt sich dahingehend zusammenfassen, dass man beim Schlafen weniger Kontrolle über das Gesagte hat, als wenn man wach ist. Oder wie es The Romantics bereits 1984 sangen: I hear the secrets that you keep; When you're talking in your sleep; and I know that I’m right, cause I hear it in the night. (Ich höre die Geheimnisse, die du verbirgst, wenn du im Schlaf redest, und ich weiß, ich habe recht, denn ich höre es in der Nacht.) Ob das allerdings wirklich stimmt, wurde noch nicht wissenschaftlich untersucht.

 David Peeters & Roel M. Willems
Aus dem Englischen übersetzt von Manu Schütze & Katrin Bangel

Weiterführende Literatur:

Parasomnien und Störungen des Schlaf- Wachrythmus (link)

Arkin, A. (1981). Sleep talking. Psychology and psychophysiology. Hillsdale, NJ: Lawrence Erlbaum Associates.

Zeig oder verberg AntwortBenutzen Menschen, die mehrsprachig aufwachsen mehr Hirnregionen zur Verarbeitugn von Sprache? Und werden speziell fuer Sprachen mit unterschiedlicher Struktur vom Gehirn mehr Ressourcen genutzt?
Link & Share

Menschen, die mit mehr als einer Sprache aufwachsen, werden zweisprachig oder bilingual genannt. Das Erlernen der verschiedenen Sprachen kann jedoch sehr unterschiedlich sein und geschieht nicht immer simultan. Unabhängig davon, ob beide Sprachen gleichzeitig oder nacheinander gelernt werden, ist es möglich dass man beide Sprachen gleich gut beherrscht. Für das Gehirn spielt es eine wesentlich größere Rolle, wie fließend man eine Sprache spricht als wie oder zu welchem Zeitpunkt die Sprache erlernt wurde. Vor kurzem konnte gezeigt werden, dass die gleichen Hirnregionen verwendet werden, wenn eine Person verschiedene Sprachen gleich gut spricht. Auch die Art der Aktivierungsmuster im Gehirn ist gleich wenn unterschiedliche Sprachen benutzt werden, vorausgesetzt beide Sprachen werden gleich gut beherrscht.

bilingual sign

 

Häufig jedoch sind Bilinguale unterschiedlich gut in beiden Sprachen. In neuro-kognitiven Experimenten wird getestet, wie sich die Hirnaktivität verändert, wenn eine bilinguale Person unterschiedliche Sprachen benutzt. Wenn die Sprachfertigkeit in beiden Sprachen verschieden ist, ist hierbei zu sehen, dass zwar typischerweise beide Sprachen die gleichen Regionen aktivieren. Das allgemeine Aktivierungslevel in der später erlernten Sprache ist in diesem Fall jedoch höher. Die Sprache, in der man weniger gut ist, kann außerdem noch weitere Areale in Anspruch nehmen, welche eigentlich nicht direkt an Sprachverarbeitung gekoppelt sind, sondern mit kognitiver Steuerung und Aufmerksamkeit zu tun haben. Das bedeutet: Je schwieriger ein Prozess ist, desto mehr Hirnresourcen werden zur Verarbeitung benötigt.

Oft wird uns die Frage gestellt, ob Sprachen mit unterschiedlicher Struktur auch unterschiedlich verarbeitet werden, wenn diese von derselben (bilingualen) Person gesprochen werden. Sprachen unterscheiden sich nämlich sehr stark darin, auszudrücken, wer was mit wem gemacht hat: Im Niederländischen und Englischen zum Beispiel, wird viel über die Wortstellung ausgedrückt. Andere Sprachen, wie Japanisch oder Koreanisch gebrauchen kurze Wörter ohne Bedeutung um diese Beziehungen auszudruecken (s. g. Kasuspartikel). Wenn beide Sprachen einer bilingualen Person zu unterschiedlichen Sprachfamilien gehören (wie z. B. Englisch und Japanisch), ist es durchaus denkbar, dass beide Sprachen unterschiedlich verarbeitet werden auch wenn der Sprecher beide Sprachen gleich gut beherrscht. Im Moment gibt es noch sehr wenige Studien zu diesem Thema. Eine Studie jedoch möchten wir hier gern vorstellen: In einem Experiment wurden Muttersprachler des Chinesichen sowie Muttersprachler der Koreanischen getestet, die sowohl Japanisch als auch Englisch als Zweitsprache sprechen. Es zeigte sich, dass Hirnaktivität während des Hörens von Zweitsprachen davon abhängt wie ähnlich die Grammatik der Zweitsprache der Grammatik der Muttersprache ist. Die Verarbeitung von Englisch als Zweitsprache zeigte bei den Koreanisch Sprechern eine höhere Aktivität im Sprachsystem im Vergleich zu den Chinesisch Sprechern. Das wird darauf zurückgeführt, dass Englisch und Koreanisch sich als Sprachen stärker unterscheiden als Englisch und Chinesisch. Andererseits sind bei der Verwendung von Japanisch als Zweitsprachen bei den Chinesisch Sprechern einige Hirnregionen aktiver, als bei den Koreanisch Sprechern. Wiederum wird angenommen, dass die Grammatik des Chinesischen sich stärker als Koreanisch vom Japanischen unterscheidet.

Die Hirnaktivität bei der Verarbeitung sprachlicher Information ist also nicht nur von der Sprachfertigkeit und dem Alter des Erlernens, sondern auch von den Unterschieden und Gemeinsamkeiten der Grammatik beider Sprachen abhängig. Scheinbar dauert eine Automatisierung des Sprachgebrauches im Gehirn manchmal länger, als aufgrund von Verhalten abzuschätzen ist; d.h. Menschen sprechen viel schneller eine Sprache fließend, als dass dies auch tatsächlich neuronal verankert ist. Das gilt besonders dann, wenn die Zweitsprache strukturell stark von der Muttersprache abweicht. Noch bleibt dies eine offene Frage, die es zu erforschen gilt. Das einzige, was wir sicher sagen können ist, dass egal welche Sprache gesprochen wird, die gleichen Gehirnregionen beansprucht werden.

Annika Hulten & Diana Dimitrova
Aus dem Englischen übersetzt von Franziska Hartung und Katrin Bangel

Weiterlesen?

Abutalebi, J. (2008). Neural aspects of second language representation and language control. Acta Psychologica,128, 466-478.

Kotz, S. A. (2009). A critical review of ERP and fMRI evidence on L2 syntactic processing. Brain Language, 109, 68-74.

Jeong, H., Sugiura, M., Sassa, Y., Yokoyama, S., Horie, K., Sato, S., & Kawashima, R. (2007). Cross-linguistic influence on brain activation during second language processing: An fMRI study. Bilingualism Language and Cognition10(2), 175.

About MPI

This is the MPI

The Max Planck Institute for Psycholinguistics is an institute of the German Max Planck Society. Our mission is to undertake basic research into the psychological,social and biological foundations of language. The goal is to understand how our minds and brains process language, how language interacts with other aspects of mind, and how we can learn languages of quite different types.

The institute is situated on the campus of the Radboud University. We participate in the Donders Institute for Brain, Cognition and Behaviour, and have particularly close ties to that institute's Centre for Cognitive Neuroimaging. We also participate in the Centre for Language Studies. A joint graduate school, the IMPRS in Language Sciences, links the Donders Institute, the CLS and the MPI.

 

Schicken Sie eine Frage an die Forscher vom MPI:

Outlined font 1,5 pt wide cirkle 3 pt.


Dieses Projekt wurde von Katrien Segaert, Katerina Kucera und Judith Holler ins Leben gerufen.

Im Moment wird dieses Projekt koordiniert von:
Katerina Kucera
Sean Roberts
Agnieszka Konopka
Gwilym Lockwood
Connie de Vos

Ehemalige Mitglieder:
Joost Rommers
Mark Dingemanse