Hörwahrnehmung
Hörwahrnehmungsentwicklung
Die Hörwahrnehmung hängt von drei Dingen ab: der angemessenen Umwandlung von Schallwellen in elektrische Signale, dem Herausfiltern von Hintergrundgeräuschen und der Rekonstruktion komplexer Klangmuster in erkennbare Bytes. Kleine Änderungen des Luftdrucks bewegen das Trommelfell und den daran befestigten Hammer, wodurch sich Steigbügel und Amboss verschieben. Die Bewegung des Ambosses gegen das ovale Fenster der Cochlea beeinflusst die Flüssigkeit in der Scala vestibuli und indirekt auch die Scala tympani und die Scala media (Abb. 10.3). Diese Veränderungen beeinträchtigen die Basilarmembran der Cochlea (Hudspeth 2000). Eine knöcherne oder bindegewebige Störung im äußeren Gehörgang oder Mittelohr behindert diesen Prozess und führt zu Schallleitungsschwerhörigkeit. Die Basilarmembran ist eine kleine Bindegewebsstruktur, die auf einer Länge von 33 mm in Breite und Dicke variiert. Aus diesem Grund sind verschiedene Bereiche je nach Frequenz, Amplitude und Intensität der Flüssigkeitswelle unterschiedlich betroffen (Hudspeth 2000). Je nachdem, wie sich die Basilarmembran bewegt, werden die Haarzellen in eine erregende, hemmende oder neutrale Position gebracht. Durch die Wirkung der Haarzelle wird der mechanische Reiz der Welle in ein elektrisches Signal umgewandelt. Dieses Signal wird über den Cochlea-Nerv zum Cochlea-Nucleus und in die zentralen Hörbahnen zur Hirnrinde geleitet. Auf diesem Weg werden die Signale verarbeitet und analysiert (Hudspeth 2000). Der Prozess, durch den diese elektrischen Signale in den symbolischen Kontext der Sprache oder umgekehrt übersetzt werden, betrifft viele Bereiche des Kortex und ist unklar und würde den Rahmen dieses Kapitels sprengen. Es ist jedoch wichtig zu erkennen, dass an der Verarbeitung von Sprache viele verschiedene Bereiche des Kortex beteiligt sind, darunter auch Bereiche, die sich mit der Integration visueller oder somatosensorischer Informationen befassen (Dronkers et al. 2000). Folglich können Anomalien in der Sprachverarbeitung, wie z.B. Legasthenie, aus Störungen in der Integration visueller oder somatosensorischer Informationen oder aus verzerrtem Input resultieren.
Bei der Geburt ist das auditorische System funktionsfähig; die Großhirnrinde hat jedoch noch keinen ausreichenden Reifegrad erreicht, um auditive sensorische Informationen für die Wahrnehmung zu verarbeiten. Sprache ist das Symbolsystem für den Austausch und die Speicherung von Informationen. Die Entwicklung der Sprache ist abhängig von: afferentem neuronalen Input (Hören, Sehen), intakter ZNS-Funktion und neuronalem Output zu funktionalen vokalen Strukturen (Coplan & Gleason 1990). Das normale Hörvermögen liegt im Bereich von 250-16000 Hz (Zyklen pro Sekunde) oder einer Amplitude von 0-120 dB HL (Dezibel-Hörpegel).
Eine Überprüfung der Literatur zeigt, dass zwischen 4 % und 20 % der Kinder im Schulalter einen Hörverlust haben. Die Schwerhörigkeit kann ein- oder beidseitig, leitend oder sensorineural sein. Schallleitungsschwerhörigkeit resultiert aus einer Fehlfunktion oder Störung der Schallübertragung zur Cochlea, zum Vestibulum und zu den Bogengängen. Die Luftleitung ist in der Regel gestört. Zu den häufigsten Ursachen gehören eine Atresie des Gehörgangs, eine Ossikularfehlbildung, eine Trommelfellanomalie sowie eine Blockade des Gehörgangs durch einen Fremdkörper, eine Cerumen-Impaktion oder einen Erguss im Mittelohr. Die Schallleitungsschwerhörigkeit betrifft alle Frequenzen, die knöcherne Schallleitung bleibt jedoch in der Regel erhalten. Eine Schallempfindungsschwerhörigkeit tritt auf, wenn eine Funktionsstörung oder Beeinträchtigung der Haarzellen der Cochlea oder des Hörnervs die über Luft- und Knochenleitung empfangenen Reize beeinträchtigt. Das Hören niedrigerer Frequenzen kann weniger beeinträchtigt sein; man muss jedoch bedenken, dass Sprache in höheren Frequenzen stattfindet. Häufige Ursachen für Schallempfindungsschwerhörigkeit sind Hypoxie, intrakranielle Blutungen, Meningitis, Hyperbilirubinämie, Masern, Mumps und seltener Windpocken.
Maskierung ist der Prozess, bei dem das Gehirn Hintergrundgeräusche aufgrund von Phasenunterschieden herausfiltert. Die Schallwellen erreichen die Ohren zu leicht unterschiedlichen Zeiten. Dieser Unterschied wird vom Gehirn genutzt, um unerwünschte Geräusche auszusortieren. Das binaurale Hören ist für die Maskierung erforderlich. Kinder mit einseitiger Taubheit haben möglicherweise Schwierigkeiten, ein Geräusch wie die Stimme des Lehrers in einer lauten Umgebung wie dem Klassenzimmer der ersten Klasse zu isolieren. Dies gilt insbesondere dann, wenn die Hintergrundgeräusche in denselben Frequenzen liegen wie die Geräusche, auf die das Kind zu hören versucht. Eine partielle Schwerhörigkeit betrifft Zischlaute mit hoher Frequenz und niedriger Amplitude, wie /s/, /sh/, /f/, /th/, während niedrigere Frequenzen wie /r/, /m/, /v/ nicht betroffen sind. Bei Kindern mit partiellem Hörverlust wird die Diagnose möglicherweise erst gestellt, wenn sie in die Schule kommen und eine offensichtliche Lernbehinderung aufweisen.
Otitis media mit Erguss (OME) führt in akuten Fällen in der Regel zu einem Hörverlust von 10-50 dB; chronische Otitis media führt zu einem Hörverlust von 50-65 dB, der die meisten Sprachlaute einschließt. Dieser Hörverlust ist in der Regel vorübergehend. Im ersten Lebensjahr weisen Kinder mit 130 Tagen OME jedoch eine um eine Standardabweichung niedrigere Punktzahl bei den Sprachfähigkeiten auf als Kinder mit weniger als 30 Tagen OME.
Sprachstörungen stellen eine Störung kortikaler Prozesse dar, die speziell mit rezeptiven und expressiven Funktionen zu tun haben. Eine Sprachstörung kann phonetischer Natur sein, wie z. B. eine abweichende Lautproduktion, weil die Interpretation von Lauten gestört ist und die Kinder so sprechen, wie es für sie klingt. Eine andere Sprachstörung betrifft die Syntax, d. h. die Wortstellung und Grammatik. Die Interpretation von Wortbedeutungen und Wortbeziehungen stellt eine Störung der Semantik dar, während Störungen der Pragmatik die soziale Angemessenheit der Sprache betreffen. Sprachstörungen können eines oder mehrere dieser Merkmale als expressive oder rezeptive Funktion betreffen. Je nach Art der Störung kann die Gebärdensprache als Behandlungs- und Diagnosemodalität von Nutzen sein. Oft wird davon ausgegangen, dass Sprachstörungen auf ein Problem mit dem Gehör zurückzuführen sind. Doch wie wir gesehen haben, sind mehrere Sinnessysteme an der kognitiven Entwicklung beteiligt. Denken Sie an das Beispiel des Kindes, das aufgrund einer motorischen Störung nicht in der Lage ist, zwischen den Buchstaben „d“, „b“ und „p“ zu unterscheiden. Was wird geschehen, wenn man diesem Kind den Buchstaben „d“ zeigt und ihm den Klang „dah“ sagt, dann den Buchstaben „b“ und ihm den Klang „bah“ sagt und so weiter? Wie wird das Kind die Beziehungen zwischen diesen Buchstaben und ihren Lauten erkennen, wenn es nicht in der Lage ist, das Symbol für den Laut zu erkennen?
Sprachmuster basieren auf dem Redefluss, der Geschwindigkeit und dem Rhythmus des Redeflusses. Sehr junge Kinder beginnen mit dem frühen Lallen, die Sprachmuster ihrer Muttersprache zu imitieren. Störungen des Redeflusses (Dysfluency) treten auf, wenn die Geschwindigkeit oder der Rhythmus des Redeflusses beeinträchtigt ist. Die physiologische Redeflussstörung erreicht ihren Höhepunkt im Alter von 2 bis 4 Jahren und bildet sich dann zurück. Sie äußert sich in der Regel in Form von Wiederholungen von Sätzen oder ganzen Wörtern, wie z. B. „kann ich – kann ich“ oder „kann – kann“. Eine abnormalere Form der Dysfluency kann auch als Teilwort- oder Wortanfangslaut auftreten; Wwwwwwwwwhy? oder wuh-wuh-wuh why? Alfred Tomatis berichtete, dass das Stottern in der Regel mit der Länge der längsten Silbe der gesprochenen Sprache zusammenhängt. Das heißt, die Dauer des Lautes, bei dem das Kind stottert, entspricht der Länge der längsten Silbe. Tomatis vermutete, dass das Kind in irgendeiner Weise verzögert verarbeitet, was es selbst sprechen hört, und schlug „eine abnorme zerebrale Repräsentation von Sprache und/oder eine allgemeine Abnormität der interhemisphärischen Kommunikation als Grundlage für das Stottern“ vor (Tomatis 1991). Er berichtete, dass das Kind durch die Verwendung von Kopfhörern, die die Länge des stotternden Lautes verändern, zu einem gleichmäßigen, ununterbrochenen Sprachmuster zurückkehren würde. Osteopathen haben anekdotisch einen Zusammenhang zwischen einem leichten Kopftrauma und der Entwicklung von Stottern festgestellt (Überprüfung von Krankenakten und Befragung von Praktikern). Die Frage, ob Stottern eine Sprachstörung oder eine Stimmstörung ist, ist interessant. Stimmstörungen sind keine Sprach- oder Wahrnehmungsstörungen, sondern stellen eine Störung der mechanischen Komponente der Sprache dar.
Rezeptive Sprachfähigkeiten gehen den expressiven Fähigkeiten voraus. Schon sehr früh im Leben können Kinder rezeptive Sprachfähigkeiten zeigen. Dies kann sich darin äußern, dass sie nach ihrer Flasche suchen, wenn ein Elternteil verbal anzeigt, dass es Zeit zum Füttern ist, oder dass sie das Haustier der Familie ansehen, wenn dessen Name genannt wird. Die meisten Kinder können bereits vor dem 10. Lebensmonat auf einen Gegenstand zeigen, obwohl sie ihn oft erst nach dem ersten Lebensjahr benennen können. Kinder reagieren auf das Wort „Nein“, bevor sie es aussprechen können (oft geht diese Fähigkeit im Alter von 2 bis 18 Jahren auf unerklärliche Weise verloren, aber das ist eine andere Geschichte). Das Lallen von Säuglingen enthält oft die Flexionen der Sprache, mit der sie in Berührung kommen, und stellt wahrscheinlich die ersten Versuche der Nachahmung dar. Tomatis (1991) berichtet, dass das Brabbeln von Säuglingen tendenziell auch in den Frequenzbereich der Muttersprache fällt. Kinder, die in mehrsprachigen Elternhäusern aufwachsen, sind häufig in ihren expressiven Sprachfähigkeiten leicht verzögert, obwohl die rezeptiven Fähigkeiten dem Alter entsprechend sind. Wie zu erwarten, scheinen diese Kinder, sobald sich die Sprache entwickelt hat, neue Sprachen sehr gut zu erlernen. Im Allgemeinen scheinen sie Sprachen mit einem Frequenzbereich, der in den Bereich der Muttersprache fällt, besser zu beherrschen.
Vieles von dem, was über Sprache bekannt ist, wurde durch die Untersuchung von Menschen mit Sprachstörungen infolge von Kortikalschädigungen gelernt. Unser Verständnis der Prozesse, die zur Bildung, zum Verständnis und zum Ausdruck von Sprache beitragen, ist noch vage. Als Funktionslokalisierung bezeichnet man den Zustand, in dem ein bestimmter Bereich des Gehirns an einem bestimmten Prozess beteiligt ist. So sind zum Beispiel beim Sehen eines Wortes, beim Hören eines Wortes, beim Denken an ein Wort und beim Sprechen eines Wortes unterschiedliche Hirnareale beteiligt (Kandel et al. 2000). Darüber hinaus sind die kognitiven Prozesse, die an jeder dieser Aufgaben beteiligt sind, an anderen Stellen angesiedelt als die sensorischen Bereiche, die an der Sprache beteiligt sind. So findet beispielsweise das Verstehen des geschriebenen Wortes c-a-t nicht im visuellen Kortex statt, aber der visuelle Kortex wird benötigt, um das Wort zu sehen. Sprache ist eine symbolische Darstellung eines Konzepts – eine Katze, eine Umarmung, schlafen. All dies sind Konzepte, und Sprache ist das Mittel, mit dem sie kommuniziert werden. Ob gesprochen, geschrieben, gezeichnet oder unterschrieben, die Botschaft symbolisiert eine Idee. Wir können unsere Ideen in jede dieser Sprachformen übersetzen, und wir können jede dieser Formen in eine Idee interpretieren. Jede dieser Aufgaben findet jedoch in einem anderen Bereich des Gehirns statt. Bereiche des Assoziationskortex im Frontal-, Parietal-, Temporal- und Okzipitallappen der dominanten Hemisphäre sind an der Sprachfunktion beteiligt (Dronkers et al. 2000). Bei den meisten Menschen ist die dominante Hemisphäre die linke. Die rechte oder nicht-dominante Hemisphäre ist mit dem Tonfall, dem Timing und dem Rhythmus der expressiven Sprache befasst, die als emotionaler Kontext betrachtet werden kann.