Читать книгу: «Allgemeine Psychologie», страница 5

Шрифт:

Die cerebrale Achromatopsie tritt häufig zusammen mit einer Störung der Gesichtererkennung und Identifikation auf. In einer Studie von Meadows (1974) wurde in 12 von 14 Achromatopsie-Patienten eine solche Prosopagnosie (Kap. 1.2) festgestellt. Weiterhin findet man bei Achromatopsie häufig auch Skotome der oberen Gesichtsfeldhälfte, während in keinem Fall Ausfälle im Bereich der unteren Gesichtsfeldhälfte beobachtet wurden. Diese Konkordanz ist durch die anatomische Läsionslokalisation bestimmt. Achromatopsie wird bei einer Läsion des ventromedialen Occipitalcortex im Bereich des Gyrus lingualis und Gyrus fusiformis beobachtet, in denen auch die Areale V4 und FFA liegen (s. Abb. 1.2.6). Wenn die Läsion bis in den ventralen Teil von V1 reicht, treten Gesichtsfeldausfälle in der oberen Gesichtsfeldhälfte auf (s. Abb. 1.3.2).

Fragen zu Kapitel 1.4


Überprüfen Sie Ihr Wissen!

31. Was sind die drei Kenngrößen einer Farbe?

32. Welche Wellenlängen umfasst der Bereich des sichtbaren Lichtes? Welchen Farbeindruck ruft langwelliges und kurzwelliges Licht innerhalb dieses Spektrums hervor?

33. Welche Arten von Zapfenrezeptoren gibt es, wie unterscheiden sich ihre Absorptionsmaxima?

34. Wie sind die Zapfen miteinander verschaltet? Was ist das Ergebnis dieser Verschaltung?

35. Was ist Farbkonstanz? Welche Mechanismen tragen zu ihr bei?

36. Was ist chromatische Adaptation?

37. Welche Argumente sprechen für bzw. gegen ein spezialisiertes Farbzentrum im Areal V4?

38. Was ist cerebrale Achromatopsie? Wie wirkt sie sich aus? Welche andere Wahrnehmungsstörung tritt häufig zusammen mit ihr auf?

39. Was ist ein Mondrian-Reiz?

40. Erklären Sie das Problem der Trennung von Illumination und Reflexion.

1.5Hören


Im 17. Jahrhundert platzierte der irische Physiker und Chemiker Robert Boyle eine Glocke unter eine Glaskuppel und stellte ein Vakuum unter der Kuppel her. Als die Glocke anschlug, konnte er ihren Klang nicht hören. Sobald er wieder Luft unter die Kuppel ließ, hörte er die Glocke wieder.

Dies war der Nachweis, dass sich Schall, anders als Licht, als mechanische Bewegung in einem Medium – i. d. R., aber nicht notwendigerweise Luft – fortpflanzt. Daraus ergeben sich einige Unterschiede zwischen dem Sehen und dem Hören. Während die Lokalisation eines Lichtreizes aus der Geometrie des Strahlengangs leicht errechnet werden kann, so ist dies beim Schall komplizierter. Andererseits hören wir auch Ereignisse, die sich hinter unserem Rücken abspielen, während wir beim Sehen auf das Gesichtsfeld eingeschränkt sind. Wie das Sehen, so ist auch das Hören ein Fernsinn – abhängig von der Lautheit des Schallereignisses können wir dieses über weite Entfernungen wahrnehmen. Hören ist von besonderer Bedeutung für die Kommunikation. Angeborene Taubheit führte in früheren Zeiten dazu, dass keine Sprache erlernt wurde. Heute bieten sich Zeichensprachen an, die über ähnliche grammatische Strukturen wie natürliche Sprachen verfügen. Hören erlaubt uns auch die Wahrnehmung (und aktive Ausübung) von Musik.


Schall

Schall entsteht durch die Kompression eines Mediums. Besonders bei größeren Basslautsprechern kann man gut beobachten, wie sich die Lautsprechermembran im Rhythmus eines Musikstückes vor- und zurückbewegt und dabei die Luft komprimiert und wieder dekomprimiert. Die Druckwellen bewegen sich kreisförmig von der Lautsprechermembran fort, indem sich benachbarte Moleküle anstoßen, ähnlich wie sich nach einem Steinwurf in einen Teich Wellen ausbreiten.

1.5.1Schallumwandlung im Ohr

Schwingungsausbreitung

Wenn die Schallwellen auf eine Ohrmuschel treffen, so werden sie von dieser ähnlich wie ein Trichter aufgefangen und in den Gehörgang geleitet (Abb. 1.5.1). Am Ende des Gehörgangs führen die Schallwellen zu einer Auslenkung des Trommelfells, das das äußere Ohr zum Mittelohr hin verschließt. Die Auslenkung des Trommelfells wird über eine Kette von drei miteinander verbundenen Gehörknöcheln – Hammer, Amboss und Steigbügel – auf das ovale Fenster übertragen, das die Grenze zum Innenohr darstellt.


Abb. 1.5.1: Aufbau des Ohres. a) Übersicht, b) Schnitt durch die Cochlea, c) Anordnung der Haarzellen in der Scala media, d) Schwingungsausbreitung entlang der Basilarmembran

Cochlea

Im Innenohr befindet sich die Schnecke (Cochlea; Abb. 1.5.1b), eine flüssigkeitsgefüllte, wie eine Schnecke aufgerollte Struktur, die aus drei Gangsystemen (Scala, lat. für Treppe) besteht. Diese sind mit Lymphflüssigkeit gefüllt und erstrecken sich bis zur Spitze (Apex) der Cochlea. Die Auslenkung des ovalen Fensters setzt nun eine Bewegung der Perilymphe in der Scala vestibuli in Gang, die sich bis zum Apex ausbreitet und sich dann in der Scala tympani wieder in Gegenrichtung bis zum runden Fenster fortpflanzt. Scala vestibuli und Scala tympani umgeben die mit Endolymphe gefüllte Scala media, von der sie durch die Reissner’sche Membran und die Basilarmembran getrennt sind. Auf der Basilarmembran befindet sich das Corti’sche Organ, in dem sich die Haarzellen, die Sinneszellen des Ohres, befinden.

passive Tonotopie

Das Schwingungsverhalten der Basilarmembran ändert sich auf dem Weg vom ovalen Fenster zum Apex. Nahe dem ovalen Fenster setzt sie auf einem Knochengrat an und ist zwischen diesem und der Außenwand des Schneckengangs straff gespannt. Zum Apex hin nimmt der Knochengrat ab, die Basilarmembran wird breiter, und die Spannung lässt nach. Dies hat zur Folge, dass Schallwellen von unterschiedlicher Frequenz die Basilarmembran an unterschiedlichen Stellen auslenken. Hohe Frequenzen führen zu Auslenkungen in der Nähe des ovalen Fensters, während tiefe Frequenzen die Basilarmembran in der Nähe des Apex auslenken. Der Ort der Auslenkung hängt in etwa logarithmisch von der jeweiligen Frequenz ab. Eine Verdoppelung der Frequenz verschiebt die Auslenkung in etwa 5 mm Richtung ovales Fenster. Auf diese Weise kann ein Frequenzbereich von 100 Hz bis 20 kHz entlang der Basilarmembran abgebildet werden, wobei noch tiefere Frequenzen den apexnahen Abschnitt der Basilarmembran undifferenziert in Schwingung versetzen.

Transduktion

Die mechanischen Schwingungen der Lymphflüssigkeiten werden durch die der Basilarmembran aufsitzenden Haarzellen in elektrische Impulse umgewandelt. Die Haarzellen sind in eine Reihe innerer (zur Drehachse der Cochlea; Abb. 1.5.1c) und mehrere Reihen äußerer Haarzellen angeordnet. Aus den Haarzellen ragen oben feine Härchen, die Stereozilien, heraus. Über den Stereozilien befindet sich eine weitere gallertige Membran, die Tektorialmembran (Dachmembran). Wenn die Perilymphe nun in Bewegung gerät, werden Basilarmembran und Tektorialmembran gegeneinander verschoben, wie zwei Seiten eines Heftes. Dies führt zur Auslenkung der Stereozilien, die bei den äußeren Haarzellen fest mit der Tektorialmembran verbunden sind und bei den inneren Haarzellen durch die Trägheit der Endolymphe ausgelenkt werden.

Efferenzen und Afferenzen

Die inneren Haarzellen, obwohl zahlenmäßig in der Minderheit (3.000 innere gegenüber 13.000 äußeren Haarzellen) stellen etwa 95 % der Hörnervenfasern. Das liegt daran, dass von den inneren Haarzellen mehrere Fasern abgehen (Divergenz), während umgekehrt mehrere äußere Haarzellen auf eine Hörnervenfaser konvergieren. Die äußeren Haarzellen unterscheiden sich weiterhin dadurch, dass sie sich aktiv zusammenziehen können, was eine schwingungsverstärkende Funktion bei leisen Schallreizen hat. Sie sind weiterhin efferent verschaltet, d. h. sie erhalten Nervenimpulse von zentralen Kernen der Hörbahn (siehe Abb. 1.5.3), entgegen dem afferenten Signalfluss von der Cochlea zum Gehirn. Man nimmt an, dass durch die efferente Verschaltung die Empfindlichkeit der Cochlea beeinflusst werden kann. Das Innenohr ist zu erstaunlichen Leistungen in der Lage: So beträgt die Auslenkung der Basilarmembran durch Reize an der Hörschwelle nur 0,1 nm, was ungefähr einem Atomdurchmesser entspricht.


Abb. 1.5.3: Die Hörbahn

1.5.2Lautheit


Wie laut ein Schallereignis empfunden wird, hängt stark, aber nicht eindeutig von der physikalischen Größe der Schallintensität ab. Insofern Lautheit eine subjektive Empfindung ist, muss diese auch als solche gemessen werden. Es reicht nicht, nur die physikalische Stärke der Schallintensität zu messen. Man spricht von einer psychophysischen Messung. In einem zweiten Schritt kann man dann fragen, inwiefern die subjektiv empfundene Lautheit mit physikalischen Aspekten des Schalls zusammenhängt.

Der Schalldruck ist definiert als der Wechsel zwischen hohem und niedrigem Druck (s. o.), der bei einer Schallwelle an einem definierten Ort in Pascal (Pa) gemessen wird. Die Bandbreite der Schalleindrücke, die vom Ohr noch als physiologisch adäquate Reize wahrgenommmen werden können (bevor es zu einer Schädigung kommt) ist sehr groß. Daher wird der Schalldruck häufig als Pegelwert angegeben, der als Verhältnis zum Schalldruck bei einem typischen Wert der Hörschwelle für Töne von 1 kHz angegeben wird (s. Tab. 1.5.1).

Tab. 1.5.1: Schalldruck, Schalldruckpegel und Lautheit (Sone) im Vergleich (adaptiert aus Wikipedia, 3.1.08)


Schalldruckpegel

Der Schalldruckpegel wird in Dezibel (dB) angegeben. Eine Zunahme des Schalldruckpegels um 20dB entspricht einer Verzehnfachung des Schalldrucks. Bei einem Referenzwert von 10-5 Pa spricht man von dB (SPL) (sound pressure level).

Isophone

Subjektive Lautheit hängt neben dem Schalldruck auch von der Frequenz ab. Über die größte Empfindlichkeit verfügen wir für Frequenzen um 3.000 Hz, dort liegt die Hörschwelle etwa bei –4 dB (SPL), also unter der Hörschwelle für 2.000 Hz, die ja 0 db (SPL) entspricht. Töne höherer oder niedrigerer Frequenzen als 3.000 Hz müssen jeweils mit höheren Schalldrücken dargeboten werden, um den gleichen Lautheitseindruck hervorzurufen. Wenn man einen 1.000-Hz-Ton mit einem Referenzschalldruck auswählt und den Schalldruck eines Vergleichstons einer anderen Frequenz so einstellt, dass beide als gleich laut empfunden werden, erhält man Kurven gleicher Lautheit oder Isophone. Die jeweilige Lautheit wird in Phon angegeben. Abbildung 1.5.2 zeigt, dass die Lautheit insbesondere bei leisen Tönen stark von der Frequenz abhängt (die Isophone steigen zu den Rändern stark an), während diese Unterschiede mit zunehmenden Schalldrücken abnehmen. Mit der loudness-Funktion wird dem bei HiFi-Geräten entgegengewirkt, indem Bässe und Höhen selektiv verstärkt werden.


Abb. 1.5.2: Isophone

Sone-Skala

Während die Phon-Skala die Lautheit über Töne verschiedener Frequenzen vergleichbar macht, so kann man sich auch fragen, inwieweit sich die Lautheit verändert, wenn der Schalldruckpegel des gleichen Tons verändert wird. Zur Einschätzung dieser Verhältnisse wurde von S. S. Stevens die Sone-Skala entwickelt. Er ließ seine Probanden die Lautheit von Tönen unterschiedlicher Schalldruckpegel, aber gleicher Frequenz einschätzen. Dazu wurde dem Referenzton der Wert 10 zugeordnet, einem doppelt so lauten Ton sollte der Wert 20, einem halb so lauten Ton der Wert 5 zugeordnet werden usw. Nach den Ergebnissen dieser Untersuchungen konnte der Zusammenhang zwischen Schalldruckpegel und Lautheit mit folgender Funktion beschrieben werden: S = kIb, wobei S die sensorische Empfindung und I die physikalische Reizintensität ist. Diese Formel hat, mit unterschiedlichen Konstanten k und Exponenten b, Gültigkeit für verschiedene Reizdimensionen wie Helligkeit und Schmerzempfindung. Für die Lautheit beträgt der Exponent b = 0,6. Der Exponent b < 1 bedeutet, dass eine Verdoppelung des Schalldrucks zu weniger als einer Verdoppelung der empfundenen Lautstärke führt. Eine Einheit von einem Sone entspricht der Lautheit eines 1.000-Hz-Tons von 40 dB (SPL), entsprechend 40 Phon.

Immissionsmessung

Die Messung der subjektiven Lautheit kommt insbesondere bei der Beurteilung von Lärmimmissionen zum Tragen, weil hier die subjektive Belastung der betroffenen Personen im Vordergrund steht. Da jedoch nicht für jede denkbare Immission (Lärm einer bestimmten Straße, Fluglärm in einer bestimmten Siedlung etc.) psychoakustische Hörversuche durchgeführt werden können und auch aus rechtlichen Gründen ein einheitlicher Standard wünschenswert erscheint, wurden gefilterte Schalldruckpegelmessungen entwickelt. Sie tragen der Frequenzabhängigkeit der Lautheitsempfindung Rechnung, indem der mittlere Frequenzbereich, in dem unser Gehör besonders empfindlich ist, entsprechend stärker gewichtet wird. Der resultierende Filter entspricht in etwa einer umgekehrten Isophon-Kurve. Die so gewichteten Messwerte werden mit dB (A) gekennzeichnet. Es gibt auch noch ähnliche Filter (B, C und D), diese werden allerdings selten verwendet.

Lautheitskodierung

Die Lautstärke wird durch zwei verschiedene Mechanismen über die Aktionspotenziale der Haarzellen kodiert. Zunächst steigt die Frequenz der Aktionspotenziale (die Feuerrate) mit zunehmender Lautstärke. Ab einer Lautstärke von 80 dB (SPL) kann die Feuerrate nicht mehr gesteigert werden. Weiter ansteigende Lautstärke wird dann durch die Rekrutierung weiterer benachbarter Neurone, die dann auch feuern, kodiert.

Frequenzkodierung

Die Frequenz wird zum einen über den Ort entlang der Basilarmembran kodiert. Bei niedrigeren Frequenzen (bis zu 1,5 kHz) kann auch die Frequenz über direkte Ankopplung der Zelle an die Schwingungsperiode des Schalls kodiert werden. Für die Ankopplung an höhere Frequenzen sind die Membranpotenziale der Zellen jedoch zu träge. Die Frequenz wird über die gesamte Hörbahn bis zum auditiven Cortex weitergeleitet, der tonotop organisiert ist.

1.5.3Räumliches Hören

Der Hörnerv zieht von der Cochlea zum Nucleus cochlearis (Cochleariskern) und dann über die obere Olive (Oliva superior) zum seitlichen Schleifenkern (Ncl. lemnisci lateralis) und weiter über die unteren Vierhügel (Colliculi inferiores) und den medialen Kniehöcker (Corpus geniculatum mediale) zum primären auditiven Cortex (Abb. 1.5.3). Ab dem Kernkomplex der oberen Olive laufen die Signale aus dem linken und rechten Ohr zusammen. Diese binaurale Verarbeitung ist die Basis für die auditive Quellenlokalisation.

Schallquellen werden teils durch den Vergleich der Laufzeiten zum linken und rechten Ohr (interaural time difference, ITD), teils über den Vergleich der Lautstärken (interaural intensity difference, IID) ermittelt. Schallquellen in der linken Raumhälfte erreichen das linke Ohr etwas früher als das rechte Ohr. Gleichzeitig dämpft der Kopf etwas die Lautstärke, die über das rechte Ohr wahrgenommen wird (und umgekehrt für Schallquellen von rechts). Diese Verrechnungen werden maßgeblich in den Neuronen der oberen Olive vorgenommen. Die Detektion der Koinzidenz (Gleichzeitigkeit) der Eingänge vom linken und rechten Ohr gelingt aber nur für Frequenzen bis etwa 1.500 Hz, da bei noch höheren Frequenzen die Neurone den Schwingungen nicht mehr folgen können. In der oberen Olive ist so bereits eine Tonotopie zu erkennen, die sich über die Colliculi inferiores bis in den auditiven Cortex fortpflanzt.

Form der Ohrmuschel

Für die Lokalisation vor und hinter uns liegender Schallquellen ist die Form der Ohrmuschel von besonderer Bedeutung. Die Zeit und Amplitudendifferenzen sind für bei gleichem seitlichen Winkel vor und hinter uns oder oberhalb / unterhalb der Horizontalebene liegenden Schallquellen die gleichen (von kleineren Effekten der Kopfform abgesehen) und ergeben somit eine ambivalente Lokalisation. Dagegen erlaubt uns die unterschiedliche Filterfunktion der Ohrmuscheln für Schallquellen aus verschiedenen Richtungen eine bessere Unterscheidung zwischen vorn und hinten, oben und unten. Dazu muss das Gehirn allerdings die Information erhalten, wie die Filterfunktion der Ohrmuschel das Signal verändert hat. Hierbei helfen schon kleine Kopfbewegungen, die bei konstanter Schallquelle eine Berechnung der Filterfunktion der Ohrmuschel erlauben.

1.5.4Komplexe auditive Wahrnehmung

Tonhöhe

So wie Farbe an das Spektrum des Lichts gebunden ist, so hängt die Tonhöhe mit der Frequenz des Schalls zusammen – in manchen Situationen recht eng, in anderen weniger. Die Entsprechung von monochromatischem Licht (Licht einer Wellenlänge) ist beim Schall der Sinuston, der aus Schallwellen einer Wellenlänge besteht. Ähnlich wie beim monochromatischen Licht die Farbwahrnehmung primär von der Frequenz abhängt, so ist auch bei Sinustönen die Tonhöhenwahrnehmung recht eindeutig an die Frequenz gebunden, obwohl es leichte Unterschiede in der Tonhöhenwahrnehmung gibt, die durch unterschiedliche Lautstärke hervorgerufen werden können.

Wiederum ähnlich wie bei der Farbwahrnehmung sind Sinustöne recht artifizielle Reize, die in der Natur kaum vorkommen. Die unterschiedliche Klangfarbe desselben Tons, gespielt auf verschiedenen Musikinstrumenten, ergibt sich z. T. aus einem anderen Verhältnis von Grundfrequenz und Obertönen, deren Frequenzen ein Vielfaches der Grundfrequenz sind. Es kann sogar dazu kommen, dass die Obertöne unsere Wahrnehmung dazu veranlassen, eine Grundfrequenz zu hören, die physikalisch gar nicht vorhanden ist. Auf diese Weise ergänzen wir etwa Bässe, die von kleineren Lautsprechern (etwa am PC) gar nicht produziert werden können. Dabei ist der Höreindruck allerdings oft nicht so befriedigend wie bei physikalischer Präsenz der Bässe über entsprechende Lautsprecher. Um die Grundfrequenz zu ergänzen, muss das Gehirn analysieren, welche Obertöne zusammengehören. Hierzu ist sowohl die zeitliche Analyse über gemeinsamen Beginn und gleiche Dauer von Bedeutung als auch die gemeinsame Lokalisation im Raum.


Shepard-Illusion

Eine besonders eindrückliche Demonstration der Tatsache, dass Frequenz und Tonhöhe nicht immer gleichzusetzen sind, bietet die Shepard-Illusion der immer weiter ansteigenden Tonleiter. Dabei werden überlappende Tonleitern gespielt, wobei zwei gleichzeitige Töne jeweils eine Oktave auseinanderliegen. Der Eindruck der nie endenden Tonleiter wird dadurch hervorgerufen, dass die Lautheit der Töne so variiert wird, dass Beginn und Ende der Tonleitern sehr leise und die mittleren Töne lauter gespielt werden. Eine kontinuierliche Version der Shepard-Illusion ist das Risset-Glissando.

Klangfarbe

Die Klangfarbe eines Tones hängt neben dem Verhältnis der Obertöne auch ganz wesentlich vom zeitlichen Verlauf des akustischen Signals ab. So haben Musikinstrumente ganz unterschiedliche Ein- und Ausschwingzeiten, die ganz wesentlich zu ihrem charakteristischen Klang beitragen. Dies kann man sich bei digitalisierter Musik vor Augen führen, indem man aufgezeichnete Töne rückwärts abspielt, wobei meist die Erkennbarkeit des Instruments stark beeinträchtigt wird.

auditiver Cortex

Der auditive Cortex liegt am temporalen Ufer der Sylvischen Fissur (oder Fissura lateralis). Er gliedert sich in einen Kernbereich (core) in dem die Hörbahn auf die ersten corticalen Neurone umgeschaltet wird, und zwei Gürtelbereiche (belt, parabelt). Der Kernbereich stellt den primären auditiven Cortex dar, während die belt-Neurone ihren Eingang von Neuronen des Kernbereichs erhalten (sekundärer auditiver Cortex) und die parabelt-Neurone (tertiärer auditiver Cortex) wiederum von Neuronen des belt.

Modulation des auditiven Cortex

Ähnlich wie im visuellen System, so bilden die Neurone in den anatomisch frühen auditiven Cortices nicht nur die physikalischen Charakteristika der akustischen Reize ab, sondern reflektieren Aspekte der subjektiven Wahrnehmung. Um zu entscheiden, ob neuronale Reaktionsmuster physikalische Reizcharakteristika oder subjektive Wahrnehmungsmuster widerspiegeln, sucht man Situationen, in denen beide auseinanderfallen. Das ist u. a. beim dichotischen Hörtest der Fall, bei dem per Kopfhörer dem linken und rechten Ohr gleichzeitig unterschiedliche, aber sehr ähnliche Reize präsentiert werden (s. Kasten „Dichotisches Hören“). Probanden, die einen Zielreiz detektieren sollen, machen im dichotischen Hörtest recht viele Fehler.


Wir haben in einer ereigniskorrelierten fMRT-Studie untersucht, inwieweit Schwankungen der Aktivierungsstärke früher auditiver Areale mit der realen Präsentation von Zielreizen oder der subjektiv empfundenen Präsenz derselben Zielreize einhergingen (Pollmann / Maertens 2006). Das Ergebnis der Studie war, dass das fMRT-Signal generell erhöht war, wenn die Probanden angaben, den Zielreiz gehört zu haben, unabhängig davon, ob er tatsächlich präsentiert wurde oder nicht. Ein weiteres Beispiel: Wenn ein Ton von einem lauten Geräusch unterbrochen und anschließend fortgesetzt wird, so ergibt sich der (fälschliche) Höreindruck, als ob der Ton kontinuierlich präsent war und von dem Geräusch nur überdeckt wurde. Neurone im primären auditiven Cortex des Affen feuern in dieser Situation kontinuierlich, als ob sie einen andauernden Ton signalisierten (Petkov et al. 2007). Dieser Effekt ähnelt der Kodierung verdeckter oder illusorischer Kanten in frühen visuellen Arealen (Kap. 1.2). Die Aktivität früher auditorischer Areale kann auch durch die Betrachtung visueller Szenen moduliert werden – ein Hinweis, dass multimodale Wahrnehmung Effekte auf anatomisch frühen auditiven Verarbeitungsebenen hat.

Dichotisches Hören

Aufgrund der Verschaltung der Hörbahn (s. o.) erreicht ein lateralisierter akustischer Reiz beide auditiven Cortices, anders als im visuellen System, wo in jeder Hemisphäre das contralaterale Gesichtsfeld repräsentiert ist (Kap. 1.3). Allerdings gibt es auch im auditiven System den Ansatz einer Lateralisierung, in dem Sinne, dass die contralateralen Bahnen dominant vertreten sind. Dieser Umstand wird aber nur dann praktisch nutzbar, wenn beiden Ohren gleichzeitig ähnliche, aber nicht identische Reize präsentiert werden. Man spricht dann von dichotischem Hören. In einem typischen Experiment werden beiden Ohren simultan Silben wie / ba / , / ga / , / pa / etc. präsentiert, wobei beiden Ohren unterschiedliche Silben präsentiert werden. Wenn der Proband dann aufgefordert wird, zu berichten, welche Silbe er gehört hat, so ist die Wahrscheinlichkeit, dass er die auf dem rechten Ohr präsentierte Silbe berichtet, deutlich höher als für die auf dem linken Ohr präsentierte Silbe. Diesen Rechtsohrvorteil schreibt man zum einen der dominanten contralateralen Reizweiterleitung durch Suppression der ipsilateralen Bahnen und zum anderen der Dominanz der linken Hemisphäre für die Verarbeitung sprachlichen Materials zu. Dementsprechend wird auch, wenn auch weniger ausgeprägt, ein Linksohrvorteil für die Entdeckung nichtlinguistischer Reize, wie etwa für Klänge unterschiedlicher Musikinstrumente, berichtet (Tervaniemi / Hugdahl 2003).

Der Rechtsohrvorteil für lexikalisches Material (und analog der Linksohrvorteil) wird darauf zurückgeführt, dass auf dem linken Ohr präsentierte Silben aufgrund der Suppression der ipsilateralen Bahnen bei dichotischem Hören zunächst nur die rechte Hemisphäre erreichen und dann über das Corpus callosum zur linken, sprachdominanten Hemisphäre weitergeleitet werden müssen. Die Zeitverzögerung, die dabei entsteht, und eine eventuelle Abschwächung des Signals führen dann dazu, dass Sprachreize auf dem linken Ohr schlechter wahrgenommen werden als simultan präsentierte Sprachreize auf dem rechten Ohr.

Die Hypothese des callosalen Transfers wird unterstützt durch den Befund, dass Patienten nach kompletter Durchtrennung des Corpus callosum im Rahmen einer chirurgischen Epilepsietherapie eine ausgeprägte Linksohrsuppression zeigen, also eine weit stärkere Lateralisierung der Wahrnehmung als hirngesunde Probanden. Studien mit Patienten mit partiellen Corpus-callosum-Läsionen zeigen, dass Läsionen im Splenium des Corpus callosum ausreichen, eine Linksohrsuppression hervorzurufen (Pollmann et al. 2002; Sugishita et al. 1995).

Noch ungeklärt ist jedoch die Funktion des Spleniums in diesem Zusammenhang. Das Splenium mag Fasern enthalten, die zwischen den primären oder sekundären auditiven Cortices verlaufen, und seine Durchtrennung damit den Transfer des auditiven Signals von der linken zur rechten Hemisphäre unterbrechen. Dagegen spricht, dass diese auditiven Fasern beim Affen etwas weiter anterior verlaufen. Allerdings ist nicht bekannt, wo die homologen Fasern beim Menschen verlaufen. Alternativ kann das Splenium auch Fasern enthalten, die vom temporoparietalen Grenzbereich ausgehen und die Präsenz eines Reizes auf dem linken Ohr signalisieren, ohne jedoch das auditive Signal selbst zu übermitteln. Für ein solches attentionales Signal sprechen analoge Befunde aus visuellen Aufmerksamkeitsstudien bei Patienten (Pollmann et al. 2004) sowie erste Befunde mit dem neuen Verfahren der Diffusionstensor-Bildgebung, die das nichtinvasive Verfolgen von menschlichen Nervenfasern ermöglicht. Diese Befunde haben gezeigt, dass Fasern vom inferioren Parietalcortex durch den vorderen (inneren) Anteil des Spleniums verlaufen (Conturo et al. 1999).

McGurk-Effekt

In der Regel ist unsere Wahrnehmung multimodal, wir erfassen unsere Umwelt mit mehreren Sinnen gleichzeitig. Ein besonders frappierendes Beispiel, wie sich dabei visuelle und auditive Wahrnehmung beeinflussen können, ist der McGurk-Effekt.

Wenn Sie den Effekt selbst überprüfen wollen, schauen Sie sich eine Demonstration unter folgender Internetadresse an, bevor Sie weiterlesen: www.youtube.com/watch?v=aFPtc8BVdJk.

Die Probanden hören die Silbe / ba /, sehen aber gleichzeitig ein Video, auf dem der Sprecher die Lippenbewegungen für / ga / macht. Bei den meisten Hörern erzeugt dies den Wahrnehmungseindruck / da /.

Der McGurk-Effekt zeigt, wie auditive und visuelle Wahrnehmung miteinander integriert werden. Während dies beim McGurk-Effekt zu einem falschen Ergebnis führt, so ist diese Integration in normalen Alltagssituationen in aller Regel nützlich, etwa beim Verstehen gesprochener Sprache in verrauschter Umgebung oder bei Beeinträchtigung des Gehörs.

höhere auditive Areale

Wie im visuellen System, so ist auch die neuronale Verarbeitung auditiver Reize nicht auf die frühen auditiven Areale beschränkt, sondern bezieht eine große Anzahl weiterer Hirnareale mit ein. Aufgrund der besonderen Bedeutung des Hörens für die sprachliche Kommunikation sind dies z. T. Areale der Sprachverarbeitung, auf die wir in den Kapiteln 2.5 und 2.6 näher eingehen werden. Eine Vorstufe dieser sprachlichen Verarbeitung findet man in Arealen, deren Neurone spezifisch auf auditive Reize reagieren, die eine kommunikative Bedeutung haben.

„Was“- und „Wo“-Pfade

Analog zu den visuellen „Was“- und „Wo“- oder „Wie“-Pfaden (Kap. 1.3) gibt es auch Anhaltspunkte für getrennte Verarbeitungspfade für auditive Objekterkennung und Lokalisation, wobei allerdings die Datenlage zurzeit noch weniger eindeutig ist als im visuellen System.

Fragen zu Kapitel 1.5


Überprüfen Sie Ihr Wissen!

42. Wie ist die Cochlea aufgebaut? Wodurch werden die Zilien der Haarzellen ausgelenkt?

43. Was unterscheidet die inneren von den äußeren Haarzellen?

44. Nennen Sie die Stationen der Hörbahn. In welcher Struktur laufen die Nervenfasern von beiden Ohren das erste Mal zusammen?

45. Wie wird die Lautheit zweier Töne unterschiedlicher Frequenz gemessen? Was ist die Maßeinheit?

46. Was ist der Unterschied zwischen dB (A) und dB (SPL)?

47. Welches Organisationsprinzip findet man im auditiven Cortex?

48. Welche Faktoren bestimmen die Klangfarbe eines Musikinstruments?

49. Welche Bedeutung hat die Ohrmuschel für das Hören?

50. Was ist der McGurk-Effekt?

1.6Riechen und Schmecken


Die Erinnerung an den leckeren Weihnachtsbraten ruft auch die entsprechenden Gerüche wieder ins Bewusstsein. Umgekehrt schmeckt ein guter Wein nicht, wenn die Nase durch einen Schnupfen verstopft ist. Diese Beispiele zeigen, dass Riechen und Schmecken, obwohl durch getrennte Sinnessysteme vermittelt, oft eng zusammenwirken.

chemische Sinne

Geruch und Geschmack sind chemische Sinne, ihre Sinneszellen sind Chemorezeptoren, die durch geeignete Moleküle erregt werden. Dies sind für das Riechen gasförmige Moleküle, die an die Riechschleimhäute gelangen, für das Schmecken gelöste Moleküle, die sich an die Rezeptoren in den Geschmackspapillen der Zunge anlegen. Beides geht häufig zusammen: Beim Trinken aus einer Kaffeetasse gelangt der Kaffee etwa zeitgleich in den Mundraum, wie die Moleküle aus dem Kaffeedampf in den Nasenraum gelangen. Die Lage der Rezeptoren im Mund- und Nasen-Rachen-Raum weist den Geschmacks- und Geruchsrezeptoren auch eine Wächterfunktion über die Nahrungsaufnahme und die Atmung zu. Im Unterschied zum Geschmack ist der Geruch auch ein Fernsinn, in entsprechender Konzentration können wir Duftstoffe über größere Distanzen riechen, vom Zigarette rauchenden Nachbarn im Restaurant bis zum Klärwerk ein paar Straßen weiter.

1.6.1 Der Geruchssinn

Makrosmaten

Zwischen den Spezies gibt es große Unterschiede in den Geruchsschwellen. So riechen Hunde bis zu 10.000-mal geringere Konzentrationen, je nach Geruchsstoff. Man spricht von Makrosmaten und Mikrosmaten, wobei Erstere Spezies mit hoher, Letztere mit niedriger Geruchsempfindlichkeit bezeichnen. Diese Unterschiede beruhen auf stark unterschiedlichen Anzahlen von Geruchssinneszellen, wobei die Empfindlichkeit der einzelnen Zellen sich zwischen den Spezies nicht grundlegend unterscheidet. Menschliche Riechsinneszellen können durch ein einzelnes Molekül eines Geruchsstoffes erregt werden und haben damit eine Empfindlichkeit, die nicht mehr gesteigert werden kann (De Vries / Stuiver 1961).

Geruchsrezeptorgene

2 880,15 ₽
Возрастное ограничение:
0+
Объем:
576 стр. 144 иллюстрации
ISBN:
9783846387733
Издатель:
Правообладатель:
Bookwire
Формат скачивания:
epub, fb2, fb3, ios.epub, mobi, pdf, txt, zip

С этой книгой читают