Читать книгу: «Sprachliche Kommunikation: Verstehen und Verständlichkeit», страница 8

Шрифт:

Zusammenfassung

1. Schriftliche Kommunikation weicht in etlichen Merkmalen von der mündlichen Kommunikation ab: Die Kommunikationspartner sind räumlich und zeitlich getrennt, Schreiben ist reflektierter und führt zu komplexen Formulierungen, das fortlaufende Monitoring fällt aus und damit jede Technik der Verständnissicherung. Damit wird Verständlichkeit zum Problem, das vor allem in der Verantwortung des Absenders liegt, der adressatenorientiert formulieren muss.

2. Nach dem kommunikativen Ansatz kann es eine Allgemeinverständlichkeit für alle Adressaten nicht geben. Für abgrenzbare Zielgruppen sind Texte gut adressierbar, ein Problem stellt die Mehrfachadressierung bei heterogenen Adressatengruppen dar.

3. Professionelle Kommunikation muss von einer Adressatenanalyse ausgehen. Diese besteht aus zwei Stufen: Bei der Segmentierung werden die Adressatengruppen bestimmt, bei der Profilierung werden diese in verstehensrelevanten Merkmalen beschrieben.

4. Zur Profilierung können etliche Merkmale der Adressaten herangezogen werden: sozio-ökonomischer Status, Lesemotivation, Vorwissen, Lesekompetenz, Sprachgebrauch, Mentalität, prozedurales Vorwissen. Für verständliches Schreiben sind vor allem das Vorwissen und die Sprachkompetenzen der Adressaten wichtig.

5. Einige Adressatengruppen sind in den letzten Jahren besonders in den Fokus der professionellen Kommunikation gerückt: Senioren, Menschen mit Behinderungen, Menschen anderer Kulturen. Frauen als Adressatengruppe haben zu Bemühungen um geschlechtsneutrale Formulierungen geführt, für die derzeit Richtlinien entwickelt werden.

6. Von den Adressaten schwieriger Texte wird in der hermeneutischen Tradition erwartet, dass sie einen Text wohlwollend zu verstehen suchen (hermeneutische Präsumptionen und principle of charity). Die Textproduzenten werden dadurch weitgehend von der Mühe um Verständlichkeit entlastet.

7. Die hermeneutische Spirale beschreibt den Prozess des fortlaufenden Verstehens. Es startet mit einem Vorverständnis, das durch das Lesen bestätigt oder verändert wird. Psycholinguistik und Kognitionspsychologie haben diese text- und wissensbasierten Prozesse detailliert beschrieben.

8. Ein völliges Unverständnis ist selten, da selbst in einer fremden Sprache noch paraverbale Zeichen für ein rudimentäres Verstehen sorgen. Missverständnisse, bei denen der Adressat etwas versteht, was der Absender aber nicht gemeint hat, sind hingegen oft zu finden. Ein erschwertes Verstehen erfordert viel Verarbeitungsaufwand, den nicht jeder Hörende bzw. jede Lesende aufbringen kann oder will.

9. Schwerverständlichkeit wird mit drei Argumenten verteidigt: dem inhaltlichen Argument (Komplexität des Themas), dem didaktischen Argument (Anregung zum Denken) und dem ästhetischen Argument (Lust am Schreibstil). Schwerverständlichkeit kann intendiert sein, um Kommunikation auf bestimmte Gruppen zu beschränken oder von der dürftigen Argumentation abzulenken. Schwerverständlichkeit dient hier der Abschottung und Verschleierung.

10. Die Verständlichkeit schriftlicher Kommunikation lässt sich durch drei Ansätze verbessern: Schreibtraining auf Seiten der Textproduzenten, Verstehenstraining auf Seiten der Adressaten und Textoptimierung durch Experten.

5 Erforschung des Verstehens: Methoden

Bevor das Verstehen genauer unter die Lupe genommen wird, müssen wir uns einem methodischen Problem zuwenden: Die Prozesse des Verstehens laufen in unserem Gehirn ab und sind nicht direkt beobachtbar. Wir können uns zwar beim Verstehen eines Texts selbst beobachten (Introspektion), aber diese Erkenntnisse sind lückenhaft, zufällig und nicht verallgemeinerbar. Wie gelingt uns ein Blick unter die Schädeldecke?

In diesem Kapitel lassen wir die quantitativen und qualitativen Methoden Revue passieren, mit denen die empirische Wissenschaft die verborgenen Prozesse und Strukturen des Verstehens aufzudecken versucht. In der Forschung werden zwei Gruppen von Methoden unterschieden: Die einen erfassen Indikatoren zum Prozess des Verstehens während des Lesens (5.1). Die anderen erfassen Indikatoren zum erreichten Verständnis nach dem Lesen (5.2). Nicht bei allen Indikatoren lassen sich Verstehen, Verständnis und Verständlichkeit sauber trennen. Bei jeder Methode wird deshalb die Validität hinterfragt: Was wird durch die Methode genau erfasst?

5.1 Indikatoren des VerstehensIndikatorenVerstehen

Hier geht es um die Erhebung von Variablen, die Schlüsse auf Prozesse des Verstehens und den kognitiven Aufwand zulassen. Sie werden während des Ablaufs des Verstehens erhoben.

VorlesenVorlesen

Verarbeitungsprozesse, die beim Lesen gewöhnlich still ablaufen, sollen beim lauten Lesen hörbar gemacht werden. Gemessen wird die Latenzzeit zwischen Darbietung des Textes auf einem Monitor und Beginn der WiedergabeWiedergabe (Recall), aber auch die Pausen und das Verlesen sind Indikatoren für Verarbeitungsprozesse (Danks et al., 1983). Allerdings ist die Interpretation der Daten aus verschiedenen Gründen schwierig: 1. Man kann auch vorlesen, ohne den Text richtig zu verstehen. Was z.B. während einer Verzögerung im Kopf abläuft, ist von außen nicht erkennbar. 2. Eine Leseverzögerung kann entweder auf eine schwierige Textstelle oder auf ein Defizit beim Lesenden, z.B. fehlendes VorwissenVorwissen, hinweisen. Die Flüssigkeit beim lauten Lesen wird als brauchbarer Indikator für Lesekompetenz eingesetzt (Fuchs et al., 2001). Diese Methode ermöglicht somit nur einen groben Einblick in das Verstehen.

Lautes Denkenlautes Denken

Mit dieser klassischen Methode wird versucht, die Entwicklung eines Verständnisses zu erfassen. Während des Lesens werden die Versuchspersonen (Vpn)1 angewiesen auszusprechen, was ihnen gerade durch den Kopf geht. Die verbalen Daten werden aufgezeichnet und qualitativ ausgewertet.

Die deutsche Denkpsychologie hat mit der Methode des lauten Denkenslautes Denken einen bisher kaum gewürdigten Beitrag zum Verstehen des Verstehens erbracht. Karl Bühler (1908) legte seinen Kollegen anspruchsvolle Sentenzen oder Sprichwörter vor.


(1) Wer zur Quelle kommen will, muss gegen den Strom schwimmen.

Nachdem eine Vp mit einem „Ja“ ihr Verständnis des Satzes signalisierte, sollte sie äußern, was ihr beim Verstehen durch den Kopf gegangen war. Selbst für Professoren wohl keine einfache Aufgabe. Ein damals wichtiger Befund: Denken ist ohne visuelle oder andere Vorstellungen möglich.

Die Validität dieses introspektiven Verfahrens wird unterschiedlich eingeschätzt. Einerseits wird darin eine Möglichkeit gesehen, an Denkprozesse heranzukommen, die mit anderen Methoden nicht erfassbar sind, z.B. Assoziationen, Wissensaktivierung, Schlussfolgerungen (Ericsson & Simon, 1980). Andererseits wird wohl nur ein Bruchteil dessen verbalisiert, was beim Verstehen im Gehirn tatsächlich abläuft (Nisbett & Wilson, 1977). Zudem lassen sich bei den retrospektiven Berichten fortlaufendes Verstehen und abschließendes Verständnis nicht trennen. Lautes Denken offenbart nicht die Verstehensprozesse selbst, sondern liefert nur einen metakognitiven Bericht darüber, der durch Vorannahmen beeinflusst sein kann (Ballstaedt & Mandl, 1984).

In einer Variante dieser Methode zum interdisziplinären Verstehen studierten Biologen historische FachtexteFachtext, Fachsprache und Historiker biologische Fachtexte und notierten am Rand der fachfremden Texte ihre Verständnisprobleme in Form von Fragen an den jeweiligen Autor (Reinhard et al., 1997). Anhand der problematischen Textstellen konnten fachspezifische Sichtweisen und interdisziplinäre Verständnisprobleme herausgearbeitet werden.

LesezeitenLesezeit

Wer länger braucht, um einen Text zu lesen, der investiert auch mehr kognitive Ressourcen gegenüber einem Adressaten, der das in kürzerer Zeit bewältigt. Diese summative Lesezeit sagt aber nichts über die konkreten Verstehensprozesse aus. Genauere Einsichten lassen sich aus den Lesezeiten einzelner Wörter und Wortgruppen gewinnen. So verwenden Just & Carpenter (1987) die Lesezeit pro Wort, Phrase oder Satz als Indikator des Verstehensaufwandes.

Sie entwickelten die LesezeitLesezeit-Methode des Moving Window. Das Sprachmaterial wird maskiert, z.B. jeder Buchstabe durch einen Bindestrich. Durch einen Tastendruck wird die erste sprachliche Einheit (ein Wort, eine Phrase, ein Satz) durch Buchstaben ersetzt, die Vp kann den Textteil lesen. Drückt die Vp wieder die Taste, verschwindet diese Texteinheit und die nächste erscheint auf dem Monitor. So wird der Text Einheit für Einheit dargeboten und die Verarbeitungszeit zwischen den Knopfdruckreaktionen für jede Einheit wird erfasst (Just, Carpenter & Woolley, 1982).

Zur Validität lässt sich anmerken: Der Verarbeitungsaufwand wird erfasst, aber es kann nur vermutet werden, auf welche Prozesse er zurückzuführen ist und was die Person verstanden hat. Zudem ist die Lesesituation sehr unnatürlich.

Reaktionszeiten: PrimingPriming

Auch kognitive Prozesse benötigen Zeit, wenn auch nur im Bereich von Millisekunden. Reaktionszeiten sagen etwas aus über den Aufwand, der für eine Verstehensaufgabe notwendig ist.

Ein weitgehend vergessener Pionier der kognitiven Psychologie ist der Niederländer Frans Cornelis Donders, eigentlich Mediziner und Augenarzt, der bereits 1868 Experimente zur mentalen Chronometrie durchführte. Ihn beschäftigte die Frage, ob und wie man die Dauer psychischer Prozesse messen könnte: „Sollte nun auch der Gedanke nicht die unendliche Schnelligkeit haben, die man ihm zuzuschreiben pflegt, und sollte es möglich sein, die Zeit zu bestimmen, die zur Bildung einer Vorstellung oder einer Willensbestimmung gefordert wird?“ (Donders, 1868, S. 4) Er ging davon aus, dass komplexe Prozesse mehr Zeit brauchen als einfache Prozesse. Er entwickelte die Subtraktionsmethode, bei der die Zeit zwischen einem Reiz und einer Reaktion bei zwei Aufgaben gemessen und verglichen wird, die einander bis auf einen vermuteten Teilprozess vollkommen gleichen. Die Differenz zwischen den durchschnittlichen Reaktionszeiten wird als Zeitbedarf des Teilprozesses interpretiert.

Eine chronometrische Methode ist für die Sprachverarbeitung ungemein wichtig: das PrimingPriming (to prime = vorbereiten, grundieren). Dabei wird die Reaktionszeit auf einen Zielreiz (Target) gemessen, dem ein Vorreiz (Prime) vorangeht. Der Prime beeinflusst die Reaktionszeit, sie wird schneller (facilitation) oder langsamer (inhibition). Mit Priming-Experimenten können Hypothesen zur Bahnung und Hemmung in konzeptuellen Netzenkonzeptuelles Netz überprüft werden. Unser Beispiel betrifft das Wortverstehen (zusammenfassend Neely, 1991).

Als Aufgabe wird eine lexikalische Entscheidung verlangt: Ist ein dargebotenes Wort ein Wort der deutschen Sprache, ja oder nein? Vor dem Zielwort (target), auf das die Vp reagieren soll, wird ein Vorreiz (Prime) gezeigt. Z.B. wird einer Gruppe von Vpn im ersten Durchgang „Brot“ als Prime vorgegeben, danach soll „Arzt“ als Zielwort (target) beurteilt werden, die Reaktionszeit wird in Millisekunden gemessen. Einer zweiten Gruppe von Vpn wird „krank“ als Prime gegeben, bei ihr ist die Reaktionszeit auf „Arzt“ deutlich kürzer. Die Zeitdifferenz zwischen den beiden Gruppen ist der PrimingPriming-Effekt, der umso größer ist, je enger die Beziehung zwischen Prime und Target ist. Die Erklärung: Unser Wissen ist in Netzwerken von Konzepten gespeichert, zwischen denen mehr oder weniger stark gebahnte Relationen bestehen. Jedes gehörte oder gelesene Wort erzeugt eine Aktivationsausbreitung, zwischen „krank“ und „Arzt“ besteht eine stärkere Verbindung als zwischen „Brot“ und „Arzt“, deshalb wird die Reaktion darauf erleichtert bzw. erfordert geringere Ressourcen.

Man spricht auch von einem semantischen Anwärmeffekt. Derartige Priming-EPrimingffekte sind sogar messbar, wenn ein vorgeschalteter Kontext so kurz dargeboten wird (40 Millisekunden), dass er von den Vpn nicht bewusst erkannt wird (Fischler & Goodman, 1978). Es gibt zahlreiche bewährte Varianten des Priming. Man kann nicht nur Wörter, sondern auch Satzteile und ganze Sätze voraktivieren. Priming-Experimente verlangen den Einsatz von Computern, um präzise Reaktionzeiten im Bereich von Millisekunden zu messen. Die Validität der Methode ist überzeugend, um Assoziationen im Gedächtnis aufzudecken.

EyeEye Tracking TrackingBlickbewegung (Eye Tracking)

Beim Lesen gleitet der Blick nicht kontinuierlich über die Zeilen, sondern bewegt sich mit Sakkaden (Sprüngen) und Fixationen vorwärts und manchmal auch wieder zurück (Regressionen). Nur während der Fixationen werden Wörter verarbeitet (ausführlicher Kap. 6.1). Die Fixationen und Sakkaden beim Lesen lassen sich mit Eye-Trackern genau registrieren (Bartl-Pokorny et al., 2013). Die Vp sitzt einem Monitor gegenüber, auf dem der Text präsentiert wird. Da beim Lesen die visuelle Aufmerksamkeit auf ein enges Areal auf einer Zeile fokussiert und eine sehr genaue zeitliche Auflösung notwendig ist, wird der Kopf durch eine Kinn- oder Stirnstütze stabilisiert. Um die Augenbewegungen zu erfassen, wird ein nicht sichtbarer Infrarot-Lichtstrahl über einen Spiegel auf das Auge der Vp gerichtet, seine Reflexion durch die Hornhaut wird von einer Kamera erfasst. Ein Computer mit entsprechender Software berechnet das Fixationsmuster, es wird als Scan Path visualisiert, bei dem die Sakkaden als Linien und die Fixationen als Kreise dargestellt werden. Für jede Vp muss der Tracker individuell kalibriert werden. Das sieht nicht wie eine natürliche Lesesituation aus, inzwischen gibt es auch Tracker ohne Stabilisierung des Kopfes, die Vp trägt nur eine Spezialbrille.

Bei einer typischen Blickbewegungsstudie wird z.B. ein Satz mit einer kritischen Region vorgegeben, z.B. mit einem Pronomen, das zum Verstehen aufgelöst werden muss.


(2) Einstein hat mit Freud korrespondiert, persönlich hat er ihn 1926 in Berlin getroffen.

Es kann nun überprüft werden, ob die Pronomen „er“ und „ihn“ länger fixiert werden und eventuell eine Regression in den Vorsatz erfolgt. Es liegen auch Studien zu den BlickbewegungenBlickbewegung (Eye Tracking) bei langen expositorischen Texten vor (Hyönä, Lorch & Kaakinen, 2002). Sie zeigen verschiedene Lesetaktiken, die zu unterschiedlichen Verstehensleistungen führten.

Die Fixationsmuster lassen valide Schlüsse auf den Verarbeitungsaufwand zu. Was aber während einer Fixation verarbeitet wird, bleibt unklar, es sind sicher nicht nur Prozesse des Worterkennens, sondern auch syntaktische Prozesse.

Neuropsychologische Techniken

Mit diesen Methoden werden Gehirnaktivitäten bei bestimmten Verstehensaufgaben sichtbar gemacht, also neurophysiologische Korrelate für Verarbeitungsprozesse (ausführlich Jäncke, 2017; Müller, 2013).

Ereigniskorrelierte Potenzialeereigniskorrelierte Potentiale (Event Related Potentials = ERP). Viele Elektroden werden auf der Kopfhaut befestigt, meist in einer Art Badekappe. Dann werden einer Gruppe von Vpn bestimmte sprachliche Reize vorgegeben, eine Kontrollgruppe bekommt diese Reize nicht präsentiert. So lässt sich ableiten, wo im Gehirn wann eine Veränderung des Wellenmusters auftritt. Die Methode hat eine gute zeitliche, aber eine schlechte räumliche Auflösung, denn die Messung erfasst nur sehr grobe summierte Potenziale und erlaubt keine genaue tiefere Lokalisierung im Gehirn.

Als Erste haben Kutas & Hillyard (1980) die Methode beim Sprachverstehen benutzt. Sie boten ihren Probanden Sätze, die eine semantische Inkongruenz enthielten, d.h. ein Wort, das nicht in den Kontext passt:


(3.1) He took a sip from the transmitter.
(3.2) Nach dem Regen scheint wieder die Suppe.

Der Satz wurde Wort für Wort, jeweils 100 Millisekunden auf einem Monitor präsentiert. Dabei wurde durchschnittlich um 400 Millisekunden nach dem kritischen Wort im parieto-temporalen Areal eine negative Amplitude abgeleitet, die N400 getauft wurde. In Folgeuntersuchungen wurde bestätigt, dass N400 eine Reaktion auf eine semantische Inkongruenz ist. Bei einer syntaktischen Verletzung taucht ein anderes Muster P600 auf. Auch eine Verletzung referentieller Bezüge führt zu bestimmten Mustern im posterioren Bereich (Hemforth, 2006). Aber was bedeutet z.B. N400 genau? 200 Millisekunden nach dem kritischen Wort ist das Satzverstehen bereits abgeschlossen, N400 zeigt also offenbar nachträgliche Verarbeitungsprozesse an (Müller, 2013).

Bildgebende Verfahren. Validere Daten liefern bildgebende Verfahrenbildgebende Verfahren, bei denen die Areale eingefärbt sichtbar gemacht werden, die bei Prozessen des Verstehens aktiviert sind. Bei der Positronenemissionstomografie (PET) werden der Vp radioaktiv markierte Substanzen injiziert, die sich in aktiven Zellen nachweisen lassen. Bei der Funktionellen Kernspintomografie (fMRT oder fMRI) werden nicht radioaktive Strahlungen, sondern magnetische Felder erfasst (ausführlich Jäncke, 2017). Auch die Magnetoencephalografie (MEG) erfasst magnetische Felder. Mit diesen Methoden können kleine Zellbereiche unterhalb von 1-4 mm3 (räumliche Auflösung) und Prozesse im Bereich von 100 msec (zeitliche Auflösung) untersucht werden.

In einer fMRI-Untersuchung lasen oder hörten Vpn vorstellungsaffine Sätze, in denen mentale Rotationen beschrieben wurden (Just et al. 2004):


(4) The number eight when rotated 90 degree looks like a pair odspectacles.

Die Vpn sollten entscheiden, ob die Sätze wahr oder falsch sind. Mit fMRI-Daten und deren VisualisierungenVisualisierung war nachzuweisen, dass beim Hören wie beim Lesen Areale des linken Scheitelhauptlappens aktiviert wurden, in denen visuelle Vorstellungenvisuelle Vorstellung, speziell mentale Rotationen generiert werden.

Diese neuropsychologischen Methoden sind vielversprechend, aber drei Nachteile sind nicht zu übersehen: 1. Sie erfordern einen erheblichen apparativen Aufwand. 2. Die Bedingungen, unter denen gemessen wird, sind für die Probanden nicht unbedingt angenehm und weichen weit von natürlichen Situationen ab. 3. Die Interpretation der Daten ist schwierig, denn gemessen wird nur, wo etwas geschieht, aber nicht was dort genau geschieht, das ist eine Einschränkung der Validität.

Simulative Methoden

Bei simulativen Methodensimulative Methode wird eine Teilfähigkeit der Sprachkompetenz mit Hilfe eines Computers nachgeahmt. Dazu schreiben Computerlinguisten Programme (Algorithmen), mit denen ein Computer ein vorgegebenes sprachliches Problem lösen kann, z.B. Subjekt und Objekt eines Satzes finden oder eine Antwort auf eine Frage geben. Die ursprüngliche Idee dahinter: Die einzelnen Schritte des Programms entsprechen den mentalen Prozessen, die beim Lösen des Problems im Gehirn ablaufen.

Aber diese Annahme wird inzwischen bezweifelt. Kein Sprachwissenschaftler geht heute davon aus, dass ein digitaler Computer ebenso funktioniert wie unser Gehirn. Wenn ein Computer einen deutschen Satz korrekt ins Englische übersetzt, bedeutet das nicht zwangsläufig, dass er es mit denselben Prozessen und Strukturen wie eine Übersetzerin tut. Trotzdem sind die Bemühungen, sprachverstehende und sprachproduzierende Systeme zu entwickeln, für die Sprachwissenschaft interessant. Denn der Programmieraufwand, der getrieben werden muss, um z.B. eine Anapher aufzulösen, zeigt die Schwierigkeiten auf, mit denen auch unser Gehirn beim Verstehen konfrontiert ist.

Nehmen wir an, wir konfrontieren einen sprachverarbeitenden Computer mit folgendem Satz (Hilpert, 2013):


(5) Britta nahm die Zeitung von der Tischdecke und faltete sie zusammen.

Auf was wird der Computer das Pronomen „sie“ beziehen? Auf die Tischdecke oder die Zeitung, denn beide kann man falten. Die Zuordnung des Pronomens ist nur möglich, wenn das Computerprogramm den Kontext analysiert: Ging es thematisch um die morgentliche Zeitungslektüre von Britta, dann ist die Zeitung der wahrscheinlichere Kandidat. Zum „Verstehen“ muss also ein Kontextbereich ausgewertet werden.

Computer verstehen zwar Sprache nicht wie wir Menschen, aber sie können sprachlichen Input verarbeiten, z.B. wenn Siri oder Alexa uns eine Auskunft auf eine Frage geben oder auf einen Sprachbefehl die gewünschte Musik abspielen (Kremer, 2013). Weitere Anwendungen sind die Sprachsteuerung von Geräten (Navi, Smartphone), das Vorlesen von Texten für sehbehinderte Menschen, das Diktieren von Texten, die maschinelle Übersetzung und Auskunftssysteme.

Ist schon die Wort- und Satzverarbeitung schwierig zu simulieren, bleibt die Textverarbeitung eine bisher kaum lösbare Aufgabe (Jacobs, 2003). Trotzdem ruhen auf simulativen Methodensimulative Methode viele Hoffnungen, dass sie zusammen mit den traditionellen und neuen neuropsychologischen Methoden dazu beitragen, Licht in das Dunkel des verstehenden Gehirns zu bringen.

In Kooperation der Universitäten Stuttgart und Tübingen sowie des Deutschen Literaturarchivs (DLA) Marbach und des Leibniz-Instituts für Wissensmedien Tübingen (IWM) wird ein Projekt „Understanding Understanding“ gestartet. Es soll geisteswissenschaftliche und computerlinguistische Ansätze zusammenführen.

Жанры и теги
Возрастное ограничение:
0+
Объем:
575 стр. 26 иллюстраций
ISBN:
9783846351154
Издатель:
Правообладатель:
Bookwire
Формат скачивания:
epub, fb2, fb3, ios.epub, mobi, pdf, txt, zip

С этой книгой читают