Working Papers in Neurolinguistics and Neuroscience |
|
Neuro 6: |
Manohar Faupel [*], Michael Schecker [*] : Ausdruck und Bedeutung - Ansätze zu einer neurolinguistischen Revision der Vorstellungen de Saussure's vom sprachlichen Zeichen (1999) |
Zusammenfassung
3. "Zwei Seiten eines Blattes" vs. "reziproke Evokation"
Zusammenfassung
Unsere Ausführungen greifen die Saussure'schen Überlegungen zur Zweiseitigkeit
sprachlicher Zeichen auf. Hier kombiniert de Saussure die Vorstellung einer
wechselseitigen Verknüpfung (reziproke Evokation) mit der Vorstellung von der Vorder- und
Rückseite eines Blattes Papier als Bild für die untrennbare Einheit von Ausdruck und
Bedeutung.
Wir liefern eine Vielzahl negativer empirischer Evidenzen, was die untrennbare Einheit von
Ausdruck und Bedeutung angeht. Die Belege erlauben es sogar, ganz generell Zweifel am
Zeichencharakter sprachlicher Ausdrücke zu äußern.
Nicht betroffen ist allerdings eine modern reinterpretierte und weiter gedachte reziproke
Evokation der verschiedenen sprachlichen Verarbeitungsmodalitäten und eines unitaristisch
verstandenen lexikalisch-semantischen bzw. konzeptuellen System, das im übrigen nicht nur
den konzeptuellen Hintergrund für die Sprachverarbeitung sondern auch z.B. für die
sensorische Identifiktion und Interpretation von Welt ganz generell darstellt.
1. Saussure und das sprachliche Zeichen
Nach der Auffassung von F. de Saussure stellt das sprachliche Zeichen keineswegs eine materielle, sondern vielmehr eine psychische Realiät dar [1] . Damit stellt es eine vermittelnde kognitive Instanz dar, oder um es dynamisch zu formulieren: das sprachliche Zeichen im Sinne de Saussures ist ein kognitiver Vermittlungsprozess.
Das sprachliche Zeichen bei de Saussure besteht aus einem Ausdruck (z.B. image
acoustique) und seiner Bedeutung (concept). Beide sind wechselseitig über automatisierte
Assoziationen aufeinander bezogen (reziproke Evokation [2] ).
Saussure definiert in verschiedenen Formulierungen die Beziehung von Ausdruck und
Bedeutung eines sprachlichen Zeichens: Zwei Seiten, die sich entsprechen, und deren eine
ohne die andere nichts wert sei [3] ; eine komplexe prämotorisch-phonologische
"Form", die sich ihrerseits mit einer "Idee" (der "Idee"
z.B. eines realen Gegenstandes) zu einer neuen, qualitativ anderen komplexen Einheit
verbinde [4] . Oder er spricht von Sprache als einem System von Zeichen, bei denen nur die
Verbindung von (Ausdrucks-)Form (image acoustique) und Bedeutung (sens) relevant sei [5] .
Ausdruck und Bedeutung eines sprachlichen Zeichens seien - so de Saussure mit einem Blatt
Papier vergleichbar, dessen Vorderseite dem Denken (la pensée) und dessen Rückseite der
Lautkette (le son) entspreche. Genauso wenig, wie man die Vorderseite zerschneiden könne,
ohne die Rückseite damit zu zerschneiden, genau so wenig sei es möglich, die
Inhaltsseite von der Ausdrucksseite und vice versa zu isolieren.[6]
2. Negative Evidenzen
Sind in der Tat Ausdruck (image) und Bedeutung (concept) im Kopf so untrennbar miteinander verbunden, wie sich das de Saussure vorzustellen scheint? Die empirische Neurolinguistik der 80er und 90er-Jahre liefert eine Reihe von Evidenzen, aufgrund derer Zweifel an den Saussureschen Dikta angemeldet werden müssen.
2.1. Sprachliche "Modalitäten"
In realer Sprachverarbeitung müssen wir verschiedene Modalitäten der
Sprachverarbeitung bzw. "Ausdrucksqualitäten" unterscheiden, die - so der
heutige Stand der Neurolingistik - auf ein- und dasselbe (lexikalisch-)semantische bzw.
konzeptuelle System bezogen sind; - sowohl frühe Phasen des Spracherwerbs, in denen
Sprache an eine zu diesem Zeitpunkt längst bestehende Konzeptualisierung von Welt
'angehängt' wird [7] , wie auch neueste PET-Untersuchungen [8] zur Sprachverarbeitung
gesunder Erwachsener [9] ergeben empirische Evidenz für eine solche 'unitaristische'
Sichtweise [10] .
Was die verschiedenen Modalitäten der Sprachverarbeitung angeht, so haben wir es einmal
mit auditiven sensorischen Mustern zu tun, die es uns erlauben, bestimmte Schallereignisse
- aufbauend auf einer akustischen Analyse - als Realisierung dieser oder jener Sprachlaute
zu identifizieren. Zweitens verfügen wir über ganzheitlich organisierte motorische
Impulsmuster, die beim Sprechen - vermittelt über primär motorische Kortexareale - die
Muskeln der Artikulatorik enervieren und es uns - weil automatisiert und überlernt -
erlauben, mit einer Geschwindigkeit von bis zu 15 Phonemen und mehr pro Sekunde zu
sprechen.
Drittens schließlich vermögen wir auf der Basis spezifischer visueller Merkmalsanalysen
(so z.B. beim ganzheitlichen Lesen) und/oder auf der Basis einer langfristigen Speicherung
spezifischer visueller Muster etwas als Schriftzüge bzw. als Abfolge von Graphemen zu
identifizieren. Und schließlich und endlich sind wir als Schriftkundige in der Lage, mehr
oder weniger hoch automatisiert und überlernt unsere 'Graphomotorik' zu steuern und zu
schreiben (ganz gleich, ob das auf einer Tastatur oder handschriftlich geschieht).
Beim Lesen- und Schreiben-Lernen spielen die oben skizzierten Modalitäten und ihre Vernetzung untereinander eine wichtige Rolle. Im gesteuerten (schulischen) Lese-Erwerb beispielsweise wird zunächst - aufbauend auf einer Analyse in Grapheme und Graphemfolgen - die Übersetzung in gesprochene Sprache geübt (Graphem-Phonem-Übersetzung); anders gesagt wird Lesen in aller Regel zunächst in Form des Vorlesens eingeübt - Eine vergleichbar wichtige Vorstufe beim spontanen Schreiben bildet das nach-Diktat-Schreiben [11] .
Wie lassen sich die vier oben skizzierten "Ausdrucksqualitäten" bzw. Modalitäten der Sprachverarbeitung zusammendenken mit dem Bild de Saussures von der Vorder- und Rückseite eines Blattes Papier? Das würde ja eine Vorderseite mit vier Rückseiten (oder eine Rückseite mit vier Vorderseiten) bedeuten!
2.2. Pathologische "Dissoziationen"
Die Unterteilung in sprachliche Modalitäten läßt sich gut mit sprachpathologischen
Daten stützen. Im Rahmen von Aphasien begegnen zuhauf selektive Störungsmuster, bei
denen einige der Modalitäten teilweise völlig ausfallen, andere hingegen gut erhalten
sind. In der linguistischen Aphasiologie sprechen wir hier von Fraktionierung.
Liegen krasse Leistungsunterschiede vor, so sprechen wir auch von Dissoziation (zu
Beispielen gleich unten). Ist beispielsweise bei einem Patienten A das (spontane) Sprechen
erhalten, das Hören/Hörverstehen aber weitgehend gestört, so handelt es sich (genauer)
um eine einseitige Disszoziation; findet sich parallel dazu ein Patienten B, bei dem das
Hörverstehen und vielleicht auch Schreiben und Lesen/Leseverstehen erhalten sind, das
spontane Sprechen aber weitestgehend ausgefallen ist, dann sprechen wir von einer
doppelten Dissoziation von Sprechen und Hören/Hörverstehen.
2.2.1. Das Störungsmuster der "reinen Worttaubheit" [12]
Im Gefolge einer organischen Läsion im linken Schläfenlappen begegnet des öfteren
die sog. "reine Worttaubheit" (in der englischsprachigen Fachliteratur
"pure word deafness), - ein Syndrom, das wohl zuerst von Wernicke (1874) [13] und
Kussmaul (1877) [14] beschrieben wurde.
Patienten mit einer "reinen Worttaubheit" können akustische Stimuli, die nicht
sprachlich kodiert sind, unverändert erkennen und zuordnen. Auch bleibt u.a. die
Fähigkeit, zu sprechen, mehr oder weniger erhalten, ganz zu schweigen vom Schreiben und
Lesen/Leseverstehen.
"Reine Worttaubheit" darf nicht mit der "auditiven Agnosie" (in der englischsprachigen Fachliteratur auch "auditory [sound] agnosia") verwechselt werden, bei der tendenziell sowohl die Fähigkeit, sprachliche Schallereignisse als solche zu erkennen, wie auch die Fähigkeit, sonstige Geräusche zu identifizieren, gestört sind. Und beide Syndrome - "reine Worttaubheit" und "auditive Agnosie" - müssen von einer Störung grundlegender auditiver Analyseprozesse unterschieden werden (in der englischsprachigen Fachliteratur "cortical deafness"), die (funktional) häufig zu einem vollständigen Verlust des Gehörs führen.
Etwas holzschnittartig vereinfacht bedeutet das Syndrom der "reinen
Worttaubheit", daß die Analyse von Geräuschen gelingt, daß solche - gegebenenfalls
präzise beschreibbaren - Geräusche aber nicht mehr als Sprachlaute bzw. Wortformen
identifiziert werden können; die musterhaft gespeicherten Wortformen sind nicht mehr
zugänglich.[15] . Da entsprechende Patienten aber mehr oder weniger ungestört sprechen
können (und auch Schreiben und Lesen gut erhalten sein können), müssen die 'Konzepte'
bzw. muß das (lexikalisch-)semantische System nach wie vor verfügbar sein.
Konzentrieren wir uns auf das Verhältnis von konzeptuellem System und (rezeptiver)
auditiver Wortform, so bedeutet das gut dokumentierte Störungsmuster der "reinen
Worttaubheit" negative empirische Evidenz gegen die de Saussure'sche Metapher des
Papierblattes, dessen Vorderseite man nicht zerschneiden könne, ohne auch die Rückseite
zu zerschneiden - und vice versa.
Dissoziationen der oben skizzierten Art bedeuten positive empirische Evidenz für die Annahme einer (weitestgehend) autonomen Speicherung der betroffenen (Teil-)Funktionen im menschlichen Gehirn [16] ; wir sprechen hier auch von Modularität bzw. der modularen Organisation der menschlichen Sprachverarbeitung [17] .
Um den zentralen Problembereich noch einmal zu verdeutlichen: Selbstverständlich
müssen wir für den gesunden native and educated speaker davon ausgehen, daß die oben
skizzierten Modalitäten bzw. modalitätsspezifischen Verarbeitungsweisen untereinander
hoch vernetzt sind. Gut erforscht ist z.B. die aus dem Schriftspracherwerb resultierende
Kopplung von Lesen und Sprechen auch noch bei erwachsenen Probanden (vgl. dazu schon
weiter oben): Auch beim stillen Lesen scheint - gegebenenfalls nur über eine Messung der
Aktivation von Motorneuronen feststellbar - die Artikulatorik beteiligt; - wenn ich meine
Studenten beim Entziffern eines schwierigen Fachtextes beobachte, so kann ich regelrecht
artikulatorische Bewegungen beobachten.
Eine solche Vernetzung bedeutet aber nicht, daß es sich bei den entsprechenden
Verarbeitungsroutinen um ein- und dieselbe Verarbeitung, um ein- und dieselbe
Ausdrucksseite - um die "eine" Ausdrucksseite - eines sprachlichen Zeichens
handelt. Wie aber soll das im Sinne der Metapher de Saussures zusammengedacht werden?
2.2.2. Selektive Störungen des Benennens
Hier & Mohr (1977) [18] stellen als Patienten einen 28jährigen LKW-Fahrer mit
einer flüssigen Aphasie (nach Hier & Mohr eine Wernicke-Aphasie) vor, der durch
schwere mündliche Benennstörungen auffiel; ganz anders sah es mit seinen Leistungen im
schriftlichen Benennen aus. - Was die Produktion komplexerer Äußerungen angeht, so war
seine mündliche Spontanproduktion relativ unauffällig, dabei aber gekennzeichnet durch
semantische Paraphasien und Wortfindungsstörungen (zu solchen Defiziten gleich mehr). -
Eine schriftliche Produktion komplexerer Äußerungen war ihm nicht möglich.
Über gleichartige Dissoziationen berichten Bub & Kertesz (1982), Ellis, Miller &
Sin (1983) und Blanken (1990) [19] . Dabei steht stets das unterschiedliche
Leistungsniveau im mündlichen und schriftlichen Benennen im Vordergrund, gekoppelt dann
allerdings mit weiteren individuellen Leistungseinbrüchen.
Caramazza & Hillis (1990) [20] berichten über zwei Patienten, die zwar mündlich
benennen konnten, dabei aber - und tendenziell auch beim Vorlesen - gehäuft semantische
Paraphasien bzw. semantisch relationierte oder motivierbare Fehler produzierten (=
mündliche Produktion). Hingegen waren weder für das Hören/Hörverstehen noch das
Lesen/Leseverstehen semantische Fehler zu belegen; und auch in Schreibaufgaben
(Schreiben-nach-Diktat, schriftliches Benennen) waren die beiden Patienten weitgehend
unbeeinträchtigt.
Wie lassen sich solche (rein mündlichen) semantischen Paraphsien erklären? Wenn wir mit
Caramazza und Hillis hier den üblichen Sprachproduktionsvorstellungen folgen, dann werden
beim mündlichen Benennen zunächst einmal (lexikalisch-)semantische Konzepte aktiviert
[21] (das [lexikalisch-] semantische bzw. konzeptuelle System muß - bei Voraussetzung
einer unitaristischen Sichtweise - intakt sein, da in anderen Modalitäten eben keinerlei
semantische Fehlleistungen auftraten). Auf der Basis einer solchen Aktivation -
wahrscheinlich stets eines ganzen Feldes von semantisch verwandten Konzepten - kommt es
nun zur Aktivation einer passenden Wortform, beim mündlichen Benennen eines
ganzheitlichen prämotorisch-artikulatorischen Impulsmuster. Ist ein solcher
Verarbeitungsprozeß der Weiterverarbeitung der Aktivation eines höchst-favorisierten
Konzepts A selektiv oder lokal gestört, so können sich semantisch verwandte Konzepte B
oder C im Rahmen der prämotorisch-artikulatorischen Weiterverarbeitung durchsetzen, und
es kommt zu den besagten semantisch relationierten Fehlleistungen.
2.2.3. Modalitätsspezifische Ausprägung eines aphasischen Syndroms
Patterson und Shewell (1987) [22] beschreiben eine Patientin - mündlich mit einer Wernicke-Aphasie: Ihre mündliche Spontansprache war flüssig und beinhaltete sehr viel Funktionswörter gegenüber wenigen Inhaltswörtern. Jedoch zeigte sie im nach-Diktat-schreiben ein gänzlich anderes Muster: Hier war das Verhältnis der korrekten Funktionswörter und der korrekten Inhaltswörtern umgedreht, d.h. sie schnitt bei den Inhaltswörtern prozentual deutlich besser ab.
Marini und Blanken (1996) [23] beschreiben ebenfalls eine Patientin mit einer schweren
Wernicke-Aphasie und ausgesprochen modalitätsspezifischen Leistungsdefiziten. Auch hier
ist die mündliche Spontansprache flüssig und syntaktisch relativ gut strukturiert (viele
höchstfrequente und unspezifische Funktionswörter); sie beinhaltet aber kaum
Inhaltswörter. - In den Nachsprechleistungen waren beide Bereiche (Funktions- und
Inhaltswörter) schwer gestört, ebenso beim mündlichen Benennen und beim mündlichen
Komplettieren von Redewendungen. - Relativ wenig gestört waren das Schreiben-nach-Diktat
und dann auch das schriftliche Benennen (wenngleich die Patientin hier häufiger
semantische Paraphasien produzierte).
In Anlehnung an Blanken und Marini läßt sich die insgesamt gut erhaltene
schriftsprachliche Produktion gegenüber der beeinträchtigten mündlichen Produktion als
generalisierte oder globale Störung der mündlichen Sprachverarbeitung deuten; das
schlägt eben deshalb sowohl in der Spontansprache wie beim Nachsprechen zu Buche.
Die gute Leistung im Schreiben-nach-Diktat kann mit Blanken und Marini zurückgeführt
werden auf die - global gesehen - weitgehend ungestörte prämotorisch-graphomotorische
Weiterverarbeitung einmal aktivierter Konzepte. Hier - beim Diktat - dürfte zudem die
bereits weiter oben (2.2.) angesprochene parallele Aktivation ganzer Felder semantisch
miteinander verwandter Konzepte reduziert sein, - eine solche parallele Aktivation dürfte
eher für Benennaufgaben typisch sein; umgekehrt stehen wohl solche parallelen
semantisch-konzeptuellen Aktivationen im Zusammenwirken mit lokalen bzw. selektiven
Schwierigkeiten der prämotorisch-graphomotorischen Weiterverarbeitung hinter den für das
schriftliche Benennen aufgeführten semantischen Paraphasien.
2.3. Nicht-propositionale Sprache und repetitive Phänomene
2.3.1. Repetitive Phänomene
Unfreiwillige Wiederholungen von sprachlichen Elementen sind ein häufig auftretendes Phänomen in den Äußerungen hirngeschädigter Patienten. Dabei unterscheiden wir u.a. zwischen Echolalien und Palilalien: "Echolalie" meint ein reaktives, automatisches Wiederholen verbaler Stimuli (einzelne Laute oder Silben, manchmal auch sinnvolle wie sinnlose Wörter), wobei auch die sinnvollen Stimuli - soweit das feststellbar ist - ohne Sprachverständnis wiederholt werden; mit "Palilalie" wird ein mehrfaches zwanghaftes Wiederholen von Phrasen und Wörtern mit steigender Sprechgeschwindigkeit und gleichzeitig sinkender Lautstärke bezeichnet [24] .
Echolalien widersprechen den Vorstellungen de Saussures von der untrennbaren Zweiseitigkeit des sprachlichen Zeichens. Und interpretieren wir Palilalien vor dem Hintergrund von Echolalien, so haben wir es auch hier mit einer reinen Repetition gegebenenfalls von Wortformen zu tun, ohne das so etwas wie ein Konzept mit aufgerufen würde. Entsprechende Patienten sind für eine gewisse Zeit gewissermaßen nicht in der Lage, einmal aktivierte prämotorische Programme wieder abzuschalten.
Es bietet sich an, vor dem Hintergrund von Echolalien auch auf andere repetitive
Phänomene näher einzugehen, so auf sog. Stereotypien, wie sie uns gerade bei einer
schweren globalen Aphasie begegenen; solche Repetitionen treten allerdings auch bei
dementiellen Syndromen (so bei einer Alzheimer'schen Erkrankung) auf. "
Stereotypien" werden verschiedentlich auch als Sprachautomatismen oder als recurring
utterances bezeichnet. Sie sind dadurch definiert, daß einzelne sprachliche Segmente
immer wieder in den Äußerungen eines Patienten auftauchen. - Eine Stereotypie kann in
ihrem Umfang variieren: von einer Silbe - so etwa bei Brocas berühmten Patienten
Leborgne, der immer wieder nur die Silbe /tã/ äußerte [25] - bis hin zu einem ganzen
Satz - etwa beim französischen Schriftsteller Valéry Larbaud, der als Patient zeitweise
die Stereotypie "Bonsoir les choses d'ici-bas" produzierte [26].
Huber definiert die Stereotypie "[...] als häufig wiederkehrende formstarre
Äußerungen, die aus neologistischen Silbenabfolgen, beliebigen Wörtern oder Phrasen
bestehen und die weder lexikalisch noch syntaktisch in den sprachlichen Kontext passen und
die der Patient gegen die vom Gesprächspartner erwartete Intention
hervorbringt."[27] Mit anderen Worten sind Stereotypien als rein repetitive
Mechanismen unabhängig von der Semantik bzw. Inhaltsseite der geäußerten Ausdrücke,
soweit es sich dabei überhaupt um bedeutungsvolle Ausdrücke handelt; und sie sind auch
unabhängig von der Äußerungssituation.
2.3.2. Reihungen und Komplettieren bei schweren Formen von Aphasie
In der Sprachpathologie unterscheiden wir zwischen "propositionaler" und dann
"nicht-propositionaler Sprache", die auch etwa bei einer schweren Broca-Aphasie
oder bei Globalaphasikern mehr oder weniger erhalten sein kann.
Während "propositionale Sprache" den Aspekt der Neubildung und der Kreation in
der Spontansprache meint, bedeutet "nicht-propositionales Sprechen" das
reflexhafte "Abspulen" von festen bzw. hoch überlernten Ausdrucksfolgen - in
neuro-biologischer Modellierung das Abarbeiten "fest eingeschliffener
Sequenzen". - Mit den Worten Chomskys stellt "propositionales Sprechen" das
immer neue Anordnen einer endlichen Menge bedeutungsvoller sprachlicher Elemente in einer
sinnvollen syntaktischen Struktur dar [28].
Eben die Neuanordnung bedeutungsvoller Ausdrücke mittels spezifischer grammatischer
Regeln ist es, was in "nicht-propositionaler Sprache" nicht oder nur noch sehr
eingeschränkt begegnet [29] ; in "nichtpropositionaler Sprache" wird die
konventionelle Wortbedeutung in Bezug auf die Ausbildung einer Phrase funktionslos.
Als "nicht-propositionale Sprache" und entsprechend tendenziell auch noch bei
schweren Formen von Aphasie aufrufbar gelten u.a. Reihungen von Wochentagen ("Montag,
Dienstag, Mittwoch...") oder Zahlen ("Eins, zwei, drei,...") oder z.B.
feste Verbindungen wie "Blitz und Donner", "Sonne, Mond und Sterne",
"Messer und Gabel" bzw. "Messer, Gabel, Scher' und Licht". "
Nicht-propositionale Sprache" begegnet auch noch bei schweren und schwersten
Formen von Aphasie. Eine Vielzahl von Patienten lassen sich hier auch dann noch
"deblockieren", wenn sonstige Formen der ("propositionalen")
Sprachverarbeitung schon längst nicht mehr möglich sind; dabei bleiben die Patienten in
Test-Situationen z.T. nur knapp unterhalb der Leistung Gesunder.
In der neurolinguistischen Fachliteratur [30] geht man davon aus, daß
"propositionale Sprache" und damit einbeschlossen der Zugriff auf das Lexikon in
der dominanten Hemisphäre - bei Rechtshändern die linke Hemisphäre - stattfindet;
entsprechend fällt die "propositionale Sprache" bei umfangreicheren Läsionen
im Bereich der sprachrelevanten Regionen der linken Hemisphäre aus. Erhalten bleiben kann
dabei aber die nicht-dominante rechte Hemisphäre und die über die rechte Hemisphäre
prozessierte "nicht-propositionale Sprache".
Um es nochmals ganz deutlich zu machen: Wenn ein gesunder Sprecher auf die Aufforderung
hin, die Wochentage aufzuzählen, zu äußern beginnt "Montag, Dienstag, ...",
dann prozessiert er "propositional". Ein Globalaphasiker ist aber zu einer
solchen Form von Kommunikation und darin eingebundener Sprachverarbeitung nicht mehr in
der Lage; was er gegebenfalls noch kann, ist auf die deblockierende Vorgabe "Montag,
Dienstag ..." hin die Komplettierung zu "... Mittwoch, Donnerstag, Freitag,
...".
Wie läßt sich eine offenbar nicht-lexikalisch basierte "nicht-propositionale Sprache" auf den Zeichenbegriff de Saussure's beziehen? Inwieweit können wir hier überhaupt noch von (sprachlichen) Zeichen sprechen? Oder müssen wir uns mit dem Gedanken anfreunden, daß natürliche Sprachen nicht per se Zeichensysteme sind, daß Äußerungen und die hier geäußerten Ausdrücke nicht per se Zeichencharakter haben, sondern bestenfalls in der Funktion von Zeichen verwendet werden können?
3. "Zwei Seiten eines Blattes" vs. "reziproke Evokation"
De Saussure spricht von der untrennbaren Einheit von Ausdruck und Bedeutung eines sprachlichen Zeichens. Dabei kombiniert er die Vorstellung von der reziproken Evokation mit der Vorstellung von den zwei Seiten eines Blattes Papier. Die obigen Ausführungen - aber nicht nur diese allein - belegen, daß wir die Vorstellung von den zwei Seiten eines Blattes Papier aufgeben müssen.
Was aber auch festzuhalten ist, ist der Umstand, daß die heutige Neurolinguistik die
"reziproke Evokation" bzw. wechselseitige Verknüpfung von so etwas wie Ausdruck
und Bedeutung positiv präzisiert. Genauer scheinen allerdings Bedeutungen,. scheint das
lexikalisch-semantische bzw. konzeptuelle System, nicht mit einer einzigen
"Ausdrucksseite", sondern mit gleich vier ("Ausdrucks-")Modalitäten
verbunden zu sein; und solche Modalitäten ihrerseits sind obendrein untereinander
vielfältig vernetzt.
Konzentriert man sich auf de Saussure's Überlegungen zur "reziproken Evokation"
- und berücksichtigt man zusätzlich den naturgemäß begrenzten neurowissenschaftlichen
Kenntnisstand de Saussure's (er verweist in seinen Ausführungen auf Paul Broca), dann
lassen sich die entsprechenden Überlegungen aus dem "Cours de linguistique
générale" also auch als Vorwegnahme heutiger neurolinguistischer Einsichten lesen.
4. Anmerkungen
* Neurolinguistisches Labor der Universität Freiburg
(http://www.uni-freiburg.de/neurolab)
1 F.d.S.: CLG, p.28s.: "Supposons qu'un concept donné déclanche dans le cerveau une
image acoustique correspondante: c'est un phénomène entièrement psychique, suivi à son
tour d'un procès physiologique[...]"
2 F.d.S.: CLG, p.99: "Le signe linguistique est donc une entité psychique à deux
faces [...] Ces deux éléments sont intimements unis et s'appellent l'un à
l'autre."
3 F.d.S.: CLG, p.23: "[...] deux faces qui se correspondent et dont l'une ne vaut que
par l'autre."
4 F.d.S.: CLG, p.23: "[...] le son, unité complexe acoustico-vocale, forme à son
tour avec l'idée une unité complexe[...]"
5 F.d.S.: CLG, p.32: "[...] c'est un système de signes où il n`y a d'essentiel que
l'union du sens et de l'image acoustique[...]"
6 F.d.S.: CLG, p.157: " La langue est encore comparable à une feuille de papier: la
pensée est le recto et le son le verso; on ne peut découper le recto sans découper en
même temps le verso; de même de la langue, on ne saurait isoler ni le son de la pensée,
ni la pensée du son;[...]"
7 Daß eine jeweilige kindliche Konzeptualisierung von Welt über Sprache dann ganz
entscheidend ausgebaut und verändert wird, ist kein Gegenargument gegen die hier
skizzierte 'unitaristische' Vorstellung eines einheitlichen konzeptuellen Systems. Und es
paßt natürlich auch dazu, daß auf diese Weise die Konzeptualisierung von Welt
gegebenenfalls auch Ausschnitte umfaßt, die nur über Sprache etabliert sind.
8 Positron emission computed tomography: "When radiolabeled compounds are injected in
tracer amounts, their photon emissions can be detected much like x-rays in CT
[roentgen-ray computed tomography]. The images made represent the accumulation of the
labeled compound. The compound may reflect, for example, blood flow, oxygen or glucose
metabolism, or dopamine transporter concentration." (Johnson KA & Becker JA
(1997) The whole brain atlas [Version 1.0] )
9 Die 'semantische' Bearbeitung von Bildmaterialien (Aufrufen und Einordnen eines
zugehörigen Konzepts) und von sprachlichem Material ergab, daß nach Zeit und nach
Lokalisierung in weitestgehend identischer Weise kortikale wie subkortikale Ausschnitte
des Gehirns aktiviert wurden. Vgl. zu Details Caramazza A (1996) Pictures, words, and the
brain. Nature: 383: 216-217. - Vandenberghe R, Price C, Wise R, Josephs O & Frackowiak
RSJ (1996) Functional anatomy of a common semantic system for words and pictures. Nature:
383: 254-256
10 Der Bereich sprachlicher Bedeutungen wäre - darauf bezogen - lediglich ein
Teilbereich; ein Ausschnitt, der diejenigen Konzepte und Konzeptzusammenhänge umfaßt,
die ("auch", vielleicht sogar "nur") an sprachliche Ausdrucksmittel
und Ausdrucksverfahren angeschlossen sind.
11 Vgl. im Detail Schecker M (1986) Lesen lernen - und schreiben? Zu einigen Problemen des
Schriftspracherwerbs. ALSF (Arbeitsberichte der Linguistischen Societät zu Freiburg) 2:
120-149
12 HSK 8; Pure Word Deafness (Verbal Auditory Agnosia); S. 498-503
13 Wernicke C (1874) Der aphasische Symptomencomplex. Eine psychologische Studie auf
antomischer Basis. Breslau: Cohn und Weigert.
14 Kussmaul A (1877) Disturbances of speech. In: von Ziemssen H (Ed.) Cyclopedia of the
practice of medicine: 14: 581-587. New York: William Wood.
15 Nach Poeck tritt das Syndrom auf, wenn die linke Hörstrahlung und jene
Kommissurenfasern des Corpus callosum zerstört werden, die die rechte Hörregion mit der
linken verbinden. "Durch diese Läsion wird das Wenicke-Zentrum, das selbst
unversehrt ist, von akustischen Afferenzen abgetrennt." (Poeck K [1989] Klinische
Neuropsychologie. Stuttgart; New York: Thieme, 273 f.).
16 Vgl. Morton J (1980) The logogen model and orthographic structure. In: Frith (Ed.)
Cognitive Processes in Spelling. London: Adademic Press. - Morton J & Patterson KE
(2.Aufl.1987) A new attempt at an interpretation, or, an attempt at a new interpretation.
In: Coltheart M, Patterson KE & Marshall JC (Eds.) Deep Dyslexia. London: Routledge
and Kegan Paul. - Hatfield FM & Patterson KE (1984) Interpretation of spelling in
aphasia: The impact of recent developments in cognitive psychology. In: Rose FC (Ed.)
Progress in Aphasiology. New York:Raven Press. - Im Überblick Blanken G (1988)
Anmerkungen zur Methodologie der kognitiven Neurolinguistik. Neurolinguistik: 2: 127-147.
17 Fodor JA (1983) The Modularity of Mind. Cambridge:Mass.: MIT-Press. - Garfield JL
(1987) Modularity in Knowledge, Representation, and Natural-Language-Understanding.
Cambridge: Mass.: MIT-Press.
18 Hier DB & Mohr JP (1977) Incongrous oral and written naming. Brain and Language 4:
115-126.
19 Bub D & Kertesz A (1982) Evidence for lexicographic processing in a patient with
preserved written over oral single word naming. Brain 105: 697-717. - Ellis AW, Miller D
& Sin G (1983) Wernicke's aphasia and normal language processing: A case study in
cognitive neuropsychology. Cognition 15: 111-144. - Blanken G (1990) Formal paraphasias: A
single case study. Brain and Language 38: 534-554.
20 Caramazza A & Hillis AE (1990) Where do semantic errors come from? Cortex 26:
95-122.
21 Werden beim Vorlesen "nicht nur Grapheme in Phoneme übersetzt", anders: wird
beim Vorlesen tatsächlich zunächst verstanden und dann mündlich reproduziert, dann gilt
für die mündliche (Re-)Produktion die gleiche Abfolge.
22 Patterson KE & Shewell C (1987) Speak and spell: Dissociations and word-class
effects. In: Coltheart M, Sartori, G & Job R (Eds.) The Cognitive Neuropsychology of
Language. London: Erlbaum.
23 Marini V & Blanken G (1996) Orthographie ohne Phonologie: Ein Fall von
Tiefenagraphie bei neologistischer Jargon-Aphasie. Neurolinguistik: 2: 117-141.
24 Benke Th et al. (1990) Sprachveränderungen bei der Demenz. Fortschritt. Neurol.
Psychiat. 58: 215-223
25 Broca P (1861) Remarques sur le siège de la faculté de langage articulé, suvies
d'une observation d'aphémie (perte de la parole). Bulletin de la Société d'Anatomie 6:
330-357.
26 Alajouanine T (1968) L'aphasie et et le langage pathologique. Paris: Baillière: 75.
27 Huber W & Poeck K et al. (1982) Klinische Neuropsychologie. Stuttgart: Thieme: 72;
82.
28 Chomsky N (1957) Syntactic Structures. The Hague: Mouton.
29 Van Lancker D (1993) Nonpropositional Speech in Aphasia. In: Blanken G et al. (Eds.)
Linguistic Disorders and Pathologies. Berlin, New York: de Gruyter.
30 Cummings JL & Benson DF et al. (1979) Left-to-right transfer of language dominance:
A case study. Neurology 29: 1547-1550. - Landis T & Cummings JL et al. (1980) Le
passage de la dominance du language a l'hemisphere droit: Une interpretation de la
recuperation tardive lors d'aphasies globales. Revue de la Suisse Romande 100: 171-177. -
Knopman DS & Rubens AB et al. (1984) Mechanisms of recovery from aphasia: Evidence
from serial xenon 133 cerebral blood flow studies. Annals of Neurology 15: 530-535. -
Papanicolaou AC & Moore BD et al. (1988) Evidence for right-hemisphere involvement in
revorery from aphasia. Archives of Neurology 45: 1025-1029. - Papanicolaou AC & Moore
BD et al. (1987) Evoked potential correlates of right hemisphere involvement in language
recovery following stroke. Achives of Neurology 44: 521-524.