Working Papers in Neurolinguistics and Neuroscience

Neuro 6:

Manohar Faupel [*], Michael Schecker [*] : Ausdruck und Bedeutung - Ansätze zu einer neurolinguistischen Revision der Vorstellungen de Saussure's vom sprachlichen Zeichen (1999)

Überblick

Zusammenfassung
1. Saussure und das sprachliche Zeichen
2. Negative Evidenzen

3. "Zwei Seiten eines Blattes" vs. "reziproke Evokation"
4. Anmerkungen

Zusammenfassung

Unsere Ausführungen greifen die Saussure'schen Überlegungen zur Zweiseitigkeit sprachlicher Zeichen auf. Hier kombiniert de Saussure die Vorstellung einer wechselseitigen Verknüpfung (reziproke Evokation) mit der Vorstellung von der Vorder- und Rückseite eines Blattes Papier als Bild für die untrennbare Einheit von Ausdruck und Bedeutung.
Wir liefern eine Vielzahl negativer empirischer Evidenzen, was die untrennbare Einheit von Ausdruck und Bedeutung angeht. Die Belege erlauben es sogar, ganz generell Zweifel am Zeichencharakter sprachlicher Ausdrücke zu äußern.
Nicht betroffen ist allerdings eine modern reinterpretierte und weiter gedachte reziproke Evokation der verschiedenen sprachlichen Verarbeitungsmodalitäten und eines unitaristisch verstandenen lexikalisch-semantischen bzw. konzeptuellen System, das im übrigen nicht nur den konzeptuellen Hintergrund für die Sprachverarbeitung sondern auch z.B. für die sensorische Identifiktion und Interpretation von Welt ganz generell darstellt.

1. Saussure und das sprachliche Zeichen

Nach der Auffassung von F. de Saussure stellt das sprachliche Zeichen keineswegs eine materielle, sondern vielmehr eine psychische Realiät dar [1] . Damit stellt es eine vermittelnde kognitive Instanz dar, oder um es dynamisch zu formulieren: das sprachliche Zeichen im Sinne de Saussures ist ein kognitiver Vermittlungsprozess.

Das sprachliche Zeichen bei de Saussure besteht aus einem Ausdruck (z.B. image acoustique) und seiner Bedeutung (concept). Beide sind wechselseitig über automatisierte Assoziationen aufeinander bezogen (reziproke Evokation [2] ).
Saussure definiert in verschiedenen Formulierungen die Beziehung von Ausdruck und Bedeutung eines sprachlichen Zeichens: Zwei Seiten, die sich entsprechen, und deren eine ohne die andere nichts wert sei [3] ; eine komplexe prämotorisch-phonologische "Form", die sich ihrerseits mit einer "Idee" (der "Idee" z.B. eines realen Gegenstandes) zu einer neuen, qualitativ anderen komplexen Einheit verbinde [4] . Oder er spricht von Sprache als einem System von Zeichen, bei denen nur die Verbindung von (Ausdrucks-)Form (image acoustique) und Bedeutung (sens) relevant sei [5] .
Ausdruck und Bedeutung eines sprachlichen Zeichens seien - so de Saussure mit einem Blatt Papier vergleichbar, dessen Vorderseite dem Denken (la pensée) und dessen Rückseite der Lautkette (le son) entspreche. Genauso wenig, wie man die Vorderseite zerschneiden könne, ohne die Rückseite damit zu zerschneiden, genau so wenig sei es möglich, die Inhaltsseite von der Ausdrucksseite und vice versa zu isolieren.[6]

2. Negative Evidenzen

Sind in der Tat Ausdruck (image) und Bedeutung (concept) im Kopf so untrennbar miteinander verbunden, wie sich das de Saussure vorzustellen scheint? Die empirische Neurolinguistik der 80er und 90er-Jahre liefert eine Reihe von Evidenzen, aufgrund derer Zweifel an den Saussureschen Dikta angemeldet werden müssen.

2.1. Sprachliche "Modalitäten"

In realer Sprachverarbeitung müssen wir verschiedene Modalitäten der Sprachverarbeitung bzw. "Ausdrucksqualitäten" unterscheiden, die - so der heutige Stand der Neurolingistik - auf ein- und dasselbe (lexikalisch-)semantische bzw. konzeptuelle System bezogen sind; - sowohl frühe Phasen des Spracherwerbs, in denen Sprache an eine zu diesem Zeitpunkt längst bestehende Konzeptualisierung von Welt 'angehängt' wird [7] , wie auch neueste PET-Untersuchungen [8] zur Sprachverarbeitung gesunder Erwachsener [9] ergeben empirische Evidenz für eine solche 'unitaristische' Sichtweise [10] .
Was die verschiedenen Modalitäten der Sprachverarbeitung angeht, so haben wir es einmal mit auditiven sensorischen Mustern zu tun, die es uns erlauben, bestimmte Schallereignisse - aufbauend auf einer akustischen Analyse - als Realisierung dieser oder jener Sprachlaute zu identifizieren. Zweitens verfügen wir über ganzheitlich organisierte motorische Impulsmuster, die beim Sprechen - vermittelt über primär motorische Kortexareale - die Muskeln der Artikulatorik enervieren und es uns - weil automatisiert und überlernt - erlauben, mit einer Geschwindigkeit von bis zu 15 Phonemen und mehr pro Sekunde zu sprechen.
Drittens schließlich vermögen wir auf der Basis spezifischer visueller Merkmalsanalysen (so z.B. beim ganzheitlichen Lesen) und/oder auf der Basis einer langfristigen Speicherung spezifischer visueller Muster etwas als Schriftzüge bzw. als Abfolge von Graphemen zu identifizieren. Und schließlich und endlich sind wir als Schriftkundige in der Lage, mehr oder weniger hoch automatisiert und überlernt unsere 'Graphomotorik' zu steuern und zu schreiben (ganz gleich, ob das auf einer Tastatur oder handschriftlich geschieht).

Beim Lesen- und Schreiben-Lernen spielen die oben skizzierten Modalitäten und ihre Vernetzung untereinander eine wichtige Rolle. Im gesteuerten (schulischen) Lese-Erwerb beispielsweise wird zunächst - aufbauend auf einer Analyse in Grapheme und Graphemfolgen - die Übersetzung in gesprochene Sprache geübt (Graphem-Phonem-Übersetzung); anders gesagt wird Lesen in aller Regel zunächst in Form des Vorlesens eingeübt - Eine vergleichbar wichtige Vorstufe beim spontanen Schreiben bildet das nach-Diktat-Schreiben [11] .

Wie lassen sich die vier oben skizzierten "Ausdrucksqualitäten" bzw. Modalitäten der Sprachverarbeitung zusammendenken mit dem Bild de Saussures von der Vorder- und Rückseite eines Blattes Papier? Das würde ja eine Vorderseite mit vier Rückseiten (oder eine Rückseite mit vier Vorderseiten) bedeuten!

2.2. Pathologische "Dissoziationen"

Die Unterteilung in sprachliche Modalitäten läßt sich gut mit sprachpathologischen Daten stützen. Im Rahmen von Aphasien begegnen zuhauf selektive Störungsmuster, bei denen einige der Modalitäten teilweise völlig ausfallen, andere hingegen gut erhalten sind. In der linguistischen Aphasiologie sprechen wir hier von Fraktionierung.
Liegen krasse Leistungsunterschiede vor, so sprechen wir auch von Dissoziation (zu Beispielen gleich unten). Ist beispielsweise bei einem Patienten A das (spontane) Sprechen erhalten, das Hören/Hörverstehen aber weitgehend gestört, so handelt es sich (genauer) um eine einseitige Disszoziation; findet sich parallel dazu ein Patienten B, bei dem das Hörverstehen und vielleicht auch Schreiben und Lesen/Leseverstehen erhalten sind, das spontane Sprechen aber weitestgehend ausgefallen ist, dann sprechen wir von einer doppelten Dissoziation von Sprechen und Hören/Hörverstehen.

2.2.1. Das Störungsmuster der "reinen Worttaubheit" [12]

Im Gefolge einer organischen Läsion im linken Schläfenlappen begegnet des öfteren die sog. "reine Worttaubheit" (in der englischsprachigen Fachliteratur "pure word deafness), - ein Syndrom, das wohl zuerst von Wernicke (1874) [13] und Kussmaul (1877) [14] beschrieben wurde.
Patienten mit einer "reinen Worttaubheit" können akustische Stimuli, die nicht sprachlich kodiert sind, unverändert erkennen und zuordnen. Auch bleibt u.a. die Fähigkeit, zu sprechen, mehr oder weniger erhalten, ganz zu schweigen vom Schreiben und Lesen/Leseverstehen.

"Reine Worttaubheit" darf nicht mit der "auditiven Agnosie" (in der englischsprachigen Fachliteratur auch "auditory [sound] agnosia") verwechselt werden, bei der tendenziell sowohl die Fähigkeit, sprachliche Schallereignisse als solche zu erkennen, wie auch die Fähigkeit, sonstige Geräusche zu identifizieren, gestört sind. Und beide Syndrome - "reine Worttaubheit" und "auditive Agnosie" - müssen von einer Störung grundlegender auditiver Analyseprozesse unterschieden werden (in der englischsprachigen Fachliteratur "cortical deafness"), die (funktional) häufig zu einem vollständigen Verlust des Gehörs führen.

Etwas holzschnittartig vereinfacht bedeutet das Syndrom der "reinen Worttaubheit", daß die Analyse von Geräuschen gelingt, daß solche - gegebenenfalls präzise beschreibbaren - Geräusche aber nicht mehr als Sprachlaute bzw. Wortformen identifiziert werden können; die musterhaft gespeicherten Wortformen sind nicht mehr zugänglich.[15] . Da entsprechende Patienten aber mehr oder weniger ungestört sprechen können (und auch Schreiben und Lesen gut erhalten sein können), müssen die 'Konzepte' bzw. muß das (lexikalisch-)semantische System nach wie vor verfügbar sein.
Konzentrieren wir uns auf das Verhältnis von konzeptuellem System und (rezeptiver) auditiver Wortform, so bedeutet das gut dokumentierte Störungsmuster der "reinen Worttaubheit" negative empirische Evidenz gegen die de Saussure'sche Metapher des Papierblattes, dessen Vorderseite man nicht zerschneiden könne, ohne auch die Rückseite zu zerschneiden - und vice versa.

Dissoziationen der oben skizzierten Art bedeuten positive empirische Evidenz für die Annahme einer (weitestgehend) autonomen Speicherung der betroffenen (Teil-)Funktionen im menschlichen Gehirn [16] ; wir sprechen hier auch von Modularität bzw. der modularen Organisation der menschlichen Sprachverarbeitung [17] .

Um den zentralen Problembereich noch einmal zu verdeutlichen: Selbstverständlich müssen wir für den gesunden native and educated speaker davon ausgehen, daß die oben skizzierten Modalitäten bzw. modalitätsspezifischen Verarbeitungsweisen untereinander hoch vernetzt sind. Gut erforscht ist z.B. die aus dem Schriftspracherwerb resultierende Kopplung von Lesen und Sprechen auch noch bei erwachsenen Probanden (vgl. dazu schon weiter oben): Auch beim stillen Lesen scheint - gegebenenfalls nur über eine Messung der Aktivation von Motorneuronen feststellbar - die Artikulatorik beteiligt; - wenn ich meine Studenten beim Entziffern eines schwierigen Fachtextes beobachte, so kann ich regelrecht artikulatorische Bewegungen beobachten.
Eine solche Vernetzung bedeutet aber nicht, daß es sich bei den entsprechenden Verarbeitungsroutinen um ein- und dieselbe Verarbeitung, um ein- und dieselbe Ausdrucksseite - um die "eine" Ausdrucksseite - eines sprachlichen Zeichens handelt. Wie aber soll das im Sinne der Metapher de Saussures zusammengedacht werden?

2.2.2. Selektive Störungen des Benennens

Hier & Mohr (1977) [18] stellen als Patienten einen 28jährigen LKW-Fahrer mit einer flüssigen Aphasie (nach Hier & Mohr eine Wernicke-Aphasie) vor, der durch schwere mündliche Benennstörungen auffiel; ganz anders sah es mit seinen Leistungen im schriftlichen Benennen aus. - Was die Produktion komplexerer Äußerungen angeht, so war seine mündliche Spontanproduktion relativ unauffällig, dabei aber gekennzeichnet durch semantische Paraphasien und Wortfindungsstörungen (zu solchen Defiziten gleich mehr). - Eine schriftliche Produktion komplexerer Äußerungen war ihm nicht möglich.
Über gleichartige Dissoziationen berichten Bub & Kertesz (1982), Ellis, Miller & Sin (1983) und Blanken (1990) [19] . Dabei steht stets das unterschiedliche Leistungsniveau im mündlichen und schriftlichen Benennen im Vordergrund, gekoppelt dann allerdings mit weiteren individuellen Leistungseinbrüchen.

Caramazza & Hillis (1990) [20] berichten über zwei Patienten, die zwar mündlich benennen konnten, dabei aber - und tendenziell auch beim Vorlesen - gehäuft semantische Paraphasien bzw. semantisch relationierte oder motivierbare Fehler produzierten (= mündliche Produktion). Hingegen waren weder für das Hören/Hörverstehen noch das Lesen/Leseverstehen semantische Fehler zu belegen; und auch in Schreibaufgaben (Schreiben-nach-Diktat, schriftliches Benennen) waren die beiden Patienten weitgehend unbeeinträchtigt.
Wie lassen sich solche (rein mündlichen) semantischen Paraphsien erklären? Wenn wir mit Caramazza und Hillis hier den üblichen Sprachproduktionsvorstellungen folgen, dann werden beim mündlichen Benennen zunächst einmal (lexikalisch-)semantische Konzepte aktiviert [21] (das [lexikalisch-] semantische bzw. konzeptuelle System muß - bei Voraussetzung einer unitaristischen Sichtweise - intakt sein, da in anderen Modalitäten eben keinerlei semantische Fehlleistungen auftraten). Auf der Basis einer solchen Aktivation - wahrscheinlich stets eines ganzen Feldes von semantisch verwandten Konzepten - kommt es nun zur Aktivation einer passenden Wortform, beim mündlichen Benennen eines ganzheitlichen prämotorisch-artikulatorischen Impulsmuster. Ist ein solcher Verarbeitungsprozeß der Weiterverarbeitung der Aktivation eines höchst-favorisierten Konzepts A selektiv oder lokal gestört, so können sich semantisch verwandte Konzepte B oder C im Rahmen der prämotorisch-artikulatorischen Weiterverarbeitung durchsetzen, und es kommt zu den besagten semantisch relationierten Fehlleistungen.

2.2.3. Modalitätsspezifische Ausprägung eines aphasischen Syndroms

Patterson und Shewell (1987) [22] beschreiben eine Patientin - mündlich mit einer Wernicke-Aphasie: Ihre mündliche Spontansprache war flüssig und beinhaltete sehr viel Funktionswörter gegenüber wenigen Inhaltswörtern. Jedoch zeigte sie im nach-Diktat-schreiben ein gänzlich anderes Muster: Hier war das Verhältnis der korrekten Funktionswörter und der korrekten Inhaltswörtern umgedreht, d.h. sie schnitt bei den Inhaltswörtern prozentual deutlich besser ab.

Marini und Blanken (1996) [23] beschreiben ebenfalls eine Patientin mit einer schweren Wernicke-Aphasie und ausgesprochen modalitätsspezifischen Leistungsdefiziten. Auch hier ist die mündliche Spontansprache flüssig und syntaktisch relativ gut strukturiert (viele höchstfrequente und unspezifische Funktionswörter); sie beinhaltet aber kaum Inhaltswörter. - In den Nachsprechleistungen waren beide Bereiche (Funktions- und Inhaltswörter) schwer gestört, ebenso beim mündlichen Benennen und beim mündlichen Komplettieren von Redewendungen. - Relativ wenig gestört waren das Schreiben-nach-Diktat und dann auch das schriftliche Benennen (wenngleich die Patientin hier häufiger semantische Paraphasien produzierte).
In Anlehnung an Blanken und Marini läßt sich die insgesamt gut erhaltene schriftsprachliche Produktion gegenüber der beeinträchtigten mündlichen Produktion als generalisierte oder globale Störung der mündlichen Sprachverarbeitung deuten; das schlägt eben deshalb sowohl in der Spontansprache wie beim Nachsprechen zu Buche.
Die gute Leistung im Schreiben-nach-Diktat kann mit Blanken und Marini zurückgeführt werden auf die - global gesehen - weitgehend ungestörte prämotorisch-graphomotorische Weiterverarbeitung einmal aktivierter Konzepte. Hier - beim Diktat - dürfte zudem die bereits weiter oben (2.2.) angesprochene parallele Aktivation ganzer Felder semantisch miteinander verwandter Konzepte reduziert sein, - eine solche parallele Aktivation dürfte eher für Benennaufgaben typisch sein; umgekehrt stehen wohl solche parallelen semantisch-konzeptuellen Aktivationen im Zusammenwirken mit lokalen bzw. selektiven Schwierigkeiten der prämotorisch-graphomotorischen Weiterverarbeitung hinter den für das schriftliche Benennen aufgeführten semantischen Paraphasien.

2.3. Nicht-propositionale Sprache und repetitive Phänomene

2.3.1. Repetitive Phänomene

Unfreiwillige Wiederholungen von sprachlichen Elementen sind ein häufig auftretendes Phänomen in den Äußerungen hirngeschädigter Patienten. Dabei unterscheiden wir u.a. zwischen Echolalien und Palilalien: "Echolalie" meint ein reaktives, automatisches Wiederholen verbaler Stimuli (einzelne Laute oder Silben, manchmal auch sinnvolle wie sinnlose Wörter), wobei auch die sinnvollen Stimuli - soweit das feststellbar ist - ohne Sprachverständnis wiederholt werden; mit "Palilalie" wird ein mehrfaches zwanghaftes Wiederholen von Phrasen und Wörtern mit steigender Sprechgeschwindigkeit und gleichzeitig sinkender Lautstärke bezeichnet [24] .

Echolalien widersprechen den Vorstellungen de Saussures von der untrennbaren Zweiseitigkeit des sprachlichen Zeichens. Und interpretieren wir Palilalien vor dem Hintergrund von Echolalien, so haben wir es auch hier mit einer reinen Repetition gegebenenfalls von Wortformen zu tun, ohne das so etwas wie ein Konzept mit aufgerufen würde. Entsprechende Patienten sind für eine gewisse Zeit gewissermaßen nicht in der Lage, einmal aktivierte prämotorische Programme wieder abzuschalten.

Es bietet sich an, vor dem Hintergrund von Echolalien auch auf andere repetitive Phänomene näher einzugehen, so auf sog. Stereotypien, wie sie uns gerade bei einer schweren globalen Aphasie begegenen; solche Repetitionen treten allerdings auch bei dementiellen Syndromen (so bei einer Alzheimer'schen Erkrankung) auf. "
Stereotypien" werden verschiedentlich auch als Sprachautomatismen oder als recurring utterances bezeichnet. Sie sind dadurch definiert, daß einzelne sprachliche Segmente immer wieder in den Äußerungen eines Patienten auftauchen. - Eine Stereotypie kann in ihrem Umfang variieren: von einer Silbe - so etwa bei Brocas berühmten Patienten Leborgne, der immer wieder nur die Silbe /tã/ äußerte [25] - bis hin zu einem ganzen Satz - etwa beim französischen Schriftsteller Valéry Larbaud, der als Patient zeitweise die Stereotypie "Bonsoir les choses d'ici-bas" produzierte [26].
Huber definiert die Stereotypie "[...] als häufig wiederkehrende formstarre Äußerungen, die aus neologistischen Silbenabfolgen, beliebigen Wörtern oder Phrasen bestehen und die weder lexikalisch noch syntaktisch in den sprachlichen Kontext passen und die der Patient gegen die vom Gesprächspartner erwartete Intention hervorbringt."[27] Mit anderen Worten sind Stereotypien als rein repetitive Mechanismen unabhängig von der Semantik bzw. Inhaltsseite der geäußerten Ausdrücke, soweit es sich dabei überhaupt um bedeutungsvolle Ausdrücke handelt; und sie sind auch unabhängig von der Äußerungssituation.

2.3.2. Reihungen und Komplettieren bei schweren Formen von Aphasie

In der Sprachpathologie unterscheiden wir zwischen "propositionaler" und dann "nicht-propositionaler Sprache", die auch etwa bei einer schweren Broca-Aphasie oder bei Globalaphasikern mehr oder weniger erhalten sein kann.
Während "propositionale Sprache" den Aspekt der Neubildung und der Kreation in der Spontansprache meint, bedeutet "nicht-propositionales Sprechen" das reflexhafte "Abspulen" von festen bzw. hoch überlernten Ausdrucksfolgen - in neuro-biologischer Modellierung das Abarbeiten "fest eingeschliffener Sequenzen". - Mit den Worten Chomskys stellt "propositionales Sprechen" das immer neue Anordnen einer endlichen Menge bedeutungsvoller sprachlicher Elemente in einer sinnvollen syntaktischen Struktur dar [28].
Eben die Neuanordnung bedeutungsvoller Ausdrücke mittels spezifischer grammatischer Regeln ist es, was in "nicht-propositionaler Sprache" nicht oder nur noch sehr eingeschränkt begegnet [29] ; in "nichtpropositionaler Sprache" wird die konventionelle Wortbedeutung in Bezug auf die Ausbildung einer Phrase funktionslos.
Als "nicht-propositionale Sprache" und entsprechend tendenziell auch noch bei schweren Formen von Aphasie aufrufbar gelten u.a. Reihungen von Wochentagen ("Montag, Dienstag, Mittwoch...") oder Zahlen ("Eins, zwei, drei,...") oder z.B. feste Verbindungen wie "Blitz und Donner", "Sonne, Mond und Sterne", "Messer und Gabel" bzw. "Messer, Gabel, Scher' und Licht". "

Nicht-propositionale Sprache" begegnet auch noch bei schweren und schwersten Formen von Aphasie. Eine Vielzahl von Patienten lassen sich hier auch dann noch "deblockieren", wenn sonstige Formen der ("propositionalen") Sprachverarbeitung schon längst nicht mehr möglich sind; dabei bleiben die Patienten in Test-Situationen z.T. nur knapp unterhalb der Leistung Gesunder.
In der neurolinguistischen Fachliteratur [30] geht man davon aus, daß "propositionale Sprache" und damit einbeschlossen der Zugriff auf das Lexikon in der dominanten Hemisphäre - bei Rechtshändern die linke Hemisphäre - stattfindet; entsprechend fällt die "propositionale Sprache" bei umfangreicheren Läsionen im Bereich der sprachrelevanten Regionen der linken Hemisphäre aus. Erhalten bleiben kann dabei aber die nicht-dominante rechte Hemisphäre und die über die rechte Hemisphäre prozessierte "nicht-propositionale Sprache".
Um es nochmals ganz deutlich zu machen: Wenn ein gesunder Sprecher auf die Aufforderung hin, die Wochentage aufzuzählen, zu äußern beginnt "Montag, Dienstag, ...", dann prozessiert er "propositional". Ein Globalaphasiker ist aber zu einer solchen Form von Kommunikation und darin eingebundener Sprachverarbeitung nicht mehr in der Lage; was er gegebenfalls noch kann, ist auf die deblockierende Vorgabe "Montag, Dienstag ..." hin die Komplettierung zu "... Mittwoch, Donnerstag, Freitag, ...".

Wie läßt sich eine offenbar nicht-lexikalisch basierte "nicht-propositionale Sprache" auf den Zeichenbegriff de Saussure's beziehen? Inwieweit können wir hier überhaupt noch von (sprachlichen) Zeichen sprechen? Oder müssen wir uns mit dem Gedanken anfreunden, daß natürliche Sprachen nicht per se Zeichensysteme sind, daß Äußerungen und die hier geäußerten Ausdrücke nicht per se Zeichencharakter haben, sondern bestenfalls in der Funktion von Zeichen verwendet werden können?

3. "Zwei Seiten eines Blattes" vs. "reziproke Evokation"

De Saussure spricht von der untrennbaren Einheit von Ausdruck und Bedeutung eines sprachlichen Zeichens. Dabei kombiniert er die Vorstellung von der reziproken Evokation mit der Vorstellung von den zwei Seiten eines Blattes Papier. Die obigen Ausführungen - aber nicht nur diese allein - belegen, daß wir die Vorstellung von den zwei Seiten eines Blattes Papier aufgeben müssen.

Was aber auch festzuhalten ist, ist der Umstand, daß die heutige Neurolinguistik die "reziproke Evokation" bzw. wechselseitige Verknüpfung von so etwas wie Ausdruck und Bedeutung positiv präzisiert. Genauer scheinen allerdings Bedeutungen,. scheint das lexikalisch-semantische bzw. konzeptuelle System, nicht mit einer einzigen "Ausdrucksseite", sondern mit gleich vier ("Ausdrucks-")Modalitäten verbunden zu sein; und solche Modalitäten ihrerseits sind obendrein untereinander vielfältig vernetzt.
Konzentriert man sich auf de Saussure's Überlegungen zur "reziproken Evokation" - und berücksichtigt man zusätzlich den naturgemäß begrenzten neurowissenschaftlichen Kenntnisstand de Saussure's (er verweist in seinen Ausführungen auf Paul Broca), dann lassen sich die entsprechenden Überlegungen aus dem "Cours de linguistique générale" also auch als Vorwegnahme heutiger neurolinguistischer Einsichten lesen.

4. Anmerkungen

* Neurolinguistisches Labor der Universität Freiburg (http://www.uni-freiburg.de/neurolab)
1 F.d.S.: CLG, p.28s.: "Supposons qu'un concept donné déclanche dans le cerveau une image acoustique correspondante: c'est un phénomène entièrement psychique, suivi à son tour d'un procès physiologique[...]"
2 F.d.S.: CLG, p.99: "Le signe linguistique est donc une entité psychique à deux faces [...] Ces deux éléments sont intimements unis et s'appellent l'un à l'autre."
3 F.d.S.: CLG, p.23: "[...] deux faces qui se correspondent et dont l'une ne vaut que par l'autre."
4 F.d.S.: CLG, p.23: "[...] le son, unité complexe acoustico-vocale, forme à son tour avec l'idée une unité complexe[...]"
5 F.d.S.: CLG, p.32: "[...] c'est un système de signes où il n`y a d'essentiel que l'union du sens et de l'image acoustique[...]"
6 F.d.S.: CLG, p.157: " La langue est encore comparable à une feuille de papier: la pensée est le recto et le son le verso; on ne peut découper le recto sans découper en même temps le verso; de même de la langue, on ne saurait isoler ni le son de la pensée, ni la pensée du son;[...]"
7 Daß eine jeweilige kindliche Konzeptualisierung von Welt über Sprache dann ganz entscheidend ausgebaut und verändert wird, ist kein Gegenargument gegen die hier skizzierte 'unitaristische' Vorstellung eines einheitlichen konzeptuellen Systems. Und es paßt natürlich auch dazu, daß auf diese Weise die Konzeptualisierung von Welt gegebenenfalls auch Ausschnitte umfaßt, die nur über Sprache etabliert sind.
8 Positron emission computed tomography: "When radiolabeled compounds are injected in tracer amounts, their photon emissions can be detected much like x-rays in CT [roentgen-ray computed tomography]. The images made represent the accumulation of the labeled compound. The compound may reflect, for example, blood flow, oxygen or glucose metabolism, or dopamine transporter concentration." (Johnson KA & Becker JA (1997) The whole brain atlas [Version 1.0] )
9 Die 'semantische' Bearbeitung von Bildmaterialien (Aufrufen und Einordnen eines zugehörigen Konzepts) und von sprachlichem Material ergab, daß nach Zeit und nach Lokalisierung in weitestgehend identischer Weise kortikale wie subkortikale Ausschnitte des Gehirns aktiviert wurden. Vgl. zu Details Caramazza A (1996) Pictures, words, and the brain. Nature: 383: 216-217. - Vandenberghe R, Price C, Wise R, Josephs O & Frackowiak RSJ (1996) Functional anatomy of a common semantic system for words and pictures. Nature: 383: 254-256
10 Der Bereich sprachlicher Bedeutungen wäre - darauf bezogen - lediglich ein Teilbereich; ein Ausschnitt, der diejenigen Konzepte und Konzeptzusammenhänge umfaßt, die ("auch", vielleicht sogar "nur") an sprachliche Ausdrucksmittel und Ausdrucksverfahren angeschlossen sind.
11 Vgl. im Detail Schecker M (1986) Lesen lernen - und schreiben? Zu einigen Problemen des Schriftspracherwerbs. ALSF (Arbeitsberichte der Linguistischen Societät zu Freiburg) 2: 120-149
12 HSK 8; Pure Word Deafness (Verbal Auditory Agnosia); S. 498-503
13 Wernicke C (1874) Der aphasische Symptomencomplex. Eine psychologische Studie auf antomischer Basis. Breslau: Cohn und Weigert.
14 Kussmaul A (1877) Disturbances of speech. In: von Ziemssen H (Ed.) Cyclopedia of the practice of medicine: 14: 581-587. New York: William Wood.
15 Nach Poeck tritt das Syndrom auf, wenn die linke Hörstrahlung und jene Kommissurenfasern des Corpus callosum zerstört werden, die die rechte Hörregion mit der linken verbinden. "Durch diese Läsion wird das Wenicke-Zentrum, das selbst unversehrt ist, von akustischen Afferenzen abgetrennt." (Poeck K [1989] Klinische Neuropsychologie. Stuttgart; New York: Thieme, 273 f.).
16 Vgl. Morton J (1980) The logogen model and orthographic structure. In: Frith (Ed.) Cognitive Processes in Spelling. London: Adademic Press. - Morton J & Patterson KE (2.Aufl.1987) A new attempt at an interpretation, or, an attempt at a new interpretation. In: Coltheart M, Patterson KE & Marshall JC (Eds.) Deep Dyslexia. London: Routledge and Kegan Paul. - Hatfield FM & Patterson KE (1984) Interpretation of spelling in aphasia: The impact of recent developments in cognitive psychology. In: Rose FC (Ed.) Progress in Aphasiology. New York:Raven Press. - Im Überblick Blanken G (1988) Anmerkungen zur Methodologie der kognitiven Neurolinguistik. Neurolinguistik: 2: 127-147.
17 Fodor JA (1983) The Modularity of Mind. Cambridge:Mass.: MIT-Press. - Garfield JL (1987) Modularity in Knowledge, Representation, and Natural-Language-Understanding. Cambridge: Mass.: MIT-Press.
18 Hier DB & Mohr JP (1977) Incongrous oral and written naming. Brain and Language 4: 115-126.
19 Bub D & Kertesz A (1982) Evidence for lexicographic processing in a patient with preserved written over oral single word naming. Brain 105: 697-717. - Ellis AW, Miller D & Sin G (1983) Wernicke's aphasia and normal language processing: A case study in cognitive neuropsychology. Cognition 15: 111-144. - Blanken G (1990) Formal paraphasias: A single case study. Brain and Language 38: 534-554.
20 Caramazza A & Hillis AE (1990) Where do semantic errors come from? Cortex 26: 95-122.
21 Werden beim Vorlesen "nicht nur Grapheme in Phoneme übersetzt", anders: wird beim Vorlesen tatsächlich zunächst verstanden und dann mündlich reproduziert, dann gilt für die mündliche (Re-)Produktion die gleiche Abfolge.
22 Patterson KE & Shewell C (1987) Speak and spell: Dissociations and word-class effects. In: Coltheart M, Sartori, G & Job R (Eds.) The Cognitive Neuropsychology of Language. London: Erlbaum.
23 Marini V & Blanken G (1996) Orthographie ohne Phonologie: Ein Fall von Tiefenagraphie bei neologistischer Jargon-Aphasie. Neurolinguistik: 2: 117-141.
24 Benke Th et al. (1990) Sprachveränderungen bei der Demenz. Fortschritt. Neurol. Psychiat. 58: 215-223
25 Broca P (1861) Remarques sur le siège de la faculté de langage articulé, suvies d'une observation d'aphémie (perte de la parole). Bulletin de la Société d'Anatomie 6: 330-357.
26 Alajouanine T (1968) L'aphasie et et le langage pathologique. Paris: Baillière: 75.
27 Huber W & Poeck K et al. (1982) Klinische Neuropsychologie. Stuttgart: Thieme: 72; 82.
28 Chomsky N (1957) Syntactic Structures. The Hague: Mouton.
29 Van Lancker D (1993) Nonpropositional Speech in Aphasia. In: Blanken G et al. (Eds.) Linguistic Disorders and Pathologies. Berlin, New York: de Gruyter.
30 Cummings JL & Benson DF et al. (1979) Left-to-right transfer of language dominance: A case study. Neurology 29: 1547-1550. - Landis T & Cummings JL et al. (1980) Le passage de la dominance du language a l'hemisphere droit: Une interpretation de la recuperation tardive lors d'aphasies globales. Revue de la Suisse Romande 100: 171-177. - Knopman DS & Rubens AB et al. (1984) Mechanisms of recovery from aphasia: Evidence from serial xenon 133 cerebral blood flow studies. Annals of Neurology 15: 530-535. - Papanicolaou AC & Moore BD et al. (1988) Evidence for right-hemisphere involvement in revorery from aphasia. Archives of Neurology 45: 1025-1029. - Papanicolaou AC & Moore BD et al. (1987) Evoked potential correlates of right hemisphere involvement in language recovery following stroke. Achives of Neurology 44: 521-524.