2.tes interdisziplinäres Kolloquium
Am 24. Februar 1999 fand im Senatsaal der Albert-Ludwigs-Universität Freiburg i.Br.
das 2.te Neurokolloquium "Neuronale Modellierung" statt. Die Veranstaltung wurde
von Novartis Deutschland finanziell unterstützt.
Teilnehmer waren u.a. Frau Prof. Dr.med. Nitsch, Basel (Anatomie - Neuroanatomie), Herr
Prof. Dr. med. Radü, Basel (Radiologie - Neuroimaging). Frau PD Dr. Franceschini, Basel
(Sprachwissenschaft), Herrn Prof. Dr. Lüdi, Basel (Sprachwissenschaft), Herr Dr. M.med.
Hofmann, Basel (Psychiatrie - Neuropsychiatrie), Herr Prof. Dr. A. Aertsen, Freiburg
(Biologie - Neurobiologie), Herr Prof. Dr. H.-C. Spatz, Freiburg (Biologie -
Neurobiologie), Herr Prof. Dr.med. Frotscher, Freiburg (Anatomie - Neuroanatomie), Herr
Prof. Dr.med. Bauer, Freiburg (Psychiatrie - Neuropsychiatrie), Herr PD Dr.med.
Gebicke-Härter, Freiburg (Psychiatrie - Neurobiologie/Neurochemie), Herr Dr.med. M.
Hüll, Freiburg (Psychiatrie - Neuropsychiatrie), Herr PD Dr. M. Schecker,
Sprachwissenschaft - Neurolinguistisches Labor, und Herr Prof. Dr. G. Kochendörfer,
ebenfalls Neurolinguistisches Labor.
Die folgenden Fragestellungen waren als Themen vorgeschlagen; abgehandelt wurde dann
jedoch nur die Fragestellung 3:
(1) Zunächst zum Stichwort "Kodierung": Im Rahmen neuronaler
Modellvorstellungen wird immer wieder von Kodierung gesprochen; das impliziert den
Unterschied von Code und kodierter Information und setzt neben einer kodierenden Instanz
eine dekodierende Instanz voraus.
Für zentrale Prozesse der Sprachverarbeitung möchten wir hypothetisch zunächst die
Unterscheidung von periphären und zentralen Prozessen des Gehirns einbringen. Ich weiß
nicht, ob wir hier zu 'unbedarft' vorgehen, aber wir würden das versuchsweise an den
(soweit uns bekannt) recht unterschiedlichen Frequenzen festmachen, mit denen periphär
(bis zu 600 Hz und mehr) und zentral (um die 10 bis 15 Hz) gearbeitet wird.
Setzt man 'Feuerfrequenzen' von 600 Hz und mehr an, dann läßt sich unproblematisch davon
ausgehen, daß eine jeweilige Information frequenzkodiert ist/wird (zur Begründung gleich
unten).
Bei zentralen Prozessen der Sprachverarbeitung (z.B. bei der Verarbeitung von Phonemen)
müssen wir die Sprechgeschwindigkeit eines normalen (gesunden) native speaker in Rechnung
stellen, der ohne größere Probleme bis zu 15 Kurzvokal- und Konsonanten-Phoneme pro
Sekunde verarbeiten kann (rezeptiv wie produktiv). Wenn wir jetzt des weiteren von
Feuerfrequenzen um die 10 bis 15 Hz ausgehen, dann ist vor diesem Hintergrund u.E.
Frequenzkodierung nicht gut denkbar - bzw. scheint uns dann nur 'Einzelimpulskodierung'
denkbar zu sein (eben bis zu 15 Phoneme in der Sekunde).
Eigentlich kann man dann nicht einmal mehr von Kodierung sprechen, denn die einzelnen
Impulse sind ja stets (mehr oder weniger) gleich. Eigentlich steckt die Information dann
nicht in den Impulsen, sondern - lokal orientiert - in den 'Wegen', die sie auf dem
zentralen Netzwerk unseres Gehirns nehmen; es sei denn, man spricht in diesem Zusammenhang
von so etwas wie 'lokaler -' oder 'Ortskodierung', vergleichbar der tonotopischen
Organisation der Cochlea und deren 'Abbildung' auf die primär-auditiven Cortex-Areale.
Könnte es sein, daß die obere Schwelle der Sprechgeschwindigkeit eines native speaker
nicht 'muskulär', sondern durch die angesprochenen 10 bis 15 Hz zentraler
Sprachverarbeitungsprozesse biologisch vorprogrammiert ist?
In einer gewissen Hinsicht könnte man - wie oben angesprochen - auch für zentrale
Prozesse des Gehirns von 'lokaler -' bzw. 'Ortskodierung' sprechen. Was soll dann aber die
dekodierende Instanz sein, die - wie das der Begriff der Dekodierung unterstellt - die
lokal unterschiedliche Herkunft von Impulsen weiterverarbeitet? Und: Weiterverarbeitet zu
was? Dekodierung ist ja imme eine Art Umwandlung oder Übersetzung - zu was würde da denn
umgewandelt, in welche 'Form' würde die zunächst lokal unterscheidbare Herkunft der
Impulse 'übersetzt'?
Sollte man nicht lieber für zentrale Verarbeitungsprozesse die Rede von der Kodierung von
Information lassen und bei der stets lokal determinierten Ausbreitung von Impulsen
bleiben? Das wäre, was wir unter der funktionalen Architektur des Gehirns verstehen. Im
übrigen verlangt die Rede von der lokalen Determination der Ausbreitung von Impulsen
nicht, daß wir diesbezüglich bereits jetzt morphologisch-anatomisch präzise Aussagen
machen können; es ist dies aber eine Redeweise, die eine entsprechende
morphologisch-anatomische Redeweise jederzeit zuläßt; und die Präzisierbarkeit (die
Möglichkeit der Präzisierung) entsprechender Modellvorstellungen ist u.E. ein zentrales
Bewertungskriterium zu Entscheidung über konkurrierende neuronale Modelle.
(2) Wir haben noch eine zweite Fragestellung, die uns brennend interessiert: Eine im
Rahmen der Alzheimer-Forschung derzeit höchst gehandelten Hypothesen besagt, daß hier
ein Defizit an Acetylcholin vorliegt. Darauf stellen Medikamente wie Exelon (Novartis) ab,
- ich unterstelle hier, daß der Wirkungsmechanismus bekannt ist.
Wie hat man festgestellt, daß in der Tat ein Mangel an Acetylcholin vorliegt? Hat man das
im Rahmen von Einzelzellableitungen an cholinergen Synapsen überprüft?
'Mangel an Acetylcholin' kann ja einmal bedeuten, daß pro Zelle ein Mangel dieses
Neurotransmitters vorliegt, und dann würde u.a. Exelon Ursachen-orientiert wirken. Wenn
man aber davon ausgeht, daß in Zellsystemen mit Acetylcholin als Neurotransmitter bereits
sehr viele Zellen 'untergegangen' sind, dann ergibt das - global gemessen - ebenfalls
einen Mangel an Acetylcholin, ohne daß das einen Mangelzustand pro Zelle bedeuten muß,
und ein Medikament wie Exelon würde dann womöglich - pro Zelle gesehen - eine eher
kompensatorische Hyperaktivierung cholinerger Synapsen erzeugen.
Wir unterstellen im Rahmen der von uns entwickelten neuronalen Netzwerkmodellierung, daß
in einer Vielzahl von Fällen die Depolarisierung von Neuronen durch Aufsummierung
einzelner exzitatorischer Impulse innerhalb sehr kleiner 'Zeitfenster' funktioniert. Dabei
könnten zwei Parameter relevant sein, (a) die Effektivität einer Synapse pro Impuls und
(b) die zeitliche Distanz zweier (innerhalb eines 'Zeitfensters`) aufeinander folgender
Impulse (da ein unterschwelliges Potential in der Zeit wieder abgebaut wird, es sei denn,
es wird inhibitorisch gelöscht, wirkt ein Folgeimpuls um so besser, je schneller er auf
einen ersten Impuls folgt).
Es gibt Hinweise, das die in frühen Phasen einer Alzheimer Krankheit zu beobachtenden
Defizite (nicht nur der Sprachverarbeitung) auf ein mangelndes zeitliches Zusammenspiel
zurückgehen, daß es sich hier um eine Art 'Desynchronisation' handelt. Dann aber würde
- etwas holzschnittartig vereinfacht - ein Medikamt wie Exelon die Effektivität von
Synapsen steigern und damit für eine gewisse Zeit die (sich kontinuierlich
verschärfende) 'Desynchronisation' u.a. im Rahmen der Aufsummierung von Impulsen
kompensieren.
(3) Und noch eine dritte Fragestellung: Wir sind in der Lage, einmalige Ereignisse und
Geschehnisse langfristig zu speichern. Wie läßt sich das mit gängigen Annahmen z.B. zu
Bahnungsphänomenen, wie läßt sich das mit den Hebb'schen Vorstellungen modellieren
(ganz zu schweigen davon, daß auch die Veränderung von Synapsengewichten über die
Häufigkeit, mit der bestimmte synaptische Vernetzungen genutzt werden, bzw. die
Steigerung der Effektivität einer synaptischen Verschaltung nicht einfach unentwegt
steigen kann).
Anders gefragt und am Text- und Diskursverstehen festgemacht: Während der verschiedenen
Verstehensschritte können in Sekundenbruchteilen Langzeitgedächtnisspuren ausgebildet
werden, die es mir u.a. möglich machen, zu entscheiden, was 'roter Faden' eines
Gesprächs ist und was nicht. Dazu scheint uns ein komplexer Prozeß erforderlich, der
nicht identisch sein kann mit irgendeiner der im Rahmen der "künstlichen neuronalen
Netze" vorgeschlagenen Alternativen für Lernprozesse.
Da man nicht annehmen kann, daß wahllos für alle Inhalte eine Langzeitspur gebildet
wird, muß es ein Auswahlkriterium geben, das z.B. darin bestehen könnte, daß vorhandene
Inhalte (episodisch gleiche Inhalte) nicht noch einmal verankert werden. Das setzt die
Feststellung einer Inkohärenz oder Neuheit voraus, die dann entsprechende
Speicheroperationen top-down auslösen könnte. Ergänzend: Es muß sich dabei um
Speicheroperatinen handeln, die nichts zu tun haben mit Lernformen wie dem Konditionieren.
Eine des öfteren bemängelte Schwäche der Diskussion war, daß die (vor dem Hintergrund
der obigen Vorschläge) entwickelten Hypothesen zur Ausbildung episodischer Spuren eine
gewisse Willkürlichkeit beinhalteten; derzeit läßt sich hier wie auch anderswo in der
neuronalen Modellierung nicht zwischen einer Vielzahl von denkbaren Alternativen
unterscheiden.
Was jedoch ganz unbestritten ist (und auch in der Diskussion konsensfähig war), ist die
grundlegende Arbeitsrichtung: Es macht einfach keinen Sinne, neuronale Netzwerkmodelle zu
entwickeln, die sich nicht am Aufbau und der Arbeitsweise des menschlichen
Gehirns orientieren. Und die vielerorts zu hörende These, daß etwa eine
computerorientierte Modellierung ohne größere Schwierigkeiten in eine neuronal
orientierte Netzwerkmodellierung 'übersetzbar' sei (so z.B. lange Zeit Levelt), ist
schlicht falsch, - ist einfach eine Immunisierungstrategie, mithilfe derer sich die
Betrfoffenen vor sehr grundsätzlichen Formen der wissenschaftlichen Kritik am
vorgeschlagenen Modellformat schützen wollen.