2.tes interdisziplinäres Kolloquium
"Neuronale Modellierung"(Februar 1999)

Am 24. Februar 1999 fand im Senatsaal der Albert-Ludwigs-Universität Freiburg i.Br. das 2.te Neurokolloquium "Neuronale Modellierung" statt. Die Veranstaltung wurde von Novartis Deutschland finanziell unterstützt.
Teilnehmer waren u.a. Frau Prof. Dr.med. Nitsch, Basel (Anatomie - Neuroanatomie), Herr Prof. Dr. med. Radü, Basel (Radiologie - Neuroimaging). Frau PD Dr. Franceschini, Basel (Sprachwissenschaft), Herrn Prof. Dr. Lüdi, Basel (Sprachwissenschaft), Herr Dr. M.med. Hofmann, Basel (Psychiatrie - Neuropsychiatrie), Herr Prof. Dr. A. Aertsen, Freiburg (Biologie - Neurobiologie), Herr Prof. Dr. H.-C. Spatz, Freiburg (Biologie - Neurobiologie), Herr Prof. Dr.med. Frotscher, Freiburg (Anatomie - Neuroanatomie), Herr Prof. Dr.med. Bauer, Freiburg (Psychiatrie - Neuropsychiatrie), Herr PD Dr.med. Gebicke-Härter, Freiburg (Psychiatrie - Neurobiologie/Neurochemie), Herr Dr.med. M. Hüll, Freiburg (Psychiatrie - Neuropsychiatrie), Herr PD Dr. M. Schecker, Sprachwissenschaft - Neurolinguistisches Labor, und Herr Prof. Dr. G. Kochendörfer, ebenfalls Neurolinguistisches Labor.

Die folgenden Fragestellungen waren als Themen vorgeschlagen; abgehandelt wurde dann jedoch nur die Fragestellung 3:
(1) Zunächst zum Stichwort "Kodierung": Im Rahmen neuronaler Modellvorstellungen wird immer wieder von Kodierung gesprochen; das impliziert den Unterschied von Code und kodierter Information und setzt neben einer kodierenden Instanz eine dekodierende Instanz voraus.
Für zentrale Prozesse der Sprachverarbeitung möchten wir hypothetisch zunächst die Unterscheidung von periphären und zentralen Prozessen des Gehirns einbringen. Ich weiß nicht, ob wir hier zu 'unbedarft' vorgehen, aber wir würden das versuchsweise an den (soweit uns bekannt) recht unterschiedlichen Frequenzen festmachen, mit denen periphär (bis zu 600 Hz und mehr) und zentral (um die 10 bis 15 Hz) gearbeitet wird.
Setzt man 'Feuerfrequenzen' von 600 Hz und mehr an, dann läßt sich unproblematisch davon ausgehen, daß eine jeweilige Information frequenzkodiert ist/wird (zur Begründung gleich unten).
Bei zentralen Prozessen der Sprachverarbeitung (z.B. bei der Verarbeitung von Phonemen) müssen wir die Sprechgeschwindigkeit eines normalen (gesunden) native speaker in Rechnung stellen, der ohne größere Probleme bis zu 15 Kurzvokal- und Konsonanten-Phoneme pro Sekunde verarbeiten kann (rezeptiv wie produktiv). Wenn wir jetzt des weiteren von Feuerfrequenzen um die 10 bis 15 Hz ausgehen, dann ist vor diesem Hintergrund u.E. Frequenzkodierung nicht gut denkbar - bzw. scheint uns dann nur 'Einzelimpulskodierung' denkbar zu sein (eben bis zu 15 Phoneme in der Sekunde).
Eigentlich kann man dann nicht einmal mehr von Kodierung sprechen, denn die einzelnen Impulse sind ja stets (mehr oder weniger) gleich. Eigentlich steckt die Information dann nicht in den Impulsen, sondern - lokal orientiert - in den 'Wegen', die sie auf dem zentralen Netzwerk unseres Gehirns nehmen; es sei denn, man spricht in diesem Zusammenhang von so etwas wie 'lokaler -' oder 'Ortskodierung', vergleichbar der tonotopischen Organisation der Cochlea und deren 'Abbildung' auf die primär-auditiven Cortex-Areale.
Könnte es sein, daß die obere Schwelle der Sprechgeschwindigkeit eines native speaker nicht 'muskulär', sondern durch die angesprochenen 10 bis 15 Hz zentraler Sprachverarbeitungsprozesse biologisch vorprogrammiert ist?

In einer gewissen Hinsicht könnte man - wie oben angesprochen - auch für zentrale Prozesse des Gehirns von 'lokaler -' bzw. 'Ortskodierung' sprechen. Was soll dann aber die dekodierende Instanz sein, die - wie das der Begriff der Dekodierung unterstellt - die lokal unterschiedliche Herkunft von Impulsen weiterverarbeitet? Und: Weiterverarbeitet zu was? Dekodierung ist ja imme eine Art Umwandlung oder Übersetzung - zu was würde da denn umgewandelt, in welche 'Form' würde die zunächst lokal unterscheidbare Herkunft der Impulse 'übersetzt'?
Sollte man nicht lieber für zentrale Verarbeitungsprozesse die Rede von der Kodierung von Information lassen und bei der stets lokal determinierten Ausbreitung von Impulsen bleiben? Das wäre, was wir unter der funktionalen Architektur des Gehirns verstehen. Im übrigen verlangt die Rede von der lokalen Determination der Ausbreitung von Impulsen nicht, daß wir diesbezüglich bereits jetzt morphologisch-anatomisch präzise Aussagen machen können; es ist dies aber eine Redeweise, die eine entsprechende morphologisch-anatomische Redeweise jederzeit zuläßt; und die Präzisierbarkeit (die Möglichkeit der Präzisierung) entsprechender Modellvorstellungen ist u.E. ein zentrales Bewertungskriterium zu Entscheidung über konkurrierende neuronale Modelle.

(2) Wir haben noch eine zweite Fragestellung, die uns brennend interessiert: Eine im Rahmen der Alzheimer-Forschung derzeit höchst gehandelten Hypothesen besagt, daß hier ein Defizit an Acetylcholin vorliegt. Darauf stellen Medikamente wie Exelon (Novartis) ab, - ich unterstelle hier, daß der Wirkungsmechanismus bekannt ist.
Wie hat man festgestellt, daß in der Tat ein Mangel an Acetylcholin vorliegt? Hat man das im Rahmen von Einzelzellableitungen an cholinergen Synapsen überprüft?
'Mangel an Acetylcholin' kann ja einmal bedeuten, daß pro Zelle ein Mangel dieses Neurotransmitters vorliegt, und dann würde u.a. Exelon Ursachen-orientiert wirken. Wenn man aber davon ausgeht, daß in Zellsystemen mit Acetylcholin als Neurotransmitter bereits sehr viele Zellen 'untergegangen' sind, dann ergibt das - global gemessen - ebenfalls einen Mangel an Acetylcholin, ohne daß das einen Mangelzustand pro Zelle bedeuten muß, und ein Medikament wie Exelon würde dann womöglich - pro Zelle gesehen - eine eher kompensatorische Hyperaktivierung cholinerger Synapsen erzeugen.
Wir unterstellen im Rahmen der von uns entwickelten neuronalen Netzwerkmodellierung, daß in einer Vielzahl von Fällen die Depolarisierung von Neuronen durch Aufsummierung einzelner exzitatorischer Impulse innerhalb sehr kleiner 'Zeitfenster' funktioniert. Dabei könnten zwei Parameter relevant sein, (a) die Effektivität einer Synapse pro Impuls und (b) die zeitliche Distanz zweier (innerhalb eines 'Zeitfensters`) aufeinander folgender Impulse (da ein unterschwelliges Potential in der Zeit wieder abgebaut wird, es sei denn, es wird inhibitorisch gelöscht, wirkt ein Folgeimpuls um so besser, je schneller er auf einen ersten Impuls folgt).
Es gibt Hinweise, das die in frühen Phasen einer Alzheimer Krankheit zu beobachtenden Defizite (nicht nur der Sprachverarbeitung) auf ein mangelndes zeitliches Zusammenspiel zurückgehen, daß es sich hier um eine Art 'Desynchronisation' handelt. Dann aber würde - etwas holzschnittartig vereinfacht - ein Medikamt wie Exelon die Effektivität von Synapsen steigern und damit für eine gewisse Zeit die (sich kontinuierlich verschärfende) 'Desynchronisation' u.a. im Rahmen der Aufsummierung von Impulsen kompensieren.

(3) Und noch eine dritte Fragestellung: Wir sind in der Lage, einmalige Ereignisse und Geschehnisse langfristig zu speichern. Wie läßt sich das mit gängigen Annahmen z.B. zu Bahnungsphänomenen, wie läßt sich das mit den Hebb'schen Vorstellungen modellieren (ganz zu schweigen davon, daß auch die Veränderung von Synapsengewichten über die Häufigkeit, mit der bestimmte synaptische Vernetzungen genutzt werden, bzw. die Steigerung der Effektivität einer synaptischen Verschaltung nicht einfach unentwegt steigen kann).
Anders gefragt und am Text- und Diskursverstehen festgemacht: Während der verschiedenen Verstehensschritte können in Sekundenbruchteilen Langzeitgedächtnisspuren ausgebildet werden, die es mir u.a. möglich machen, zu entscheiden, was 'roter Faden' eines Gesprächs ist und was nicht. Dazu scheint uns ein komplexer Prozeß erforderlich, der nicht identisch sein kann mit irgendeiner der im Rahmen der "künstlichen neuronalen Netze" vorgeschlagenen Alternativen für Lernprozesse.
Da man nicht annehmen kann, daß wahllos für alle Inhalte eine Langzeitspur gebildet wird, muß es ein Auswahlkriterium geben, das z.B. darin bestehen könnte, daß vorhandene Inhalte (episodisch gleiche Inhalte) nicht noch einmal verankert werden. Das setzt die Feststellung einer Inkohärenz oder Neuheit voraus, die dann entsprechende Speicheroperationen top-down auslösen könnte. Ergänzend: Es muß sich dabei um Speicheroperatinen handeln, die nichts zu tun haben mit Lernformen wie dem Konditionieren.
Eine des öfteren bemängelte Schwäche der Diskussion war, daß die (vor dem Hintergrund der obigen Vorschläge) entwickelten Hypothesen zur Ausbildung episodischer Spuren eine gewisse Willkürlichkeit beinhalteten; derzeit läßt sich hier wie auch anderswo in der neuronalen Modellierung nicht zwischen einer Vielzahl von denkbaren Alternativen unterscheiden.
Was jedoch ganz unbestritten ist (und auch in der Diskussion konsensfähig war), ist die grundlegende Arbeitsrichtung: Es macht einfach keinen Sinne, neuronale Netzwerkmodelle zu entwickeln, die sich nicht am Aufbau und der Arbeitsweise des menschlichen Gehirns orientieren. Und die vielerorts zu hörende These, daß etwa eine computerorientierte Modellierung ohne größere Schwierigkeiten in eine neuronal orientierte Netzwerkmodellierung 'übersetzbar' sei (so z.B. lange Zeit Levelt), ist schlicht falsch, - ist einfach eine Immunisierungstrategie, mithilfe derer sich die Betrfoffenen vor sehr grundsätzlichen Formen der wissenschaftlichen Kritik am vorgeschlagenen Modellformat schützen wollen.