Wenn Neuronen gemeinsam tanzen
Einführung
Wir schreiben das Jahr 1949. Die Welt erholt sich gerade vom Zweiten Weltkrieg, der Transistor ist eine brandneue Erfindung, und die Wissenschaft vom menschlichen Geist ist tief gespalten. Auf der einen Seite stehen die strikten Behavioristen, die das Gehirn als eine „Black Box“ betrachten: Reiz rein, Reaktion raus – was dazwischen passiert, ist für sie irrelevant oder wissenschaftlich nicht greifbar. Auf der anderen Seite stehen die Neurophysiologen, die zwar wissen, wie ein einzelner Nerv feuert, aber keine Ahnung haben, wie daraus so etwas Komplexes wie „Erinnerung“ oder „Gedanken“ entsteht.
In diese Lücke tritt ein Kanadier mit einer Brille und einem scharfen Verstand: Donald Olding Hebb. Mit seinem Buch „The Organization of Behavior“ wagt er etwas Ungeheuerliches. Er versucht, die psychologische Welt des Verhaltens mit der biologischen Welt der Neuronen zu vereinen. Er stellt eine Hypothese auf, die so elegant und intuitiv ist, dass sie bis heute Bestand hat. Er fragt sich: Wie lernt das Gehirn eigentlich physisch?
Hebb schlug eine Brücke über einen intellektuellen Canyon. Bevor wir über künstliche Intelligenz sprechen können, müssen wir verstehen, dass die „natürliche Intelligenz“ lange Zeit ein Rätsel war. Man dachte an das Gehirn oft wie an eine Telefonzentrale: feste Leitungen, feste Verbindungen. Hebb schlug vor, dass die Telefonzentrale sich selbst neu verkabelt, je nachdem, wer mit wem spricht. Dies war der Startschuss für das Verständnis von neuronalen Netzen – sowohl den biologischen in unseren Köpfen als auch den künstlichen in unseren Serverfarmen.
Kernidee
Die Kernidee von Hebbs Arbeit lässt sich auf einen Satz reduzieren, der zwar so nicht wörtlich im Buch steht, aber von der Nachwelt als der ultimative Merksatz destilliert wurde: „Cells that fire together, wire together.“ (Zellen, die gemeinsam feuern, vernetzen sich).
Stellen Sie sich eine unberührte Wiese vor. Wenn Sie einmal darüber laufen, sieht man fast nichts. Wenn Sie aber jeden Tag denselben Weg zur Arbeit nehmen, wird das Gras niedergetreten. Es entsteht ein Trampelpfad. Je öfter Sie diesen Pfad benutzen, desto breiter und befestigter wird er, und desto einfacher ist es, ihn in Zukunft wieder zu nutzen. Irgendwann ist es eine Autobahn.
Genau das postulierte Hebb für unser Gehirn. Wenn eine Nervenzelle A nah genug an einer Nervenzelle B liegt, um sie zu erregen, und sie dies wiederholt und dauerhaft tut, dann geschieht in einer oder beiden Zellen ein Wachstumsprozess oder eine metabolische Veränderung, sodass die Effizienz von Zelle A, die Zelle B feuern lässt, erhöht wird.
Das bedeutet: Lernen ist physikalisch. Lernen ist keine abstrakte geistige Wolke, sondern eine ganz konkrete Veränderung der Verbindungsstärken zwischen Zellen. Wenn zwei Ereignisse in der Welt gleichzeitig passieren (sagen wir, der Anblick einer Zitrone und der saure Geschmack), dann feuern die Neuronen für „Zitrone“ und die Neuronen für „sauer“ gleichzeitig. Nach Hebb verstärkt sich ihre Verbindung. Wenn Sie in Zukunft nur die Zitrone sehen, feuert das „Zitrone-Neuron“ und aktiviert durch die nun starke Verbindung automatisch auch das „Sauer-Neuron“. Ihnen läuft das Wasser im Mund zusammen, ohne dass Sie hineingebissen haben. Das ist die biologische Basis der Assoziation.
Ziele bzw. Forschungsfragen
Hebb war kein Informatiker; er war Psychologe. Sein primäres Ziel war nicht der Bau von Maschinen, sondern das Verständnis des Menschen. Seine zentralen Forschungsfragen waren für die damalige Zeit revolutionär:
- Wie wird Wahrnehmung stabil? Warum erkennen wir einen Kreis als Kreis, egal ob er groß, klein, rot oder blau ist, oder ob wir ihn aus einem schrägen Winkel betrachten? Hebb wollte verstehen, wie das Gehirn invariante Muster bildet.
- Was ist die physiologische Basis von Gedanken? Die Behavioristen ignorierten „Gedanken“ als unwissenschaftlich. Hebb wollte zeigen, dass Gedanken reale, messbare Aktivitäten im Gehirn sind, die auch dann fortbestehen können, wenn der äußere Reiz verschwunden ist.
- Wie erklärt man Lernen ohne einen „Geist in der Maschine“? Er suchte nach einem rein mechanischen, biologischen Prozess, der erklärt, wie Erfahrung das Verhalten ändert, ohne auf mystische Seelenkonzepte zurückgreifen zu müssen.
Sein Ziel war eine „allgemeine Theorie des Verhaltens“, die auf der Anatomie und Physiologie des Nervensystems basiert. Er wollte die Lücke schließen zwischen dem, was wir subjektiv erleben (Aufmerksamkeit, Einsicht, Erinnerung), und dem, was objektiv im Gehirn passiert.
Konzept
Hebbs Konzept ruht auf zwei gewaltigen Säulen, die für die KI entscheidend wurden: der synaptischen Plastizität und den Zellverbänden (Cell Assemblies).
Erstens, die synaptische Plastizität: Wie oben beschrieben, ist die Verbindung zwischen Neuronen (die Synapse) nicht statisch. Sie ist dynamisch. In der heutigen KI nennen wir das „Gewichte“. In einem künstlichen neuronalen Netz ist das Wissen nicht in den Neuronen selbst gespeichert, sondern in den Gewichten der Verbindungen zwischen ihnen. Hebb lieferte die Blaupause dafür: Wenn Input und Output korrelieren, dreh das Gewicht hoch!
Zweitens, und das wird oft vergessen, die Zellverbände: Hebb fragte sich, wie wir komplexe Konzepte speichern. Er schlug vor, dass Gruppen von Neuronen sich zu funktionellen Einheiten zusammenschließen. Stellen Sie sich das wie eine La-Ola-Welle im Stadion vor. Ein einzelner Zuschauer ist nur ein Punkt. Aber wenn tausende in einer koordinierten Reihenfolge aufstehen, entsteht ein Muster – die Welle.
Ein „Gedanke“ an einen Apfel ist laut Hebb also nicht ein einzelnes „Apfel-Neuron“, das leuchtet. Es ist ein ganzes Orchester von Neuronen, die in einem geschlossenen Kreis feuern. Neuron A aktiviert B, B aktiviert C, und C aktiviert wieder A. Dieser Nachhall (Reverberation) sorgt dafür, dass die Information im Gehirn aktiv bleibt, auch wenn der Apfel schon längst gegessen ist. Das ist das Kurzzeitgedächtnis. Wenn dieser Nachhall lange genug andauert, verfestigen sich die Verbindungen dauerhaft (Langzeitgedächtnis).
In der KI entspricht dies in etwa der Idee von rekurrenten neuronalen Netzen oder den späteren Hopfield-Netzen, wo Muster gespeichert und wieder abgerufen werden können, indem das Netzwerk in einen stabilen Zustand „einschwingt“. Hebb lieferte hierfür die erste theoretische Skizze.
Argumente
Hebb untermauerte seine Theorie mit starken Argumenten, die vor allem auf Beobachtungen und Logik basierten, da die Messinstrumente seiner Zeit (wie fMRT oder Einzelzellableitungen) noch Zukunftsmusik waren.
Ein Hauptargument war die assoziative Natur des Gedächtnisses. Wir erinnern uns selten isoliert an Dinge. Ein Geruch weckt eine Kindheitserinnerung; ein Liedtext erinnert an den ersten Kuss. Hebb argumentierte, dass dies nur möglich ist, wenn die neuronalen Repräsentationen dieser Dinge physisch miteinander verknüpft sind. Da diese Dinge oft gleichzeitig auftraten, musste der Mechanismus der Verknüpfung zeitliche Koinzidenz sein.
Ein weiteres Argument war die Langsamkeit des Lernens bei Kindern vs. Erwachsenen. Hebb beobachtete, dass Kinder sehr lange brauchen, um grundlegende Konzepte (wie ein Dreieck oder Farben) zu lernen. Erwachsene lernen Neues viel schneller. Sein Argument: Kinder müssen erst die grundlegenden „Zellverbände“ aufbauen – die Autobahnen im Gehirn asphaltieren. Erwachsene haben diese Strukturen schon und müssen sie nur noch neu verknüpfen. Das „Ur-Lernen“ ist der Aufbau der Verbände; späteres Lernen ist das Neu-Arrangieren dieser Verbände.
Er argumentierte auch gegen die damals populäre „Feldtheorie“ der Gestaltpsychologen, die glaubten, elektrische Felder im Gehirn würden Formen repräsentieren. Hebb zeigte auf, dass dies biologisch unsinnig sei, da das Gehirn quasi in einer leitfähigen Suppe schwimmt, die solche Felder kurzschließen würde. Stattdessen musste es auf präzisen Punkt-zu-Punkt-Verbindungen basieren.
Bedeutung
Die Bedeutung von Hebbs Buch kann kaum überschätzt werden. Es war ein Paradigmenwechsel.
Vor Hebb war das Gehirn in der Wissenschaft oft statisch. Nach Hebb war es plastisch. Der Begriff der „Neuroplastizität“ – dass das Gehirn sich durch Benutzung physisch verändert – fußt auf seinen Überlegungen.
Für die Informatik und die spätere KI-Forschung war es der entscheidende Funke. Hebb zeigte, dass Intelligenz nicht programmiert werden muss (im Sinne von: „Wenn A, dann B“), sondern dass sie aus einer einfachen lokalen Regel emergieren kann. Man muss dem System nicht beibringen, was ein Gesicht ist. Man zeigt ihm einfach tausende Gesichter. Die Pixel, die immer gemeinsam dunkel sind (z.B. bei den Augenbrauen), verstärken ihre Verbindungen zu den tieferen Schichten. Das System lernt die Struktur der Daten selbstständig.
Hebb machte den Weg frei für den Konnektionismus: Die Idee, dass intelligentes Verhalten aus der massiven Vernetzung vieler einfacher Einheiten entsteht, anstatt aus einem zentralen, komplexen Prozessor.
Wirkung
Die Wirkung entfaltete sich in Wellen.
Direkt nach der Veröffentlichung begannen Wissenschaftler, Hebbs Ideen in mathematische Modelle zu gießen. 1957 entwickelte Frank Rosenblatt das Perzeptron, das erste künstliche neuronale Netz, das lernen konnte. Die Lernregel des Perzeptrons ist eine direkte mathematische Umsetzung der Hebbschen Idee: Wenn das Netz richtig rät, ändere nichts. Wenn es falsch liegt, passe die Gewichte an, um den Fehler zu korrigieren (eine Variante des hebbschen Lernens).
In den 1980er Jahren erlebte der Konnektionismus eine Renaissance. Forscher wie John Hopfield bauten Netze, die explizit auf der Hebbschen Regel basierten („Hopfield-Netze“), um assoziatives Gedächtnis zu simulieren. Wenn man einem solchen Netz ein halbes Bild zeigte, konnte es das ganze Bild rekonstruieren – genau wie wir uns an ein ganzes Lied erinnern, wenn wir nur die ersten Takte hören.
Auch in der Biologie wurde Hebb bestätigt. In den 1970er Jahren entdeckten Forscher das Phänomen der Langzeit-Potenzierung (LTP) im Hippocampus von Kaninchen. Sie stellten fest, dass Neuronen tatsächlich empfindlicher werden, wenn sie hochfrequent stimuliert werden. Man hatte endlich den biologischen Beweis für Hebbs „metabolische Veränderung“ gefunden. Es war einer der seltenen Momente in der Wissenschaft, in denen eine Theorie Jahrzehnte später fast exakt so biologisch bestätigt wurde, wie sie vorhergesagt war.
Relevanz
Ist Hebb heute, im Zeitalter von ChatGPT und Deep Learning, noch relevant? Absolut. Zwar nutzen moderne Systeme wie Transformer-Modelle (das „T“ in GPT) einen Lernalgorithmus namens „Backpropagation“, der mathematisch komplexer ist als die einfache Hebbsche Regel, aber das Grundprinzip bleibt bestehen: Wir passen die Stärke von Verbindungen basierend auf Daten an.
Mehr noch: In der aktuellen Forschung zur unüberwachten Lernfähigkeit (Unsupervised Learning) erlebt Hebb ein Comeback. Backpropagation braucht immer einen Lehrer (ein Label), der sagt: „Das war falsch, das ist eine Katze.“ Hebbs Regel braucht das nicht. Sie lernt einfach Korrelationen. Da wir Menschen und Tiere größtenteils ohne Lehrer lernen (ein Baby lernt die Schwerkraft, indem es Dinge fallen lässt, nicht indem man ihm Formeln zeigt), suchen KI-Forscher wieder verstärkt nach „Hebbschen“ Mechanismen, um KIs autonomer und effizienter zu machen.
Auch im Bereich der Neuromorphen Hardware – Computerchips, die wie Gehirne aufgebaut sind – ist die Hebbsche Regel der Goldstandard, weil sie „lokal“ ist. Jedes Neuron muss nur wissen, was seine Nachbarn tun, um zu lernen. Es braucht keinen zentralen Speicher. Das macht solche Chips extrem energieeffizient.
Kritik
Natürlich war Hebbs Theorie von 1949 nicht perfekt. Sie hatte, wie jeder erste Entwurf, ihre Macken.
Die größte Kritik betrifft die Stabilität. Wenn „Feuern“ immer zu „stärkerer Verbindung“ führt, und „stärkere Verbindung“ zu „mehr Feuern“ führt, haben wir einen Teufelskreis. Das System würde sich exponentiell aufschaukeln, bis alle Neuronen permanent schreien. Es käme zu einer Art epileptischem Anfall des Netzwerks.
Hebb hatte keinen Bremsmechanismus eingebaut. Moderne Theorien und Algorithmen haben dies korrigiert, indem sie auch Prozesse für das Abschwächen von Verbindungen einführten (Long-Term Depression, LTD) oder Mechanismen zur Normalisierung der Gewichte. Man muss auch vergessen können, um zu lernen.
Ein weiterer Kritikpunkt war die Vagheit. Hebb sprach von „metabolischen Veränderungen“ oder „Wachstumsprozessen“, konnte aber den genauen chemischen Mechanismus nicht benennen. Das war damals nicht seine Schuld – die Molekularbiologie steckte noch in den Kinderschuhen –, aber es machte die Theorie lange Zeit schwer überprüfbar.
Zudem erklärt die reine Hebbsche Regel nicht, wie wir Fehler korrigieren. Sie ist gut darin, Muster zu finden (Korrelation), aber schlecht darin, Ziele zu erreichen oder komplexe logische Schlüsse (Kausalität) abzubilden, wenn diese nicht direkt in der Statistik der Daten liegen.
Fazit
Donald Hebbs „The Organization of Behavior“ ist ein Monument der Wissenschaftsgeschichte. Er nahm das Gehirn, das bis dahin entweder eine mystische Seelenkammer oder ein starrer Apparat war, und verwandelte es in eine dynamische, lernende Maschine.
Seine einfache, aber geniale Einsicht, dass das gemeinsame Feuern von Neuronen ihre Verbindung stärkt, ist der Samen, aus dem der gesamte Wald der künstlichen Intelligenz gewachsen ist. Er lehrte uns, dass Intelligenz, Gedächtnis und Wahrnehmung keine Magie sind, sondern das Ergebnis von Abermilliarden kleiner Handschläge zwischen winzigen Zellen.
Jedes Mal, wenn eine KI heute ein Gesicht erkennt oder einen Satz übersetzt, geschieht dies, weil künstliche Verbindungen gestärkt wurden – ein fernes, digitales Echo von Hebbs Vision aus dem Jahr 1949.
Ausblick
Wohin geht die Reise mit Hebb im Gepäck? Wir stehen an der Schwelle zu einer neuen Art von KI. Die derzeitigen Modelle sind energiehungrig und starr. Wir müssen sie mühsam trainieren, und danach lernen sie meist nicht mehr weiter („Catastrophic Forgetting“).
Biologische Gehirne lernen jedoch lebenslang und verbrauchen dabei so viel Energie wie eine Glühbirne. Die Zukunft liegt in Systemen, die biologisch plausibler sind. Forscher arbeiten an „Spiking Neural Networks“ (SNNs), die die zeitliche Komponente von Hebbs Regel viel ernster nehmen. Hier geht es nicht nur darum, dass Neuronen gemeinsam feuern, sondern wann genau (Spike-Timing-Dependent Plasticity).
Vielleicht werden wir bald Computer haben, die nicht mehr rechnen, wie wir es kennen, sondern die pulsen und resonieren, genau wie Hebbs Zellverbände. Wir bewegen uns weg von der reinen Software-Simulation hin zu Hardware, die nach Hebbs Prinzipien gebaut ist. Die Hebbsche Regel ist also kein altes Eisen, sondern vielleicht der Schlüssel zur nächsten Generation der KI.
Literaturquellen
- Hauptquelle: Hebb, D. O. (1949).10 The Organization of Behavior: A Neuropsychological Theory. New York: Wiley & Sons.
Hintergrundinformationen zu den Autoren
Donald Olding Hebb (1904–1985) war ein kanadischer Psychologe, der oft als Vater der Neuropsychologie bezeichnet wird. Interessanterweise wollte er ursprünglich Romanautor werden und studierte erst später Psychologie.
Sein Weg zur Wissenschaft war ungewöhnlich. Er arbeitete zeitweise als Grundschuldirektor und auf einer Farm. Ein entscheidender Moment in seiner Karriere war die Zusammenarbeit mit dem berühmten Neurochirurgen Wilder Penfield in Montreal. Dort untersuchte Hebb die Auswirkungen von Gehirnoperationen und Verletzungen auf die Intelligenz und das Verhalten von Patienten.
Eine Anekdote, die seinen pragmatischen und humorvollen Charakter zeigt: Hebb führte später an der McGill University berühmte Experimente zur sensorischen Deprivation durch (wo Probanden tagelang isoliert wurden, um Gehirnwäsche-Techniken zu verstehen). Er selbst nahm zwar nicht teil, aber er testete seine Theorien oft an seinen eigenen Kindern oder Haustieren – natürlich im ethisch vertretbaren Rahmen jener Zeit. Seine Ratten nahm er manchmal mit nach Hause und ließ sie dort frei laufen, was er als „enriched environment“ bezeichnete. Er stellte fest, dass diese „Heim-Ratten“ viel klüger waren als ihre Kollegen im langweiligen Laborkäfig – ein weiterer Beweis für seine Theorie der Plastizität durch Erfahrung.
Hebb schrieb klar, verständlich und ohne den akademischen Dünkel, der viele seiner Zeitgenossen plagte. Sein Ziel war nicht Ruhm, sondern Klarheit. Dass er dabei fast versehentlich die Grundlage für die Künstliche Intelligenz legte, hätte ihn sicher amüsiert.
Disclaimer: Dieser Text ist komplett KI-generiert (Gemini 3.0 Thinking, 14.12.2025). Die darin enthaltenen Angaben wurden nicht überprüft. Zum Prompt. Zur Übersicht.