Die große Illusion der Empathie: Wie ein Programm lernte, zuzuhören (ohne ein Wort zu verstehen)
Einführung
Wir schreiben das Jahr 1966. Die Computertechnologie steckt, verglichen mit heutigen Maßstäben, noch in den Kinderschuhen. Rechner sind so groß wie Schrankwände, sie rattern, summen und werden mit Lochkarten gefüttert. In dieser Ära, am renommierten Massachusetts Institute of Technology (MIT), geschieht etwas, das die Grenze zwischen Mensch und Maschine für immer verwischen sollte. Ein Mann sitzt vor einer Schreibmaschine, die an einen Computer angeschlossen ist. Er tippt: „Alle Männer sind gleich.“ Die Maschine antwortet nicht mit einer Fehlermeldung oder einer mathematischen Berechnung, sondern druckt zurück: „Inwiefern?“
Der Mann stutzt. Er schreibt: „Sie machen uns immer Ärger.“ Die Maschine kontert sofort: „Können Sie ein bestimmtes Beispiel nennen?“
Das war die Geburtsstunde von ELIZA.
Um die Bedeutung dieses Meilensteins zu verstehen, müssen wir uns von der heutigen Vorstellung von „Intelligenz“ lösen. Es gab damals kein Siri, kein Alexa, kein ChatGPT. Die Idee, dass man sich mit einer Maschine in natürlicher englischer Sprache unterhalten könnte, war reine Science-Fiction – Stoff für Romane, aber nicht für die Realität. Und doch schaffte es Joseph Weizenbaum mit ELIZA, eine Konversation zu simulieren, die so lebensecht wirkte, dass Testpersonen ihre intimsten Geheimnisse offenbarten und manche sogar baten, den Raum verlassen zu dürfen, um mit der Maschine „allein“ zu sein. Dabei – und das ist die grandiose Ironie dieser Geschichte – war ELIZA im Grunde dumm wie Bohnenstroh.
Kernidee
Die Kernidee hinter ELIZA war ebenso simpel wie genial: Es ging um die Trennung von „Motor“ und „Treibstoff“. Weizenbaum wollte ein Programm schreiben, das die Struktur von Sprache verarbeiten kann, ohne ihren Inhalt wirklich zu kennen.
Stellen Sie sich ELIZA wie einen sehr talentierten Schauspieler vor, der für eine Rolle vorspricht. Das Programm selbst ist der Schauspieler – es beherrscht die Technik des Sprechens, des Betonens und des Reagierens. Aber was der Schauspieler sagt, steht in einem Drehbuch. In der Fachsprache nannte Weizenbaum dieses Drehbuch ein „Skript“.
ELIZA war also nur der Rahmen, ein sogenannter Sprachprozessor. Man konnte dieses Programm mit verschiedenen Skripten füttern, um unterschiedliche Gesprächspartner zu simulieren. Das berühmteste dieser Skripte, und jenes, das ELIZA zur Legende machte, nannte sich „DOCTOR“. Es simulierte einen psychotherapeutischen Ansatz nach Carl Rogers.
Die Kernidee lässt sich so zusammenfassen: Man muss die Welt nicht verstehen, um darüber zu reden. Es reicht, wenn man bestimmte Schlüsselwörter im Satz des Gegenübers erkennt und diese nach festen Regeln in eine Frage umformt. Es war der Versuch, Kommunikation als ein rein formales Spiel zu betrachten, bei dem man den Ball immer wieder zurückspielt, ohne ihn jemals festzuhalten.
Ziele bzw. Forschungsfragen
Joseph Weizenbaum hatte keineswegs das Ziel, einen maschinellen Psychiater zu erschaffen, der menschliche Therapeuten arbeitslos macht – auch wenn viele das später glaubten. Sein wissenschaftliches Interesse war viel fundamentaler und technischer.
Er stellte sich folgende Forschungsfragen: Erstens: Ist es möglich, einem Computer beizubringen, natürliche Sprache zu verarbeiten, ohne ihm vorher die gesamte Grammatik und das Vokabular der Welt beibringen zu müssen? Bis dahin dachte man, ein Computer müsse erst „wissen“, was ein Apfel ist, bevor er über Obst reden kann. Weizenbaum wollte beweisen, dass man das umgehen kann.
Zweitens: Wie wichtig ist der Kontext? Weizenbaum vermutete, dass ein Gespräch nur dann von einer Maschine geführt werden kann, wenn der Rahmen extrem eng gesteckt ist. In einer normalen Unterhaltung kann es um alles gehen – das Wetter, Politik, Gefühle. Das ist für einen Computer der 60er Jahre (und oft auch heute noch) zu viel Chaos. Aber in einer Therapiesitzung gelten feste Regeln. Der Patient spricht, der Therapeut spiegelt. Weizenbaum wollte zeigen, dass man menschliche Intelligenz durch geschickte Einschränkung des Themas simulieren kann.
Drittens, und das war vielleicht das philosophischste Ziel: Er wollte die Grenze der Täuschung ausloten. Wie wenig muss eine Maschine eigentlich tun, damit der Mensch ihr Verständnis unterstellt?
Konzept
Kommen wir nun zum „Zaubertrick“. Wie funktionierte ELIZA eigentlich unter der Haube? Das Konzept basierte auf drei simplen Schritten: Erkennen, Zerlegen, Zusammensetzen.
Stellen Sie sich vor, Sie sagen zu ELIZA: „Ich bin traurig, weil mein Freund mich verlassen hat.“
- Erkennen (Keyword-Spotting): ELIZA scannt den Satz von links nach rechts. Sie ignoriert die meisten Wörter, sucht aber nach einer Liste von Schlüsselwörtern, die im Skript hinterlegt sind. In unserem Beispiel findet sie vielleicht das Wort „traurig“ oder „Freund“. Nehmen wir an, das Skript gewichtet das Wort „Freund“ höher.
- Zerlegen (Decomposition): Das Programm nimmt nun den Satz und zerlegt ihn anhand des gefundenen Schlüsselworts. Alles vor dem Wort „Freund“ ist Teil A, alles danach ist Teil B.
- Zusammensetzen (Reassembly): Nun schaut ELIZA in ihr Regelbuch. Dort steht unter dem Stichwort „Freund“ eine Anweisung wie: „Nimm den Satzteil nach dem Wort Freund und frage nach der Beziehung.“ Oder noch einfacher: Es gibt eine Schablone, die sagt: „Erzählen Sie mir mehr über Ihren [Schlüsselwort].“
Der Clou war jedoch eine Transformationsregel für Pronomen. Wenn der Nutzer „mein“ schreibt, muss der Computer mit „Ihr“ antworten. Aus „mein Freund“ wird also „Ihr Freund“.
Die Antwort lautet dann vielleicht: „Warum denken Sie, dass Ihr Freund Sie verlassen hat?“ oder „Was bedeutet Ihnen Ihr Freund?“.
Das Konzept des „Rogerianischen Therapeuten“ war hierbei der entscheidende Schachzug. Ein Therapeut dieser Schule gibt keine Ratschläge und bewertet nicht. Er wiederholt oft nur das Gesagte in Frageform, um den Patienten zur Selbstreflexion anzuregen. Das ist perfekt für einen Computer! Wenn der Computer nichts weiß, fragt er einfach: „Warum sagen Sie das?“ Das wirkt tiefgründig, ist aber eigentlich nur ein trickreiches Ausweichmanöver. Wenn ELIZA kein Schlüsselwort fand, nutzte sie generische Füllsätze wie: „Bitte fahren Sie fort“ oder „Das ist sehr interessant“.
Argumente
Weizenbaum argumentierte in seinem Artikel sehr stark dafür, dass die Lösung für das Problem der „Mensch-Maschine-Kommunikation“ nicht in der totalen Allwissenheit des Computers liegt, sondern in der geschickten Verwaltung von Erwartungen.
Ein zentrales Argument war die Ökonomie der Mittel. Warum sollte man komplexe syntaktische Analysen durchführen – also den Satz grammatikalisch komplett sezieren –, wenn eine einfache Mustererkennung zum gleichen Ergebnis führt? Er zeigte, dass menschliche Sprache oft redundant ist. Wir brauchen nicht jedes Wort, um den Sinn zu erfassen oder zumindest so zu tun, als hätten wir ihn erfasst.
Ein weiteres Argument betraf die Flexibilität. Da das Programm (die Engine) vom Skript (den Daten) getrennt war, argumentierte Weizenbaum, dass ELIZA ein universelles Werkzeug sei. Man könnte heute ein Skript für einen Therapeuten schreiben, morgen eines für einen Koch, der Rezepte vorschlägt (solange der Nutzer die richtigen Schlüsselwörter wie „Eier“ oder „Mehl“ liefert). Er plädierte dafür, KI-Probleme in kleine, handhabbare Kontexte zu zerlegen, statt zu versuchen, eine „Super-Intelligenz“ zu bauen, die alles auf einmal kann.
Bedeutung
Die Bedeutung von ELIZA kann gar nicht hoch genug eingeschätzt werden. Es war der erste Chatbot der Geschichte. Vor ELIZA war die Kommunikation mit Computern eine Sache von Programmiersprachen, Lochkarten und kryptischen Befehlen. ELIZA zeigte zum ersten Mal, dass ein Computer die Sprache des Menschen sprechen kann – oder zumindest so tun kann.
Wissenschaftlich gesehen war es der Beweis, dass Mustererkennung (Pattern Matching) ein mächtiges Werkzeug für die Verarbeitung natürlicher Sprache ist. Viele der Techniken, die Weizenbaum einführte – wie das Ersetzen von Pronomen (ich -> du) oder das Erkennen von Schlüsselwörtern –, sind in rudimentärer Form noch heute in einfachen Support-Bots oder Videospiel-Dialogsystemen zu finden.
Historisch betrachtet markierte ELIZA den Punkt, an dem die KI aus den Laboren der reinen Logik und Mathematik heraustrat und begann, sich mit der Psychologie des Nutzers zu beschäftigen. Es war der Moment, in dem die Informatik lernte, dass der Nutzer getäuscht werden will.
Wirkung
Die Wirkung von ELIZA war explosiv und für Weizenbaum selbst zutiefst verstörend. Der Artikel im Journal Communications of the ACM wurde viel beachtet, aber die gesellschaftliche Reaktion war das eigentliche Phänomen.
Menschen, die mit ELIZA sprachen, entwickelten fast augenblicklich eine emotionale Bindung zu dem Programm. Weizenbaums eigene Sekretärin, die genau wusste, dass es sich nur um ein Computerprogramm handelte und die Weizenbaum beim Programmieren beobachtet hatte, bat ihn einmal, den Raum zu verlassen, weil ihr Gespräch mit der Maschine „privat“ sei.
Psychiater schrieben Aufsätze darüber, dass Computer bald die Behandlung von Hunderten von Patienten gleichzeitig übernehmen könnten. Man sah in ELIZA eine Lösung für den Mangel an Therapeuten.
Dieser Effekt wurde so berühmt, dass er einen eigenen Namen bekam: der ELIZA-Effekt. Er beschreibt das Phänomen, dass Menschen dazu neigen, Computern menschliche Eigenschaften wie Intelligenz, Emotionen und Verständnis zuzuschreiben, selbst wenn sie wissen, dass es nur Maschinen sind. Wir projizieren unsere eigene Menschlichkeit auf den kalten Bildschirm. Wenn die Maschine „Ich verstehe“ sagt, glauben wir ihr, weil wir uns wünschen, verstanden zu werden.
Relevanz
Ist ELIZA heute noch relevant? Absolut. In einer Zeit, in der wir mit ChatGPT, Claude und Siri leben, ist ELIZA aktueller denn je.
Zwar sind moderne große Sprachmodelle (LLMs) technisch unendlich viel komplexer als ELIZA – sie basieren auf neuronalen Netzen und gigantischen Datenmengen, nicht auf handgeschriebenen Regeln –, aber die psychologische Schnittstelle ist dieselbe. Wenn ChatGPT uns eine empathisch klingende Antwort gibt, ist das im Grunde eine hochkomplexe Weiterentwicklung des ELIZA-Effekts. Wir wissen, dass das Modell keine Gefühle hat, aber es fühlt sich so an.
ELIZA lehrt uns eine wichtige Lektion über KI: Die Qualität der Interaktion hängt oft weniger von der tatsächlichen Intelligenz der Maschine ab, als vielmehr von ihrer Fähigkeit, auf unsere sozialen Trigger zu reagieren. Weizenbaum zeigte, dass man mit minimalem technischen Aufwand maximale soziale Wirkung erzielen kann. Jedes Mal, wenn ein moderner Chatbot halluziniert oder uns täuscht, sehen wir das Erbe von ELIZA.
Kritik
Die Kritik an ELIZA kam interessanterweise am schärfsten von ihrem Schöpfer selbst. Joseph Weizenbaum wandelte sich vom KI-Pionier zum KI-Kritiker. Er war entsetzt darüber, wie leichtgläubig die Menschen waren.
Seine Kritikpunkte waren fundamental:
- Fehlendes Verständnis: ELIZA versteht nichts. Rein gar nichts. Wenn man schreibt „Ich hasse meine Mutter“, erkennt ELIZA das Wort „Mutter“ und feuert eine Regel ab. Sie weiß nicht, was eine Mutter ist, was Hass ist oder was es bedeutet, jemanden zu hassen. Es ist eine reine Syntax-Manipulation ohne Semantik (Bedeutung).
- Die Gefahr der Entmenschlichung: Weizenbaum kritisierte heftig die Idee, dass Maschinen menschliche Aufgaben wie Therapie übernehmen könnten. Er argumentierte, dass Therapie auf menschlichem Mitgefühl und Lebenserfahrung beruht – Dinge, die eine Maschine per Definition nicht haben kann. Eine Maschine, die Empathie simuliert, betrügt den Patienten.
- Technische Brüchigkeit: Rein technisch gesehen war ELIZA extrem leicht auszutricksen. Wenn man Sätze bildete, die keine der vordefinierten Schlüsselwörter enthielten, antwortete das Programm oft mit unsinnigen Phrasen oder wiederholte sich ständig. Die Illusion hielt nur so lange, wie der Nutzer bereit war, das „Spiel“ mitzuspielen und sich in der Rolle des Patienten wohlfühlte. Sobald man anfing, der Maschine Fragen zu stellen, brach das Kartenhaus zusammen.
Fazit
ELIZA war ein brillanter Taschenspielertrick der Informatik. Joseph Weizenbaum zeigte mit diesem Programm, dass die Barriere zwischen Mensch und Maschine durchlässiger ist, als wir dachten – nicht, weil die Maschinen so schlau wurden, sondern weil wir Menschen so sehr nach Spiegelung und Resonanz suchen.
Der Artikel „ELIZA – A Computer Program For the Study of Natural Language Communication Between Man and Machine“ ist weit mehr als eine technische Dokumentation. Er ist ein Dokument der menschlichen Psychologie. ELIZA war ein Spiegel. Wer hineinsah, sah nicht die Maschine, sondern sich selbst. Und wie Narziss in der griechischen Mythologie verliebten sich die Nutzer in ihr eigenes Spiegelbild, das die Maschine ihnen zurückwarf.
Weizenbaum wollte zeigen, wie oberflächlich die Kommunikation zwischen Mensch und Maschine ist. Ironischerweise bewies er das Gegenteil: Er zeigte, wie tiefgreifend und emotional sie sein kann, selbst wenn sie auf einer Illusion beruht.
Ausblick
Was folgte auf ELIZA? Zunächst eine lange Phase der Ernüchterung, oft als „KI-Winter“ bezeichnet, da man merkte, dass echte Intelligenz nicht nur aus simplen Regeln bestehen kann. Doch der Traum vom sprechenden Computer war geweckt.
Es folgte PARRY, ein Bot, der einen paranoiden Schizophrenen simulierte (und damit noch besser funktionierte als ELIZA, da Paranoide ohnehin oft unlogisch antworten). Später kamen ALICE und schließlich die modernen Assistenten wie Siri.
Heute stehen wir an einem Punkt, den Weizenbaum vielleicht gefürchtet hätte. Unsere modernen KIs verstehen zwar immer noch nicht im menschlichen Sinne, was „Liebe“ oder „Trauer“ ist, aber ihre Simulation ist so perfekt geworden, dass die Nahtstellen, die bei ELIZA noch sichtbar waren, verschwunden sind. Der Ausblick ist daher sowohl faszinierend als auch mahnend: Wir müssen lernen, mit Maschinen zu sprechen, ohne zu vergessen, dass am anderen Ende niemand zu Hause ist.
Literaturquellen
- Hauptquelle: Weizenbaum, J. (1966): ELIZA – A Computer Program For the Study of Natural Language Communication Between Man and Machine. Communications of the ACM, Vol. 9, No. 1, S. 36-45.
Hintergrundinformationen zu den Autoren
Joseph Weizenbaum (1923–2008) war ein deutsch-amerikanischer Informatiker und einer der schillerndsten Figuren in der Geschichte der KI. Als Jude floh er 1936 mit seiner Familie vor den Nazis aus Berlin in die USA. Er diente im Zweiten Weltkrieg, studierte Mathematik und landete schließlich am MIT.
Das Besondere an Weizenbaum war seine Wandlung. Nachdem er mit ELIZA weltberühmt geworden war, zog er sich nicht in den Elfenbeinturm des Erfolgs zurück, sondern wurde zum lautstarken Kritiker seiner eigenen Disziplin. Sein Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ (1976) ist eine Abrechnung mit dem blinden Technikglauben.
Weizenbaum wurde zu einer Art „Gewissen der Informatik“. Er warnte davor, Entscheidungen an Computer zu delegieren, die auf Werten und nicht auf Berechnungen basieren sollten – wie etwa in der Justiz, der Medizin oder der Kriegsführung. Er blieb bis zu seinem Tod ein Mahner, der uns daran erinnerte, dass ein Computer ein nützliches Werkzeug sein kann, aber niemals ein Ersatz für menschliche Verantwortung und Menschlichkeit. Seine Rückkehr nach Berlin im Alter schloss den Kreis seines bewegten Lebens. Er war der Wissenschaftler, der bewies, dass Maschinen sprechen können, und uns dann zurief: „Glaubt ihnen kein Wort!“
Disclaimer: Dieser Text ist komplett KI-generiert (Gemini 3.0 Thinking, 14.12.2025). Die darin enthaltenen Angaben wurden nicht überprüft. Zum Prompt. Zur Übersicht.