Als Computer das Denken lernten
Einführung
Stellen Sie sich vor, Sie sitzen an einem Schreibtisch im Jahr 1958. Die Welt ist noch in Schwarzweiß, Elvis rockt die Charts, und Computer sind raumfüllende Maschinen, die hauptsächlich Zahlen knacken. In diesem Moment machen drei Wissenschaftler etwas Revolutionäres: Sie versuchen, einer Maschine beizubringen, wie Menschen denken. Nicht nur Rechnen, sondern wirklich Denken. Der General Problem Solver, kurz GPS, war geboren – und mit ihm die Hoffnung, dass Maschinen eines Tages jedes nur erdenkliche Problem lösen könnten.
Diese Geschichte beginnt allerdings nicht mit GPS, sondern mit einem früheren Geistesstreich derselben Forscher: dem Logic Theorist. Dieses Programm bewies mathematische Sätze in der Aussagenlogik – und zwar nicht stur nach vorgegebenen Rezepten, sondern mit Einfallsreichtum und Cleverness. Als die Forscher beobachteten, wie Studenten ähnliche Aufgaben lösten, und deren Gedankengänge mit Tonbandaufnahmen festhielten, machten sie eine faszinierende Entdeckung: Die Methoden, die Menschen beim Problemlösen einsetzten, schienen universeller zu sein als zunächst gedacht. Es war, als hätten sie das Alphabet des Denkens gefunden.
Kernidee
Die Grundidee des GPS war so einfach wie kühn: Was wäre, wenn es einen allgemeinen Mechanismus zum Lösen von Problemen gäbe? Eine Art universelles Werkzeug des Geistes, das unabhängig vom konkreten Inhalt funktioniert? Die Forscher beobachteten, dass beim Logic Theorist etwas Bemerkenswertes geschehen war: Es gab eine klare Trennung zwischen dem eigentlichen Inhalt – der symbolischen Logik – und den Methoden zum Lösen der Probleme.
Diese Beobachtung führte zu einer revolutionären Erkenntnis. Die eingesetzten Problemlösungsmethoden schienen von sehr allgemeiner Natur zu sein und beinhalteten Konzepte wie funktionale Analyse und Planung. Noch erstaunlicher: Das Programm schien tatsächlich große Teile des beobachteten menschlichen Verhaltens nachzubilden. Die Studenten im Labor und das Computerprogramm gingen erstaunlich ähnlich vor.
Daraus entwickelten Newell, Shaw und Simon die Vision eines wirklich allgemeinen Problemlösers. Nicht ein Spezialist für Logik oder Mathematik, sondern ein Generalist, der mit den unterschiedlichsten Herausforderungen umgehen konnte – von Schach über mathematische Beweise bis hin zu Alltagsproblemen.
Ziele und Forschungsfragen
Die Forscher verfolgten mit GPS mehrere ehrgeizige Ziele. Zunächst wollten sie verstehen, was Problemlösen überhaupt bedeutet. Was passiert im Kopf eines Menschen, der vor einem Rätsel steht? Wie kommt man vom Nichtwissen zum Wissen, vom Problem zur Lösung? Vorher gab es zwar Psychologie des menschlichen Denkens und praktische Ratgeber für besseres Problemlösen, aber keine echte Theorie, die erklären konnte, wie der Prozess funktioniert.
Der Aufstieg des Digitalcomputers bot eine völlig neue Möglichkeit: Problemlösen und kreatives Verhalten nicht nur zu beobachten, sondern es künstlich herzustellen. Die Forscher betonten dabei, dass es ihnen nicht primär darum ging, eine intelligente Maschine zu bauen – obwohl das verlockend klang. Vielmehr wollten sie die Prozesse verstehen, die beim Lösen schwieriger Probleme ablaufen.
Dabei verfolgten sie gleichzeitig zwei Perspektiven: Einerseits die Entwicklung einer reinen Theorie des Problemlösens, andererseits die Entwicklung spezifischer Theorien darüber, wie Menschen denken. Der Clou war, dass beide Ansätze Hand in Hand gehen konnten. Eine Technik, die komplexe Prozesse darstellen kann, sollte sich auch nutzen lassen, um die besonderen Varianten zu beschreiben, die beim Menschen auftreten.
Die zentrale Forschungsfrage lautete also: Welche zusätzlichen Informationen können die Suche nach Lösungen drastisch reduzieren? Und wie organisiert man den gesamten Problemlösungsprozess?
Konzept
Das konzeptionelle Fundament des GPS basiert auf einer eleganten Grundidee: Viele Probleme lassen sich als eine Menge von Objekten und eine Menge von Operationen formulieren. Die Operationen verwandeln bestimmte Objekte in neue Objekte. Das Ziel ist es, einen Weg zu finden, ein Ausgangsobjekt in ein gewünschtes Zielobjekt zu transformieren.
Nehmen wir Schach als Beispiel. Die Objekte sind die verschiedenen Stellungen auf dem Brett, die Operationen sind die Züge. Nicht jeder Zug ist von jeder Stellung aus möglich, aber für die meisten Stellungen gibt es mehrere Möglichkeiten. Das Problem besteht darin, eine Folge von Zügen zu finden, die von der Ausgangsstellung zu einer Stellung führt, in der der gegnerische König schachmatt gesetzt ist.
Oder betrachten wir das Beweisen mathematischer Sätze. Die Objekte sind die Theoreme, die Operationen sind die zulässigen Schlussregeln. Die Herausforderung besteht darin, einen Weg zu finden, wie man von den Axiomen zum gewünschten Theorem gelangt. Manche Schlussregeln benötigen mehrere Objekte als Eingabe: Aus den Aussagen „A“ und „A impliziert B“ entsteht die neue Aussage „B“.
Die Forscher erkannten, dass selbst scheinbar triviale Probleme in diesen Rahmen passen. Das Suchen einer halb erinnerten Passage in einem Buch? Die Objekte sind Viertelseiten, die Operationen sind das Umblättern einer Seite, mehrerer Seiten oder eines halben Zentimeters Papier. Das Problem ist gelöst, wenn man die gesuchte Passage wiedererkennt.
Die grundlegendste Strategie nannten sie „Suchen und Testen“. Die Operationen erlauben es, neue Objekte aus alten zu erzeugen. Ein Test ist gegeben, mit dem man eine akzeptable Lösung erkennt, sobald sie generiert wurde. Ein Schema, das systematisch alle Objekte nacheinander erzeugt und testet, liefert ein Verfahren zur Problemlösung. Wenn die Menge möglicher Objekte nicht zu groß ist und man sicherstellen kann, dass der Generator nicht in Schleifen gerät, sondern jedes Objekt in endlicher Zeit erreicht, dann ist dies sogar ein Algorithmus.
Doch hier taucht das zentrale Problem auf: die exponentielle Natur des Lösungsraums. Wenn die erwartete Anzahl der Operationen bis zur Lösung d beträgt und im Durchschnitt b Operationen auf jedes Objekt anwendbar sind, dann ist die erwartete Anzahl der zu erzeugenden Objekte ungefähr die Hälfte von b hoch d. Solange b und d klein sind, ist das tolerierbar. Beim Schach jedoch liegt b bei etwa dreißig und d bei etwa vierzig – das ergibt etwa zehn hoch hundertundzwanzig zu betrachtende Objekte. Eine astronomische Zahl.
Hier kommt die entscheidende Idee ins Spiel: Heuristiken. Das sind zusätzliche Informationshäppchen, die die notwendige Such- und Testarbeit drastisch reduzieren. Eine Heuristik ist eine Faustregel, die empirisch bewährt ist – etwas, das bei ähnlichen Problemen funktioniert hat und das der Problemlöser entweder durch Erfahrung oder durch Lehre gelernt hat. Wichtig ist: Eine Heuristik muss etwas sein, das ein Problemlöser haben und anwenden kann, ohne bereits die Lösung zu kennen.
GPS arbeitete mit verschiedenen Arten von Heuristiken. Die offensichtlichste bestand darin, die Anzahl der zu verfolgenden Zweige bei jedem Knoten zu verringern. Regeln zum Verwerfen aussichtsloser Wege eliminierten ganze Teilbäume der Suchgraphen. Noch interessanter war die Strategie der Mittel-Ziel-Analyse. Dabei verglich das Programm den aktuellen Zustand mit dem gewünschten Zielzustand und identifizierte die Unterschiede. Dann suchte es nach Operationen, die geeignet waren, genau diese Unterschiede zu verringern.
Ein weiterer cleverer Trick war die Planung. Anstatt sofort ins Detail zu gehen, arbeitete GPS manchmal auf einer abstrakteren Ebene. Es ignorierte zunächst weniger wichtige Details und konzentrierte sich auf die Hauptstruktur des Problems. Erst wenn ein grober Plan stand, wurden die Details ausgearbeitet.
Argumente
Die Forscher lieferten mehrere überzeugende Argumente für ihren Ansatz. Das stärkste war empirischer Natur: GPS funktionierte tatsächlich für verschiedene Problemtypen. Die Forscher demonstrierten dies an vier unterschiedlichen Aufgaben – symbolische Logik, trigonometrische Identitäten, Integration mit Hilfe von Tabellen und Schach. Diese Vielfalt untermauerte die Behauptung, dass die Methoden wirklich allgemeiner Natur waren.
Ein besonders faszinierendes Argument ergab sich aus den psychologischen Experimenten. Die Forscher hatten Studenten gebeten, Probleme in symbolischer Logik zu lösen, während sie laut dachten. Diese Protokolle wurden aufgezeichnet. Als sie dann versuchten, eine Version des Programms zu konstruieren, die das Verhalten der Studenten im Detail beschrieb, stellten sie fest, dass GPS tatsächlich große Teile des beobachteten menschlichen Verhaltens nachbildete.
Dies führte zu einem tieferen theoretischen Argument: Wenn GPS menschliches Problemlösungsverhalten simulieren konnte, dann musste es fundamentale Prinzipien des Denkens erfassen. Die Trennung zwischen Inhalt und Methode im Programm entsprach offenbar einer realen Trennung in der menschlichen Kognition. Menschen nutzen anscheinend ähnliche Strategien, unabhängig davon, ob sie Logikprobleme lösen, Schach spielen oder mathematische Gleichungen manipulieren.
Die Forscher argumentierten zudem, dass ihre Formulierung eines Problems als Generator-Test-System oder als Labyrinth eine Art Minimaldefinition darstellte. Fast jedes Problem, das man sich vorstellen kann, lässt sich in dieser Form ausdrücken. Das macht die Theorie sehr allgemein. Gleichzeitig zeigt es, warum zusätzliche Heuristiken notwendig sind: Die reine Generator-Test-Formulierung liefert nicht genug Information, um komplexe Probleme effizient zu lösen.
Bedeutung
Der General Problem Solver markierte einen Wendepunkt in der Geschichte der künstlichen Intelligenz. Zum ersten Mal versuchten Forscher nicht, ein einzelnes, spezifisches Problem zu lösen, sondern die allgemeinen Prinzipien des Problemlösens zu verstehen und zu implementieren.
Die theoretische Bedeutung lag vor allem in der Formulierung einer Theorie des Problemlösens. Newell, Shaw und Simon schufen einen begrifflichen Rahmen, der bis heute nachwirkt. Konzepte wie der Suchraum, Heuristiken, die Mittel-Ziel-Analyse und die Unterscheidung zwischen Inhalt und Methode wurden zu Grundbausteinen der KI-Forschung.
Praktisch demonstrierte GPS, dass Computer mehr können als nur rechnen. Sie konnten mit Symbolen manipulieren, planen, Strategien entwickeln und dabei sogar menschliches Verhalten nachahmen. Das war eine fundamentale Erweiterung dessen, was man Maschinen zutraute.
Für die Psychologie war GPS ebenfalls revolutionär. Es bot eine völlig neue Methode, um Theorien über menschliches Denken zu testen. Anstatt nur zu beobachten und zu beschreiben, konnten Psychologen nun präzise Modelle in Form von Computerprogrammen formulieren. Wenn ein Programm das beobachtete Verhalten reproduzieren konnte, war das ein starkes Argument für die zugrundeliegende Theorie.
Wirkung
Die Wirkung des GPS auf die Entwicklung der künstlichen Intelligenz kann kaum überschätzt werden. Das Programm inspirierte eine ganze Generation von KI-Forschern. Die Idee, dass man intelligente Systeme durch die Kombination von Suche und Heuristiken bauen kann, wurde zu einem zentralen Paradigma der frühen KI.
Viele später entwickelte Systeme bauten direkt oder indirekt auf den Konzepten des GPS auf. Die Mittel-Ziel-Analyse wurde zu einer Standardtechnik in der Planung und Problemlösung. Roboter, die komplexe Aufgaben erledigen müssen, nutzen bis heute Varianten dieser Strategie.
In der kognitiven Psychologie führte GPS zu einem Paradigmenwechsel. Die Arbeit von Newell und Simon begründete die informationsverarbeitende Psychologie, die den menschlichen Geist als Informationsverarbeitungssystem begreift. Dieser Ansatz dominierte die kognitive Wissenschaft für Jahrzehnte.
Interessanterweise hatte GPS auch indirekt durch sein Scheitern Einfluss. Die Erkenntnis, dass ein wirklich allgemeiner Problemlöser an seine Grenzen stößt, führte zur Entwicklung von Expertensystemen. Diese konzentrierten sich auf eng begrenzte Wissensgebiete und erzielten dort beeindruckende Erfolge – eine direkte Reaktion auf die Schwächen von GPS.
Relevanz
Aus heutiger Sicht mag GPS wie ein bescheidener Anfang wirken. Moderne KI-Systeme können Bilder erkennen, natürliche Sprache verstehen und komplexe Spiele auf Weltklasseniveau spielen. Dennoch bleibt GPS erstaunlich relevant.
Die grundlegenden Konzepte leben in moderner KI weiter. Suchalgorithmen sind nach wie vor zentral für viele Anwendungen, von Routenplanung bis zur Optimierung komplexer Systeme. Die Idee, Heuristiken zu nutzen, um riesige Suchräume handhabbar zu machen, ist fundamentaler denn je.
Besonders interessant ist die Wiederkehr der Mittel-Ziel-Analyse in modernen Systemen. Aktuelle Planungsalgorithmen in der Robotik und autonome Systeme verwenden oft Varianten dieser Strategie. Auch in der Spieletheorie und beim maschinellen Lernen finden sich Echos dieser Ideen.
Die theoretischen Einsichten über die Natur des Problemlösens behalten ihre Gültigkeit. Die exponentielle Natur von Suchräumen bleibt eine zentrale Herausforderung. Moderne Ansätze wie Deep Learning können als raffinierte Methoden verstanden werden, genau diese exponentielle Explosion zu bewältigen – durch das Lernen effektiver Heuristiken aus Daten.
Auch die Verbindung zur menschlichen Kognition ist weiterhin spannend. Während manche moderne KI-Systeme völlig anders funktionieren als das menschliche Gehirn, gibt es einen wachsenden Trend zu „kognitiv inspirierten“ Architekturen, die bewusst von menschlichen Denkprozessen lernen.
Kritik
Trotz seiner historischen Bedeutung blieb GPS nicht ohne Kritik. Die fundamentalste Kritik richtete sich gegen den Anspruch der Allgemeinheit. Trotz seines Namens erwies sich GPS in der Praxis als nicht wirklich allgemein einsetzbar. Das Programm funktionierte gut für klar strukturierte, formalisierbare Probleme, scheiterte jedoch bei komplexeren, realistischeren Aufgaben.
Ein zentrales Problem war die Trennung zwischen Inhalt und Methode, die zunächst als große Stärke gepriesen wurde. Diese Trennung ignorierte, wie wichtig domänenspezifisches Wissen für effektives Problemlösen ist. Ein Schachgroßmeister denkt nicht nur besser über Schach nach – er verfügt über ein riesiges Repertoire an gespeicherten Mustern und Situationen. Diese Art von Expertenwissen ließ sich in GPS nicht gut abbilden.
Die computationellen Grenzen wurden schnell deutlich. Selbst mit Heuristiken explodierte die Anzahl zu betrachtender Zustände bei realistischen Problemen. Die Computer der späten Fünfzigerjahre waren ohnehin extrem langsam und hatten winzige Speicher. Aber selbst mit heutiger Rechenleistung würden viele Probleme den Rahmen sprengen.
Kritiker bemängelten auch, dass GPS zwar behauptete, menschliches Denken zu simulieren, aber wichtige Aspekte ignorierte. Kreativität, Intuition, das Nutzen von Analogien, die Fähigkeit, Probleme neu zu rahmen – all das fehlte. GPS war mechanisch und starr, wo Menschen flexibel und einfallsreich sind.
Die psychologischen Protokolle, auf die sich die Forscher stützten, waren ebenfalls problematisch. Lautes Denken erfasst nur bewusste Denkprozesse. Viel von dem, was beim Problemlösen passiert, läuft unbewusst ab und taucht in solchen Protokollen nicht auf.
Schließlich stellte sich heraus, dass der Traum vom universellen Problemlöser aus prinzipiellen Gründen problematisch ist. Verschiedene Probleme erfordern verschiedene Arten von Wissen und Strategien. Ein Alleskönner ist notwendigerweise in vielen Bereichen nur mittelmäßig.
Fazit
Der General Problem Solver war ein mutiges Experiment, das gleichzeitig ein Erfolg und ein Misserfolg war. Als Versuch, einen wirklich universellen Problemlöser zu schaffen, scheiterte GPS. Die Vision, dass ein einziges Programm mit denselben Methoden Schach spielen, mathematische Sätze beweisen und Alltagsprobleme lösen könnte, erwies sich als zu optimistisch.
Aber als wissenschaftlicher Meilenstein war GPS ein durchschlagender Erfolg. Das Programm half, grundlegende Fragen über die Natur des Problemlösens zu formulieren und zu beantworten. Es demonstrierte, dass man Denken als Informationsverarbeitung begreifen kann. Es zeigte, wie man Theorien über Kognition präzise formulieren und testen kann.
GPS lehrte die KI-Forschung wichtige Lektionen. Die Bedeutung von domänenspezifischem Wissen wurde klar. Die Grenzen rein symbolischer Ansätze wurden sichtbar. Die Notwendigkeit, verschiedene Techniken für verschiedene Problemtypen zu entwickeln, wurde deutlich.
Die Forscher selbst gingen bemerkenswert ehrlich mit den Grenzen ihres Systems um. Sie präsentierten GPS nicht als fertige Lösung, sondern als Schritt auf einem langen Weg. Diese wissenschaftliche Redlichkeit machte ihre Arbeit umso wertvoller.
In gewisser Weise war GPS seiner Zeit weit voraus. Die Ideen waren brillant, aber die Technologie noch nicht reif genug. Erst Jahrzehnte später, mit dramatisch gestiegener Rechenleistung und neuen Ansätzen wie maschinellem Lernen, konnten manche Visionen der GPS-Forscher teilweise realisiert werden.
Ausblick
Der Geist des General Problem Solver lebt auf vielfältige Weise weiter. In der modernen KI-Forschung gibt es einen Trend zu „allgemeinerer“ künstlicher Intelligenz. Systeme wie große Sprachmodelle zeigen erstaunliche Flexibilität über verschiedene Aufgaben hinweg – eine Art Echo der ursprünglichen GPS-Vision, wenn auch mit völlig anderen Methoden.
Die Kombination von symbolischem Denken und statistischem Lernen könnte der Schlüssel sein. Während GPS rein symbolisch arbeitete und moderne Deep-Learning-Systeme rein statistisch vorgehen, könnten hybride Ansätze das Beste aus beiden Welten vereinen. Einige Forscher arbeiten bereits an Systemen, die strukturierte Planung mit gelernten Heuristiken kombinieren.
Die Idee der Mittel-Ziel-Analyse erfährt eine Renaissance in der Forschung zu autonomen Agenten und Robotern. Moderne Planungsalgorithmen nutzen oft hierarchische Ansätze, die GPS ähneln, aber durch maschinelles Lernen verbessert werden.
Interessanterweise wird auch die Verbindung zur menschlichen Kognition wieder wichtiger. Forscher im Bereich der „kognitiv inspirierten KI“ schauen sich genau an, wie Menschen Probleme lösen, und versuchen, diese Prinzipien in modernere Architekturen zu integrieren.
Die Frage nach der wirklich allgemeinen künstlichen Intelligenz bleibt offen. Werden wir jemals ein System haben, das so flexibel wie der menschliche Geist ist? Die Geschichte von GPS lehrt uns Bescheidenheit. Aber sie lehrt uns auch, dass kühne Visionen der Forschung Antrieb geben können, selbst wenn sie nicht vollständig erreicht werden.
Vielleicht ist die größte Lektion von GPS diese: Wissenschaftlicher Fortschritt entsteht oft aus dem intelligenten Scheitern. GPS funktionierte nicht so, wie seine Schöpfer hofften. Aber es stellte die richtigen Fragen, entwickelte nützliche Konzepte und inspirierte Generationen von Forschern. In dieser Hinsicht war der General Problem Solver vielleicht der erfolgreichste „Misserfolg“ in der Geschichte der künstlichen Intelligenz.
Literaturquellen
Primärquelle: Newell, A., Shaw, J. C., & Simon, H. A. (1958). Report on a general problem-solving program. RAND Corporation.
Weiterführende Literatur der Autoren: Newell, A., & Simon, H. A. (1961). GPS, a program that simulates human thought. In E. Feigenbaum & J. Feldmann (Hrsg.), Computers and Thought.
Newell, A., & Simon, H. A. (1972). Human problem solving. Prentice-Hall.
Hintergrundinformationen zu den Autoren
Allen Newell, J. Clifford Shaw und Herbert A. Simon bildeten ein außergewöhnliches Forscherteam an der Schnittstelle von Informatik, Psychologie und Organisationstheorie. Ihre Zusammenarbeit begann in den mittleren Fünfzigerjahren und sollte die Entwicklung der künstlichen Intelligenz und kognitiven Wissenschaft nachhaltig prägen.
Herbert A. Simon war ursprünglich Politikwissenschaftler und Ökonom, der sich für Entscheidungsprozesse in Organisationen interessierte. Seine Arbeiten zur begrenzten Rationalität – der Idee, dass Menschen nicht perfekt rational entscheiden, sondern mit begrenzten kognitiven Ressourcen auskommen müssen – brachten ihm später den Nobelpreis für Wirtschaftswissenschaften ein. Diese Perspektive floss direkt in die Arbeit an GPS ein.
Allen Newell war ein Pionier der Informatik, der erkannte, dass Computer mehr sein könnten als Rechenmaschinen. Seine Vision war es, mit Computerprogrammen menschliche Denkprozesse zu modellieren und zu verstehen. Er wurde zu einem der Gründerväter sowohl der künstlichen Intelligenz als auch der kognitiven Wissenschaft.
J. Clifford Shaw war ein Systemprogrammierer bei der RAND Corporation, der entscheidend zur technischen Umsetzung der theoretischen Ideen beitrug. Seine Expertise in der Programmierung war unverzichtbar, um die abstrakten Konzepte in funktionierende Software zu verwandeln.
Die Zusammenarbeit dieser drei Forscher mit ihren unterschiedlichen Hintergründen war außergewöhnlich fruchtbar. Sie verbanden psychologische Einsichten über menschliches Denken mit formalen Theorien über Problemlösen und praktischer Programmiererfahrung. Diese interdisziplinäre Herangehensweise wurde zum Vorbild für die gesamte KI-Forschung.
Newell und Simon arbeiteten später noch jahrzehntelang zusammen und entwickelten ihre Ideen weiter. Ihr gemeinsames Buch „Human Problem Solving“ von 1972 wurde zu einem Klassiker der kognitiven Psychologie. Beide erhielten zahlreiche Auszeichnungen für ihre Beiträge zur Wissenschaft und gelten heute als zentrale Figuren in der Geschichte der künstlichen Intelligenz und der kognitiven Revolution in der Psychologie.
Disclaimer: Dieser Text ist komplett KI-generiert (Claude Sonnet 4.5, 09.01.2026). Die darin enthaltenen Angaben wurden nicht überprüft. Zum Prompt. Zur Übersicht.