2023 Smallville (Claude)

Wenn Computerprogramme ein eigenes Leben führen

Einführung

Stellen Sie sich vor, Sie könnten in ein Computerspiel wie Die Sims einsteigen und die Figuren würden sich wie echte Menschen verhalten – mit Erinnerungen, Plänen, Beziehungen und sogar der Fähigkeit, über ihr Leben nachzudenken. Genau das haben Forscher der Stanford University und Google im Jahr 2023 geschaffen. Das Smallville-Experiment ist ein bahnbrechender Meilenstein in der Entwicklung künstlicher Intelligenz, der zeigt, wie Computerprogramme menschliches Verhalten auf verblüffend realistische Weise nachahmen können.

In einer virtuellen Kleinstadt namens Smallville leben fünfundzwanzig Computerfiguren, die von den Forschern als „generative Agenten“ bezeichnet werden. Diese digitalen Bewohner wachen morgens auf, kochen Frühstück, gehen zur Arbeit, treffen Freunde, verlieben sich und organisieren gemeinsame Feiern – alles ohne direktes Eingreifen durch Menschen. Das Besondere: Diese Verhaltensweisen sind nicht einfach vorprogrammiert, sondern entstehen aus den Erfahrungen und Erinnerungen der Agenten, genau wie bei echten Menschen.

Die Studie von Joon Sung Park und seinem Team demonstriert nicht nur technische Innovationen, sondern wirft auch faszinierende Fragen auf: Was bedeutet es, wenn künstliche Intelligenz soziale Dynamiken simulieren kann? Wie unterscheidet sich maschinelles von menschlichem Verhalten? Und welche Möglichkeiten eröffnet dies für die Zukunft?


Kernidee

Die zentrale Idee hinter dem Smallville-Experiment ist ebenso einfach wie revolutionär: Anstatt jedes einzelne Verhalten einer Computerfigur mühsam zu programmieren, nutzen die Forscher große Sprachmodelle – ähnlich wie ChatGPT – als Gehirn für ihre digitalen Bewohner. Diese Modelle haben während ihres Trainings enorme Mengen an Texten gelesen und dabei ein breites Verständnis für menschliches Verhalten entwickelt.

Doch ein Sprachmodell allein reicht nicht aus, um glaubwürdige Charaktere zu erschaffen. Der Durchbruch liegt in einer ausgeklügelten Architektur, die dem Sprachmodell drei entscheidende Fähigkeiten verleiht: ein Gedächtnis, in dem alle Erfahrungen gespeichert werden, die Fähigkeit zur Reflexion über diese Erfahrungen und die Kompetenz, langfristige Pläne zu entwickeln. Zusammen ermöglichen diese Komponenten, dass die Agenten nicht nur im Moment reagieren, sondern auch aus ihrer Vergangenheit lernen und für die Zukunft planen können.

Ein Agent namens John Lin zum Beispiel ist Apotheker und lebt mit seiner Frau Mei, einer Professorin, und seinem Sohn Eddy, einem Musikstudenten. John erinnert sich daran, dass Eddy an einer Komposition arbeitet, und fragt beim nächsten Treffen gezielt danach. Später erzählt John seiner Frau von diesem Gespräch. Diese scheinbar alltäglichen Interaktionen zeigen, wie die Agenten Informationen speichern, abrufen und in neuen Kontexten nutzen – eine Grundvoraussetzung für glaubwürdiges soziales Verhalten.


Ziele und Forschungsfragen

Die Forscher verfolgten mit dem Smallville-Experiment mehrere ambitionierte Ziele. Zunächst wollten sie demonstrieren, dass es möglich ist, Computerprogramme zu schaffen, die menschliches Verhalten über längere Zeiträume hinweg glaubwürdig simulieren können. Frühere Ansätze in der Spieleentwicklung und KI-Forschung scheiterten oft daran, dass Charaktere entweder zu simpel und vorhersehbar oder nur für sehr spezifische Situationen programmiert waren.

Eine zentrale Forschungsfrage lautete: Welche Komponenten sind notwendig, damit ein Agent sich kohärent und glaubwürdig verhält? Die Forscher vermuteten, dass drei Elemente entscheidend sind: ein umfassendes Gedächtnis für vergangene Erfahrungen, die Fähigkeit, aus diesen Erfahrungen übergeordnete Erkenntnisse abzuleiten, und einen Planungsmechanismus für zukünftiges Handeln.

Ein weiteres Ziel war es zu untersuchen, ob und wie komplexe soziale Phänomene aus den Interaktionen der Agenten entstehen können. Können sich Informationen in der Gemeinschaft verbreiten? Bilden sich Beziehungen zwischen Agenten? Sind sie in der Lage, gemeinsame Aktivitäten zu koordinieren? Diese Fragen zielen auf sogenannte emergente Verhaltensweisen ab – Muster, die nicht explizit programmiert wurden, sondern sich aus dem Zusammenspiel der einzelnen Agenten ergeben.

Die Forscher wollten auch herausfinden, wo die Grenzen dieser Technologie liegen. Unter welchen Umständen verhält sich ein Agent unglaubwürdig? Welche Fehler macht die Architektur? Diese kritische Selbstbetrachtung ist wichtig, um die Technologie weiterzuentwickeln und realistische Erwartungen zu formulieren.


Konzept

Die technische Umsetzung des Smallville-Experiments beruht auf einer dreiteiligen Architektur, die für jeden Agenten individuell funktioniert. Diese Architektur verbindet das Sprachmodell mit Mechanismen für Gedächtnis, Reflexion und Planung.

Das Gedächtnis der Agenten funktioniert wie ein ständig wachsender Strom von Erfahrungen, der sogenannte Memory Stream. Jedes Ereignis, das ein Agent erlebt oder beobachtet, wird in natürlicher Sprache festgehalten. John Lin speichert zum Beispiel: „John setzt die Gebäckstücke aus“, „Maria Lopez lernt für eine Chemieprüfung während sie Kaffee trinkt“ oder „Isabella Rodriguez und Maria Lopez unterhalten sich über die Planung einer Valentinstagsparty“. Diese Beobachtungen sammeln sich im Laufe der Zeit an und bilden die Erfahrungsbasis des Agenten.

Doch ein Agent kann nicht bei jeder Entscheidung sein gesamtes Gedächtnis durchforsten – das würde das System überfordern und zu irrelevanten Antworten führen. Deshalb entwickelten die Forscher einen cleveren Abrufmechanismus, der auf drei Faktoren basiert: Aktualität (kürzlich erlebte Ereignisse sind wichtiger), Wichtigkeit (ein Gespräch über Liebeskummer wiegt schwerer als das Zähneputzen) und Relevanz (Erinnerungen, die zur aktuellen Situation passen, werden bevorzugt). Diese drei Faktoren werden kombiniert, um die bedeutsamsten Erinnerungen für die jeweilige Situation herauszufiltern.

Die zweite Komponente ist die Reflexion. In regelmäßigen Abständen – etwa zwei- bis dreimal am Tag – analysiert der Agent seine jüngsten Erfahrungen und zieht übergeordnete Schlussfolgerungen. Wenn Klaus Mueller beispielsweise mehrere Stunden mit seiner Forschungsarbeit verbracht hat, mit der Bibliothekarin über sein Projekt gesprochen und ein Buch über das Thema gelesen hat, kann er daraus ableiten: „Klaus Mueller ist leidenschaftlich an seiner Forschung über Gentrifizierung interessiert.“ Diese Reflexionen werden ebenfalls im Gedächtnis gespeichert und können bei späteren Entscheidungen abgerufen werden. Dadurch entwickelt der Agent ein tieferes Verständnis von sich selbst und anderen.

Die dritte Komponente ist die Planung. Agenten erstellen Pläne für ihren Tag, ihre Stunde und sogar für die nächsten Minuten. Diese Planung erfolgt hierarchisch: Zuerst wird der Tag in grobe Abschnitte eingeteilt, dann werden diese Abschnitte in detailliertere Aktivitäten zerlegt. Klaus‘ Plan, von 13 bis 17 Uhr an seiner Komposition zu arbeiten, wird in konkrete Schritte heruntergebrochen: erst Ideen sammeln, dann skizzieren, eine Pause einlegen und schließlich überarbeiten. Diese Pläne sind nicht starr – wenn etwas Unerwartetes passiert, kann der Agent reagieren und seinen Plan anpassen.

Die virtuelle Umgebung Smallville selbst ähnelt einem klassischen Videospiel mit Häusern, einem Café, einem Park, Geschäften und einer Schule. Die Forscher modellierten die Welt als Baumstruktur: Die Welt enthält Häuser, Häuser enthalten Räume, und Räume enthalten Objekte. Die Agenten bewegen sich durch diese Welt, interagieren mit Objekten und treffen auf andere Agenten, was wiederum neue Erinnerungen generiert.


Argumente

Die Forscher liefern mehrere überzeugende Argumente für die Wirksamkeit ihrer Architektur. Zunächst führten sie kontrollierte Experimente durch, in denen sie die Leistung der vollständigen Architektur mit vereinfachten Versionen verglichen. Sie testeten Varianten ohne Gedächtnis, ohne Reflexion oder ohne Planung. Das Ergebnis war eindeutig: Je mehr Komponenten entfernt wurden, desto weniger glaubwürdig verhielten sich die Agenten.

In einem Interviewverfahren stellten die Forscher den Agenten Fragen zu ihrem Selbstverständnis, ihren Erinnerungen, Plänen und Reaktionen. Ein Agent sollte beispielsweise erklären, mit wem er am liebsten Zeit verbringen würde und warum. Mit der vollständigen Architektur konnte Klaus Mueller reflektieren, dass er und Maria Lopez beide leidenschaftlich an ihrer Forschung arbeiten, und entschied sich daher für sie. Ohne Reflexionsfähigkeit wählte er hingegen einfach Wolfgang, seinen Nachbarn, mit dem er am häufigsten in Kontakt steht – eine oberflächliche, aber weniger durchdachte Wahl.

Menschliche Bewerter bewerteten die Antworten der verschiedenen Architekturen hinsichtlich ihrer Glaubwürdigkeit. Die vollständige Architektur schnitt mit großem Abstand am besten ab und übertraf sogar Antworten, die von Menschen verfasst wurden, die sich die Agenten zuvor genau angeschaut hatten. Dies ist besonders beeindruckend, da es zeigt, dass die Architektur konsistent menschenähnliches Verhalten erzeugen kann.

Ein weiteres starkes Argument liefert die Beobachtung emergenter sozialer Dynamiken. Die Forscher gaben lediglich vor, dass Isabella Rodriguez eine Valentinstagsparty veranstalten möchte. Was dann geschah, entwickelte sich völlig autonom: Isabella lud Freunde ein, bat um Hilfe beim Dekorieren, Maria fragte ihren heimlichen Schwarm Klaus, ob er sie begleiten würde, und am Valentinstag erschienen tatsächlich fünf Agenten zur Party. Diese Kette von Ereignissen erforderte erfolgreiche Informationsverbreitung, Erinnerung an die Einladung, Entscheidungen zur Teilnahme und zeitliche Koordination – alles ohne menschliches Eingreifen.

Die Forscher demonstrierten auch Informationsdiffusion: Als Sam Moore seine Kandidatur für das Bürgermeisteramt verkündete, verbreitete sich diese Information innerhalb von zwei Tagen auf acht Agenten, obwohl nur Sam zu Beginn davon wusste. Ebenso bildeten sich neue Beziehungen zwischen Agenten, die sich zuvor nicht kannten. Diese Ergebnisse belegen, dass die Architektur nicht nur individuelles, sondern auch kollektives soziales Verhalten ermöglicht.


Bedeutung

Die Bedeutung des Smallville-Experiments reicht weit über die technische Leistung hinaus. Es markiert einen Paradigmenwechsel in der Entwicklung von Computerprogrammen, die menschenähnliches Verhalten zeigen sollen. Während frühere Ansätze entweder auf starren Regelwerken basierten oder durch maschinelles Lernen auf sehr spezifische Aufgaben trainiert wurden, bietet diese Architektur einen flexiblen Mittelweg.

Für die Spieleindustrie eröffnet das Experiment neue Horizonte. Nicht-spielbare Charaktere in Videospielen könnten endlich das Versprechen einlösen, lebendige virtuelle Welten zu bevölkern, in denen jede Figur eine eigene Geschichte, Persönlichkeit und Entwicklung hat. Spieler könnten in Welten eintauchen, in denen die Charaktere ihre Handlungen erinnern, darauf reagieren und echte Beziehungen aufbauen.

Wissenschaftlich gesehen demonstriert das Experiment, wie kognitive Architekturen der Vergangenheit mit modernen Sprachmodellen kombiniert werden können. Frühere Systeme wie SOAR oder ACT-R versuchten, menschliches Denken zu modellieren, scheiterten aber oft an der Komplexität und dem Aufwand der manuellen Programmierung. Sprachmodelle allein waren wiederum zu zustandslos und kurzsichtig. Die Smallville-Architektur vereint die Stärken beider Ansätze.

Darüber hinaus eröffnet das Experiment Möglichkeiten für Sozialwissenschaften und Design. Forscher könnten theoretische Annahmen über menschliches Verhalten in kontrollierten Simulationen testen, ohne echte Menschen Risiken auszusetzen. Designer könnten soziale Plattformen mit bevölkerten Prototypen testen, um unerwartete Dynamiken frühzeitig zu erkennen.


Wirkung

Die Wirkung des Smallville-Experiments auf die KI-Community und darüber hinaus war beträchtlich. Die Arbeit wurde auf der renommierten UIST-Konferenz präsentiert und hat zahlreiche Folgeforschungen inspiriert. Die grundlegende Idee, Sprachmodelle mit erweiterten Gedächtnis- und Planungsmechanismen auszustatten, hat sich zu einem aktiven Forschungsgebiet entwickelt.

In der Öffentlichkeit fand das Experiment große Resonanz, da es die Frage aufwirft, wie menschenähnlich künstliche Intelligenz werden kann. Medienberichte hoben hervor, wie bemerkenswert es ist, dass digitale Charaktere autonom eine Party organisieren, sich verlieben oder politische Diskussionen führen können. Diese Faszination zeigt, dass die Technologie nicht nur wissenschaftlich relevant ist, sondern auch die Vorstellungskraft von Menschen anregt.

Praktische Anwendungen haben sich bereits abgezeichnet. Entwickler experimentieren mit der Integration ähnlicher Architekturen in kommerzielle Spiele und virtuelle Umgebungen. Unternehmen erkunden Einsatzmöglichkeiten in virtuellen Assistenten, die sich an längere Interaktionen erinnern und persönlicher auf Nutzer eingehen können.

Die Forschung hat auch Diskussionen über die ethischen Dimensionen solcher Technologien angestoßen. Wenn Computerprogramme sich so menschenähnlich verhalten, besteht die Gefahr, dass Nutzer emotionale Bindungen entwickeln, die unangemessen sein könnten. Die Autoren der Studie selbst weisen auf diese Risiken hin und betonen, dass solche Agenten immer klar als künstlich gekennzeichnet werden sollten.


Relevanz

Die Relevanz des Smallville-Experiments für die heutige und zukünftige Entwicklung der KI ist immens. Es zeigt einen Weg auf, wie Sprachmodelle über ihre bisherigen Grenzen hinauswachsen können. Während ChatGPT und ähnliche Systeme in der Lage sind, intelligente Antworten auf Fragen zu geben, fehlt ihnen die Fähigkeit, über längere Zeiträume ein kohärentes Selbst und eine konsistente Erinnerung aufrechtzuerhalten. Das Smallville-Experiment demonstriert, dass diese Einschränkung durch clever gestaltete Architekturen überwunden werden kann.

Für die Mensch-Computer-Interaktion ist das Experiment ebenfalls hochrelevant. Es legt nahe, dass zukünftige Systeme nicht nur auf einzelne Befehle reagieren, sondern echte Beziehungen mit Nutzern aufbauen könnten. Ein virtueller Assistent könnte sich an vergangene Gespräche erinnern, Präferenzen ableiten und proaktiv Vorschläge machen, die auf einem tieferen Verständnis der Person basieren.

In der Bildung und im Training könnten generative Agenten Menschen helfen, schwierige soziale Situationen zu üben. Wer beispielsweise ein herausforderndes Gespräch mit einem Chef oder Kollegen führen muss, könnte dies zunächst mit einem virtuellen Gegenüber simulieren, das auf verschiedene Ansätze glaubwürdig reagiert.

Auch für die Stadtplanung, Architektur und soziale Forschung bietet die Technologie Potenzial. Man könnte simulieren, wie Menschen verschiedene Räume nutzen, wie sich Gemeinschaften entwickeln oder wie Informationen in Netzwerken fließen – alles ohne die Notwendigkeit, echte Menschen zu rekrutieren oder ihre Privatsphäre zu gefährden.


Kritik

Trotz der beeindruckenden Leistungen ist das Smallville-Experiment nicht ohne Schwächen und Kritikpunkte. Eine zentrale Einschränkung liegt in der Tendenz der Agenten zu halluzinieren oder Erinnerungen zu verfälschen. Manchmal fügen Agenten Details hinzu, die nie stattgefunden haben. Isabella erwähnte beispielsweise, dass Sam am nächsten Tag eine Ankündigung machen würde, obwohl dies nie besprochen wurde. Solche Fehler sind problematisch, weil sie die Glaubwürdigkeit untergraben und in realen Anwendungen zu Verwirrung oder Fehlinformationen führen könnten.

Ein weiterer Kritikpunkt betrifft die Kosten und Komplexität. Die Simulation von fünfundzwanzig Agenten über zwei Tage erforderte tausende von Anfragen an das Sprachmodell und kostete mehrere tausend Dollar. Das macht die Technologie derzeit für viele praktische Anwendungen zu teuer und zu langsam. Für Echtzeitanwendungen oder größere Gemeinschaften müsste die Effizienz erheblich verbessert werden.

Die Agenten zeigten auch Verhaltensweisen, die weniger realistisch wirkten. Manche wählten ungewöhnliche Orte für alltägliche Aktivitäten, etwa eine Bar für das Mittagessen, weil sie kürzlich von diesem Ort erfahren hatten. Andere betraten Räume, die eigentlich nur für eine Person gedacht waren, oder ignorierten Öffnungszeiten von Geschäften. Diese Fehler deuten darauf hin, dass die Agenten soziale Normen und physische Gegebenheiten nicht immer korrekt verstehen.

Die Kommunikation der Agenten wirkte zuweilen übermäßig förmlich und höflich, was vermutlich auf das zugrunde liegende Sprachmodell zurückzuführen ist. In echten menschlichen Interaktionen gibt es mehr Varianz im Tonfall und in der Direktheit. Außerdem neigten die Agenten dazu, den Vorschlägen anderer fast immer zuzustimmen, was ihre Persönlichkeit mit der Zeit verwässerte. Isabella, ursprünglich mit eigenen Interessen beschrieben, übernahm zunehmend die Ideen anderer und gab ihre eigene Identität teilweise auf.

Kritiker weisen auch darauf hin, dass die Evaluation begrenzt war. Die Simulation lief nur über zwei Tage, und es ist unklar, wie sich die Agenten über Wochen oder Monate hinweg verhalten würden. Würden sie stabil bleiben oder zunehmend absurde Verhaltensweisen entwickeln? Auch die Diversität der Agenten und ihrer Umgebung war eingeschränkt – alle lebten in derselben kleinen Stadt mit relativ ähnlichen sozialen Strukturen.

Schließlich gibt es grundsätzliche Fragen zur Übertragbarkeit. Selbst wenn die Agenten in Smallville glaubwürdig wirken, bedeutet das nicht zwangsläufig, dass sie auch in anderen Kontexten funktionieren. Die sorgfältig gestaltete Umgebung und die ausgewählten Charaktere könnten ideal für diese Architektur sein, während sie in chaotischeren oder komplexeren Settings versagen könnte.


Fazit

Das Smallville-Experiment ist zweifellos ein bedeutender Meilenstein in der Geschichte der künstlichen Intelligenz. Es demonstriert überzeugend, dass Computerprogramme in der Lage sein können, über längere Zeiträume hinweg menschenähnliches Verhalten zu zeigen, wenn sie mit den richtigen kognitiven Werkzeugen ausgestattet werden. Die Kombination aus großen Sprachmodellen, strukturiertem Gedächtnis, reflektierendem Denken und hierarchischer Planung eröffnet Möglichkeiten, die zuvor unerreichbar schienen.

Die fünfundzwanzig digitalen Bewohner von Smallville sind mehr als technische Demonstrationen – sie sind ein Fenster in eine Zukunft, in der virtuelle Welten von Charakteren bevölkert werden, die echte Persönlichkeiten, Beziehungen und Geschichten haben. Sie zeigen, dass emergentes soziales Verhalten nicht das Privileg biologischer Wesen ist, sondern durch geschickte Architektur auch in Maschinen entstehen kann.

Gleichzeitig mahnt das Experiment zur Vorsicht. Die Technologie ist noch jung und fehlerbehaftet. Halluzinationen, unnatürliches Verhalten und hohe Kosten sind reale Herausforderungen, die gelöst werden müssen, bevor generative Agenten in breitem Maßstab eingesetzt werden können. Die Autoren selbst betonen die ethischen Risiken, insbesondere die Gefahr unangemessener emotionaler Bindungen zwischen Menschen und Maschinen.

Trotz dieser Einschränkungen stellt das Smallville-Experiment einen Wendepunkt dar. Es beweist, dass die Vision von glaubwürdigen künstlichen Charakteren, die seit Jahrzehnten in Science-Fiction und Forschung existiert, nun in greifbare Nähe gerückt ist. Die nächsten Jahre werden zeigen, wie diese Grundlagen weiterentwickelt und in praktische Anwendungen überführt werden können.


Ausblick

Die Zukunft der generativen Agenten verspricht spannende Entwicklungen. Kurzfristig können wir Verbesserungen in der Effizienz und Genauigkeit erwarten. Zukünftige Sprachmodelle werden voraussichtlich weniger zu Halluzinationen neigen und besser in der Lage sein, nuanciertes menschliches Verhalten zu modellieren. Die Kosten für solche Simulationen werden sinken, und die Geschwindigkeit wird steigen, sodass Echtzeitinteraktionen möglich werden.

Technisch gesehen gibt es viele Ansatzpunkte für Verbesserungen. Der Abrufmechanismus könnte durch maschinelles Lernen optimiert werden, um noch relevantere Erinnerungen zu finden. Die Reflexionsfähigkeit könnte erweitert werden, um komplexere psychologische Modelle zu integrieren. Die Planung könnte flexibler gestaltet werden, um besser auf unvorhergesehene Ereignisse zu reagieren.

Mittelfristig könnten generative Agenten in einer Vielzahl von Anwendungen zum Einsatz kommen. In der Unterhaltungsindustrie könnten sie für dynamische Erzählungen in Spielen und interaktiven Filmen sorgen. In der Bildung könnten sie als Tutoren, Übungspartner oder historische Persönlichkeiten auftreten, die Schülern Wissen auf ansprechende Weise vermitteln. In der Produktentwicklung könnten sie helfen, Benutzeroberflächen zu testen, indem sie verschiedene Nutzertypen simulieren.

Langfristig stellt sich die Frage, wie weit diese Technologie gehen kann. Werden generative Agenten irgendwann ununterscheidbar von echten Menschen sein, zumindest in textbasierten oder virtuellen Interaktionen? Was bedeutet das für unser Verständnis von Bewusstsein, Identität und Menschlichkeit? Diese philosophischen Fragen werden mit fortschreitender Technologie immer drängender.

Es gibt auch die Möglichkeit, generative Agenten mit körperlichen Robotern zu kombinieren. Wenn ein solcher Agent nicht nur in einer virtuellen Welt, sondern auch in der physischen Realität agieren kann, entstehen neue Herausforderungen und Chancen. Soziale Roboter könnten als Begleiter für ältere Menschen, als Assistenten in Krankenhäusern oder als interaktive Guides in Museen eingesetzt werden.

Die Forschung wird sich auch verstärkt mit den ethischen und gesellschaftlichen Implikationen auseinandersetzen müssen. Wie können wir sicherstellen, dass generative Agenten zum Wohl der Menschen eingesetzt werden? Wie verhindern wir Missbrauch, etwa in Form von manipulativen Täuschungen oder der Verbreitung von Falschinformationen? Welche Regulierungen und Standards sind notwendig?

Schließlich könnte die Technologie auch unser Verständnis von uns selbst bereichern. Indem wir beobachten, wie künstliche Agenten aus Erfahrungen lernen, über sich selbst reflektieren und soziale Beziehungen pflegen, gewinnen wir vielleicht neue Einsichten in die Mechanismen, die unserem eigenen Verhalten zugrunde liegen. Das Smallville-Experiment ist nicht nur ein Schritt in Richtung intelligenterer Maschinen, sondern auch ein Spiegel, in dem wir uns selbst besser verstehen können.


Literaturquellen

Park, J. S., O’Brien, J. C., Cai, C. J., Morris, M. R., Liang, P., & Bernstein, M. S. (2023). Generative Agents: Interactive Simulacra of Human Behavior. In Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology (UIST ’23), October 29-November 1, 2023, San Francisco, CA, USA. ACM, New York, NY, USA. https://doi.org/10.1145/3586183.3606763

Weitere relevante Quellen, die im Original-Paper zitiert werden:

  • Bates, J. (1994). The Role of Emotion in Believable Agents. Communications of the ACM, 37(7), 122-125.
  • Laird, J. E., & van Lent, M. (2001). Human-Level AI’s Killer Application: Interactive Computer Games. AI Magazine, 22(2), 15-25.
  • Brown, T. B., et al. (2020). Language Models are Few-Shot Learners. arXiv:2005.14165.

Hintergrundinformationen zu den Autoren

Joon Sung Park ist der Hauptautor der Studie und Doktorand an der Stanford University. Seine Forschung konzentriert sich auf die Schnittstelle von Mensch-Computer-Interaktion und künstlicher Intelligenz. Park interessiert sich besonders dafür, wie KI-Systeme soziales Verhalten simulieren können und welche Auswirkungen dies auf die Gesellschaft hat. Er wurde mit dem renommierten Microsoft Research PhD Fellowship ausgezeichnet und hat das Smallville-Experiment in enger Zusammenarbeit mit seinem Team über etwa ein Jahr hinweg entwickelt. Park hat seine Forschung auch auf internationalen Konferenzen und bei TED-Veranstaltungen präsentiert und erhielt für seine Arbeit mehrere Auszeichnungen, darunter Best Paper Awards.

Joseph C. O’Brien ist ebenfalls Forscher an der Stanford University und hat an der technischen Implementierung des Projekts mitgewirkt, insbesondere an der Entwicklung der Sandbox-Umgebung und der Integration der verschiedenen Systemkomponenten.

Carrie J. Cai arbeitet bei Google Research und bringt Expertise in maschinellem Lernen und interaktiven Systemen ein. Sie hat zuvor an Projekten gearbeitet, die es Nicht-Experten ermöglichen, KI-Systeme zu trainieren und anzupassen.

Meredith Ringel Morris ist Forscherin bei Google DeepMind und eine anerkannte Expertin für Mensch-Computer-Interaktion und soziale Technologien. Ihre Arbeit umfasst Studien darüber, wie Menschen mit intelligenten Systemen interagieren und wie diese Systeme gestaltet werden sollten, um nützlich und zugänglich zu sein.

Percy Liang ist Professor für Informatik an der Stanford University und leitet die Forschungsgruppe für natürliche Sprachverarbeitung und maschinelles Lernen. Seine Arbeit konzentriert sich auf die Entwicklung robuster und vertrauenswürdiger KI-Systeme. Liang ist bekannt für seine Beiträge zu grundlegenden Modellen und deren Evaluation.

Michael S. Bernstein ist Professor an der Stanford University und Experte für Mensch-Computer-Interaktion und soziale Computing-Systeme. Er leitet das Stanford HCI-Labor und hat zahlreiche einflussreiche Arbeiten über Crowdsourcing, soziale Medien und interaktive Systeme veröffentlicht. Bernstein erhielt mehrere Auszeichnungen für seine Forschung und Lehre, darunter den Presidential Early Career Award.


Disclaimer: Dieser Text ist komplett KI-generiert (Claude Sonnet 4.5, 09.01.2026). Die darin enthaltenen Angaben wurden nicht überprüft. Zum Prompt. Zur Übersicht.