digitalien.org — Stefan Knecht

Simulieren wir uns!

Seit vierzig Jahren wird versucht, realistische Modelle für menschliches Verhalten zu erschaffen. Jede Menge Zeit, Leid und Irrwege könnten wir vermeiden und viel lernen, würden wir unsere Interaktionen mit Hilfe von AI-Agenten modellieren.

Seit vierzig Jahren wird versucht, realistische Modelle für menschliches Verhalten zu erschaffen. Jede Menge Zeit, Leid und Irrwege könnten wir vermeiden und viel lernen, würden wir unsere Interaktionen mit Hilfe von AI-Agenten modellieren.

Wir könnten Kunden simulieren, gute wie schlechte Führung, introvertierte Einzel- wie Gruppenarbeit und die am Besten wirksamen Mischungen umsetzen statt an uns selbst zu experimentieren.

Dass das heute recht verlässlich möglich ist, lassen zwei Arbeiten einer Forschergruppe erahnen.[1] [2] Die Einstellungen und Verhaltensweisen von 1052 Personen wurden in generativen Agenten abgebildet. Diese wurden zuvor mit Sprachmodellen aus qualitativen Interviews, demografischen und ethnischen Daten, Persönlichkeitstests und Logikspielen gefüttert. Das gelang offenbar überraschend gut: die Agenten waren mit 85% Übereinstimmung in der re-test Genauigkeit[3] vergleichbar gut wie die lebendigen Personen. In einer an ‘The Sims’ erinnernden Klötzchenwelt-Umgebung[4] interagierten die sozialen Agenten dann wie man es von ihrer wetware[5] erwarten würde. Im Ergebnis sei das wie …

„eine Reihe kleiner ‘Ichs’, die herumlaufen und tatsächlich die Entscheidungen treffen, die Sie getroffen hätten“

… sagt Joon Sung Park, einer der Autoren. Die Simulanten kommunizieren in Sprechblasen miteinander, planen ihren Tag, tauschen Nachrichten aus, bilden Beziehungen und koordinieren gemeinsame Aktivitäten.

Das LLM[6] speichert für jeden Agenten in natürlicher Sprache dessen Erfahrungen und synthetisiert daraus Erinnerungen oder abstrahierte Reflektionen um aus der Summe weiteres Verhalten zu planen. In der beschriebenen Sandbox werden wie bei ‘The Sims’ 25 Charaktere gleichzeitig dargestellt — doch scheinen diese glaubwürdiges emergentes[7] Sozialverhalten. Wenn etwa eine Agentenperson eine Valentinsparty ausrichten will, laden andere autonom dazu ein oder koordinieren sich um gemeinsam zur Party zu kommen.

“Na und?” könnte man nun raunzen und zurück zur Kostenstelle der ebenso realen Klötzchenwelt in Powerpoint schwenken — doch denken wir das nur eine kleine Umdrehung weiter. Wir haben es ja nicht mit Science Fiction zu tun sondern nur mit Science: wenn KI-getriebene Agenten sich so realistisch verhalten wie wir selbst es würden, dann könnten wir daraus viel lernen für Veränderungen in Sozialsystemen wie Unternehmen es sind. Wie etwa Boni oder Anreizsysteme wirken oder welche unerwarteten Konsequenzen hastige Organisationsveränderungen haben.  

Würden soziale Agenten etwa ein ganzes Unternehmen oder wenigstens ihre Alphapersonen und deren Führungsspanne abbilden, dann könnten teure, riskante, schwer durchzuführende oder verdachtsweise unethische Organisationsänderungen vor ihrer Umsetzung einmal mit deren Sims durchgespielt werden. Das wäre dann eine open-end Simulation weil man ja nie genau weiss, was bei grösseren Sozialinterventionen geschieht. Ist das Ergebnis dann erstrebenswert? Dann machen. Klappt nicht gut? Dann besser neue Fehler machen. Das alles würde sicherlich auch im high-speed mode funktionieren.

Dann könnte man etwa SAFe bis ins letzte level zu Ende spielen. Oder sehen, wozu eine komplett in Prozessen durchorchestrierte Organisation führt.

Dann müsste man weniger glauben und würde mehr wissen.

Das wäre doch toll!

 

 


[1] Park, Joon Sung, Carolyn Q. Zou, Aaron Shaw, Benjamin Mako Hill, Carrie Cai, Meredith Ringel Morris, Robb Willer, Percy Liang, und Michael S. Bernstein. 2024. „Generative Agent Simulations of 1,000 People“. arXiv. https://doi.org/10.48550/arXiv.2411.10109.

[2] Park, Joon Sung, Joseph C. O’Brien, Carrie J. Cai, Meredith Ringel Morris, Percy Liang, und Michael S. Bernstein. 2023. „Generative Agents: Interactive Simulacra of Human Behavior“. In The 36th Annual ACM Symposium on User Interface Software and Technology (UIST ’23), October 29-November 1, 2023, San Francisco, CA, USA. ACM, New York, NY, USA, 22 pages. https://doi.org/10.1145/3586183.3606763

[3] Im re-test wird gemessen, ob die Werte derselben Person bei einer Wiederholung des gleichen Tests auch gleiche Ergebnisse erbringen. Bei recht stabilen Eigenschaften wie Haltungen oder Persönlichkeitsfacetten wird das erwartet.

[4] siehe https://reverie.herokuapp.com/UIST_Demo/

[5] … das wären dann wir Menschen; Software ist Code, Hardware sind unbelebte Maschinen.

[6] LLM, large language model – quasi die ‘Hirnmasse’ oder das repository der Agenten

[7] emergentes Verhalten ist, wenn etwas zuvor nicht beschriebenes, ge-scriptetes in Interaktion mit der Umwelt geschieht