AI & M 4.0: Hybride Collective Intelligence (CI) – Verarbeitungspipeline: Vom Business Plan über die Ziel-Hierarchie zum Projekt Plan – Ergänzungen

In diesem Blog-Beitrag ergänze ich den vorherigen Blog-Beitrag zur hybriden Collective Intelligence: Vom Business Plan über die Ziel-Hierarchie zum Projekt Plan.

Ich behandle drei Ergänzungen:

Textueller Projektstrukturplan: Ein Projekt Management Kollege hat sich ebenfalls unlängst in dem IPMA Blog [1] mit der Frage beschäftigt, ob eine KI einen Projektmanager bei der Erstellung eines Projektplans unterstützen kann. Seine Prompts hat er im Blog gelistet, jedoch nicht die von chatGPT erzeugten Ergebnisse. Ich kann auch nicht entnehmen, ob er chatGPT oder chatGPTplus verwendet hat. Die Ergebnisse sind nach seinen Aussagen durchweg positiv: Es wurde ein Gantt-Diagramm erzeugt. Da meine Ergebnisse im letzten Blog-Beitrag jedoch keineswegs so positiv waren, möchte ich dies nochmals überprüfen.

Big Picture mittels Bildgeneratoren: Die Ziel-Hierarchie als Ausgangspunkt für den Projektstrukturplan und damit für einen Projektplan stellt in der Selbstorganisation gemäß Management 4.0 den zentralen Ordnungsparameter dar. Dieser Ordnungsparameter wird auf der obersten Ebene, der Vision, im Idealfall durch ein Big Picture geankert. Also möchte ich die textuelle Vision, durch Bildgeneratoren wie DALL.E 2 [2] und Stable Diffusion [3], in eine Bilddarstellung umsetzen. – Midjourney wollte ich ebenfalls verwenden. – Jedoch habe ich darauf verzichtet, da Midjourney inzwischen kostenpflichtig ist. – Die neue Version DALL.E 3 ist zum Zeitpunkt der Blog-Erstellung noch nicht verfügbar.

Google Bard: Google hat gerade den chatBot Bard veröffentlich. Ich möchte die im letzten Blog-Beitrag aufgezeigte Collective Intelligence -Verarbeitungspipeline mit Bard überprüfen.

    

Textueller Projektstrukturplan:
Das erste Ergebnis hat mich überrascht: Weist man chatGPTplus an, auf der Basis der Ziel-Hierarchie des letzten Blog-Beitrages einen textuellen Projektstrukturplan zu erstellen, liefert chatGPTplus sogar mit den dort verwendeten Ressourcen und den Vorgangsabhängigkeiten (Vorgängern) einen sauberen Projektstrukturplan als Tabelle im Standard-Output-Format von chatGPTplus. Ein Gantt-Diagramm wird in einem Fenster, wie es für die Python-Code-Generierung verwendet wird, ausgegeben. In meinem Fall ist das Gantt-Diagramm horizontal und vertikal abgeschnitten, da offensichtlich zu viele Einträge vorliegen. Die Darstellung erinnert an die ehemalige Darstellung von Tabellen im MS-DOS Format. Da die Einträge zu lang sind, ist Alles durcheinander gewirbelt. – Also kein wirklich gutes Ergebnis. Da chatGPTplus in textueller Form einen perfekten Projektstrukturplan erzeugt hat, bitte ich das System um einen entsprechenden Python-Code für die Erzeugung einer CSV-Datei zum Import in MS Project. Leider war das System auch auf dieser Basis nicht in der Lage das textuelle Wissen in Code Wissen umzusetzen. – Es tauchten wieder die schon im vorherigen Blog geschilderten Unzulänglichkeiten auf. – Zwischen den beiden word embeddings (Text und Code) scheint es offensichtlich keine Brücke in chatGPTplus zu geben. Leider ist der textuelle Projektstrukturplan auch nicht in eine CSV-Datei kopierbar, so dass meines Erachtens der so gewonnene Nutzen überschaubar bleibt.

Big Picture mittels Bildgeneratoren:
Wie schon in den vorherigen Blog-Beiträgen angesprochen, halte ich von dem sogenannten Prompt-Engineering nichts: Es ist das menschliche Abtasten des word embeddings in dem AI System: In den meisten Fällen genügt es jedoch als Experte die Prompts zu formulieren und das AI-System reagiert entsprechend gut. Falls nicht, ist es nicht die Aufgabe des Menschen, sich auf das word embedding des AI-Systems einzustellen, sondern umgekehrt. – Openai trägt dieser Anforderung mit DALL.E 3 Rechnung.

In den Bildgeneratoren DALL.E 2 und Stable Diffusion führt die Prompt-Eingabe der Küchenmanufaktur Vision zu nicht vorzeigbaren Ergebnissen. Meistens war noch nicht einmal irgendetwas von einer Küche zu sehen. Ich greife etwas voraus, denn ich habe google Bard gebeten, ein Bild zu erzeugen. Und tatsächlich erzeugt Bard eine textuelle Bild-Beschreibung, die die Vision des Unternehmens Küchenmanufaktur wiedergibt. Die Bild-Beschreibung ist umfangreich und erstaunlich kreativ. Einen Teil dieser Bild-Beschreibung habe ich den Bildgeneratoren als Prompt eingegeben – nur einen Teil, da die Anzahl der Zeichen für die Prompt-Eingabe begrenzt ist. Hier die Prompt-Eingabe in Englisch (das Bard Original ist in Deutsch):

Create an image for the following description:

In a modern kitchen studio, a family is sitting at the dining table enjoying a meal together. The kitchen is packed with smart kitchen appliances from KüchenManufaktur.
The refrigerator automatically detects what food is missing and orders it from an online retailer. The stove can be controlled by voice, so mom can concentrate fully on cooking. The dishwasher cleans itself after the meal.
The family is happy and satisfied with their smart kitchen appliances. They are grateful for the time saved, the convenience and the additional functions.
The mother sits at the stove and cooks a delicious dish. She smiles and is relaxed. The father is sitting at the dining table talking to the kids. The children are laughing and playing.
The refrigerator opens automatically and puts the needed ingredients on the stove. The stove starts to cook. The dishwasher cleans itself independently after the meal.

Die Ergebnisse der beiden Bildgeneratoren ist ernüchternd und gleichzeitig zum herzhaften Lachen: Abbildung 1 zeigt zwei ausgewählte Bilder, andere Bilder hatten oft Garnichts mit dem Thema zu tun oder glichen vorwiegend eher langweiligen Bildern aus Möbelhäusern der Jahre 1950-2000.

Man beachte im ersten Bild die Gemüseschüssel auf dem Boden – ohne Tisch, ohne Personen – generiert von Stable Diffusion und im zweiten Bild die verzerrten Gesichter und das Loch oben im Kühlschrank generiert von DALL.E 2.

Wenn Teams in Management 4.0 Trainings aufgefordert werden, das Ergebnis ihres KüchenManfuktur-Projektes zu skizzieren, zeichnen sie auch manchmal einen Kühlschrank, der an einer äußeren Hausmauer steht. Und, die Hausmauer und der Kühlschrank haben eine kleine Öffnung, durch die ein Lebensmittellieferdienst den Kühlschrank von außen befüllen kann, entsprechend der Anforderung, der Kühlschrank füllt sich von alleine :-).

Abbildung 1: Linkes Bild generiert von Stable Diffusion [2], rechtes Bild generiert von DALL.E 2 [3]

Nach meinen bisherigen guten Erfahrungen mit Bildgeneratoren ein enttäuschendes Ergebnis.

Google Bard:
Google hat gerade sein neuestes Generatives Neuronales Netzwerk, genannt Bard, veröffentlicht [4]. Ich möchte herausfinden, ob Bard in der Lage ist, einen Projektstrukturplan als CSV-Input für MS Project zu erzeugen: Ich durchlaufe die Verarbeitungspipeline, ähnlich wie für chatGPTplus, und lasse ein Business Model Canvas und eine Ziel-Hierarchie erzeugen. Das Business Model Canvas und die Ziel-Hierarchie sind meines Erachtens nicht ganz so geeignet, wie diejenigen von chatGPTplus. Bard liefert dafür, wie weiter oben schon verwendet, eine sehr gute Bild-Beschreibung der KüchenManufaktur Vision.

Ich bitte um die Erstellung eines textuellen Projektstrukturplans auf der Basis des unten angegebenen Prompts [5]. Abbildung 2 zeigt einen Auszug des erstaunlich guten Ergebnisses: Bard hat das Konzept der Sammelvorgänge recht gut verstanden, wenngleich noch Probleme bei der Dauer-Aggregation vorliegen und die geforderte Vorgänger-Logik nicht vorhanden ist.

Abbildung 2: Screen-Shot der Bard Web-Oberfläche mit einem Auszug des textuellen Projektstrukturplans.

Bard bietet an, diesen textuellen Projektstrukturplan als google sheet zu exportieren. Leider funktioniert dies nicht, das Sheet ist leer.

Bei der Erzeugung eines Python-Programmes für einen CSV-Import des Projektstrukturplans in MS-Project scheitert Bard schon bei der korrekten Erstellung der CSV-Datei. – Rückgemeldete Fehler werden als behoben gemeldet, jedoch sind sie nicht behoben. – Hier ist chatGPTplus deutlich besser!

Zusammenfassend stelle ich fest, dass sowohl chatGPTplus als auch Bard noch erhebliche ‚Kinderkrankheiten‘ haben und derzeit ein Einsatz im Projekt Management noch mit recht vielen Hürden und Unzulänglichkeiten verbunden ist.

[1] Ram J (2023) Role Prompting and Creation of a Project Management Plan – How ChatGPT could help in the creation of information that can be used for writing a project management plan?, https://ipma.world/role-prompting-and-creation-of-a-project-management-plan/, veröffentlicht am 21.08.2023, zugegriffen am 21.09.2023

[2] Stable Diffusion (2023) https://stablediffusionweb.com/#demo, zugegriffen am 21.09.2023

[3] DALL.E 2 (2023) https://openai.com/dall-e-2, zugegriffen am 21.09.2023

[4] Bard (2023) bard.google.com, zugegriffen am 21.09.2023

[5] Prompt für google Bard zur Erzeugung eines Projektstrukturplans:
Weiter oben hast Du einen Vorschlag für eine Ziel-Hierarchie gemacht, wir nehmen diese Ziel-Hierarchie und wollen hieraus einen Projektstrukturplan erstellen. Der Projektstrukturplan soll die Spalten Vorgang, Dauer, Ressource und Vorgänger enthalten. Vorgänge sind die Sub-Ziele. Die übergeordneten Ziele in der Ziel-Hierarchie sind spezielle Vorgänge, sogenannte Sammelvorgänge. Bitte mache selbst für die Dauer der Vorgänge geeignete Vorschläge zu jedem Sub-Ziel. Als Ressourcen nehmen wir fünf Team-Mitglieder, die wir Peter, Claudia, Sonja, Thomas und Mechthild nennen. Bitte verteile die Ressourcen auf die Vorgänge. Falls eine Ressource mehreren Vorgängen zugeordnet wird, so berücksichtige, dass eine Ressource zu einem Zeitraum nur einen Vorgang bearbeiten soll. In der Spalte Vorgänger soll angegeben werden welcher Vorgang welchem anderen Vorgang vorausgeht, um sicherzustellen, dass eine Ressource nur einen Vorgang zu einem Zeitraum bearbeitet. Behalte die Nummerierung der Ziel-Hierarchie für den Projektstrukturplan bei und verwende in der Spalte Vorgänger diese Nummern, um den Vorgänger zu kennzeichnen.

AI & AM 4.0: Agent Based Modeling – Emergenz – Wunder geschehen!

Kürzlich erschien ein offener Brief zum Thema ‚Pausieren von gigantischen AI-Experimenten‘ à la GPT-3 oder GPT-4 [1].

Der Brief wurde inzwischen von mehr als 30.000 Personen unterschrieben. Er begründet sein Anliegen eines halbjährigen Aussetzens von AI-Groß-Entwicklungstätigkeiten mit folgendem Satz:

“This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.”

Es geht die Angst vor ‚emergenten Fähigkeiten‘ um. – An anderer Stelle wird von einer ‚Gottgleichen‘ KI gewarnt, die die Menschheit zerstören könnte [2].

Diese Sorgen mögen berechtigt sein, umso mehr, als man beobachten kann, wie lange sich die EU schon bemüht, den längst fälligen EU AI ACT als EU-Gesetz zu verabschieden [3].

In diesem Blog geht es jedoch nicht um diese Sorge oder Angst, sondern um das Thema Emergenz, das offensichtlich solche ‚Wunder‘ wie das der „Sparks of Artificial General Intelligence: Early experiments with GPT-4” [4] möglich macht. Die Intelligenz-Fähigkeiten von GPT-4, auch im Vergleich zu chatGPT/GPT-3.x, sind sensationell, gleichgültig, ob es um Mathematik, Musik, Bilderzeugung, Sprache und Logik und vielem mehr geht. – In nicht wenigen Fällen zeigt GPT-4 Intelligenz-Fähigkeiten, die überhaupt nicht trainiert worden sind. – Also klare Zeichen von emergenten Eigenschaften.

In Wikipedia wird Emergenz wie folgt definiert: „Emergenz (lateinisch emergere „Auftauchen“, „Herauskommen“, „Emporsteigen“) bezeichnet die Möglichkeit der Herausbildung von neuen Eigenschaften (Systemeigenschaften) oder Strukturen eines Systems infolge des Zusammenspiels seiner Elemente.“ [5]. Emergenz ist auch direkt mit dem Begriff der Selbstorganisation verbunden. Selbstorganisierte Systeme zeigen Emergenz bzw. emergente Eigenschaften. Auf der Basis dieser Definition wimmelt es in der Natur und damit in der Mathematik, den Naturwissenschaften/ Psychologie und den Sozialwissenschaften nur so von emergenten Eigenschaften, Strukturen oder Systemen.

In [6] wird auch deshalb zwischen schwacher und starker Emergenz unterschieden. Starke Emergenz liegt im Falle des Lebens vor, das aus Atomen oder Molekülen emergiert. – Oder, im Falle unseres Bewusstseins, das aus der materiellen Struktur unseres Gehirns emergiert. Die meisten anderen überraschenden Eigenschaften von Viel-Agenten Systemen wie zum Beispiel die Supraleitung, die Farbe von Gold, der Collective Mind eines Teams oder die Kultur einer Organisation werden eher der schwachen als der starken Emergenz zugeordnet. Ich halte die Unterscheidung für wenig sinnvoll.- Entscheidend für die Emergenz ist vielmehr, dass das durch die Wechselwirkung von Agenten entstehende Systeme Eigenschaften zeigt, die sich nicht aus den Eigenschaften der Agenten ableiten lassen.  In [7] wird deshalb für die Beschreibung von Large Language Model’s bezüglich Emergenz eine Definition verwendet, die die obige Definition aus [5] weiterführt:

„Emergence is when quantitative changes in a system result in qualitative changes in behavior.”

Abbildung 1: Bilder erzeugt durch die KI DALL-E [8] mit den Prompts: Create a painting in the style of Matisse: (Create a painting in the style of Gauguin:) Collective Mind as an example of social emergence which demonstrates synergies in a team

Im Falle von Large Language Models (LLM) gibt es mehrere quantitative Änderungen, die qualitative Veränderung hervorrufen: u.a. Anzahl der Parameter (Neuronen), Menge der Daten und die Trainingszeit. Aber auch die Architektur der LLM’s spielt eine entscheidende Rolle: u.a. das Transformer/Decoder Design, der Attention Mechanismus, usw.. So zeigt GPT-3 bei etwa 10 hoch 22 (10 Trilliarden) Floating Point Operations (FLOPs) als Maß für die Trainingszeit und 13 Milliarden Parametern einen sprunghaften Anstieg der sogenannten few-shoot prompting Genauigkeit.- Also nach einigen wenigen Lerndaten meistert das AI-System ähnliche Aufgabenstellungen. – Dieser Übergang entspricht einem Phasenübergang. – Ganz ähnlich zu der gesellschaftliche Resonanz für AI-System, die mit dem Erscheinen des einfach zu bedienenden chatGPT sprunghaft emergierte. 

Für die Beschreibung emergenten Systemverhaltens wurde in der Wissenschaftsgeschichte sehr oft der Nobelpreis vergeben: Es geht darum, diejenigen quantitativen Parameter ausfindig zu machen, die einen qualitativen Unterschied machen. Und dies ist meistens sehr schwierig, da man den Parametern nicht ansieht, ob sie in ihrer Zusammenstellung einen Unterschied machen. – Der qualitative Unterschied lässt sich also nicht auf die quantitativen Unterschiede in den Parametern reduzieren.

Jedoch wurde auch in der Geschichte der Wissenschaft aus dem Unverständnis der Emergenz eine unsinnige Spaltung in reduktionistische Wissenschaften und nicht-reduktionistische (holistische) Wissenschaften [9] vorgenommen. Hiernach wurde zum Beispiel die Physik als reduktionistische Wissenschaft angesehen, da angeblich alle System-Eigenschaften in der Physik auf die Eigenschaften der Agenten (z.B. Elementarteilchen, Atome) zurückgeführt werden, also reduziert werden.  Die Sozialwissenschaft mit der Soziologie à la Luhmann wurde zum Beispiel als holistische Wissenschaft wahrgenommen, da Luhmann, die Eigenschaften des sozialen Systems nicht auf die Menschen zurückführte, sondern dem System eine Eigenständigkeit zuerkannte.

Diese teilweise immer noch vorhandene naive Sicht des Gegensatzpaares Reduktionismus-Holismus wird durch das Auftauchen von GPT-4, aber auch schon durch die Erfahrungen mit chatGPT, kräftigst widerlegt: Die technischen Systeme chatGPT/GPT-3.x und chatGPTplus/GPT-4 zeigen mit ihrer Intelligenz eine für alle erfahrbare Emergenz. Diese AI-Systeme wurden auf der Basis bestimmter Daten-Parameter (u.a. Anzahl der Neuronen, Zeit des Trainings, Menge der Trainingsdaten) sowie bestimmten Architektur-Parameter (u.a. Transformer/Decoder und Attention-Mechanismus) mehr oder weniger gezielt kombiniert und es entstanden bei einer bestimmten Kombination dieser Parameter „wie durch ein Wunder“ emergente Intelligenz-Eigenschaften. – Es ist zu vermuten, dass bei Wegnahme z.B. der Attention-Eigenschaft, die emergente Eigenschaft der Intelligenz verschwindet, auch wenn die gigantische Skalierung bleibt.

Deswegen sind die emergenten AI-Eigenschaft jedoch nicht weniger wunderbar.

Dieses Beispiel belegt äußerst eindrucksvoll, dass die Natur, auch wenn sie in Form einer Technologie daherkommt, alle Ingredienzien für starke Emergenz enthält. – Wir ‚finden‘ diese Ingredienzien ‚lediglich‘.

Agent Based Modeling (ABM) spielt beim Auffinden dieser Eigenschaften eine prominente Rolle, auch wenn diese Rolle selbst in der Wissenschaft im Verhältnis zur Bedeutung nur wenigen bekannt sein dürfte. Unlängst hat das Santa Fe Institute neben Netlogo das ABM-Python-Framework MESA als Lecture aufgenommen [10]. Diese Lecture bildet mit moderner Technik das ABM des 25 Jahre alten Buches über ‚Growing Artificial Societies‘ von Epstein und Axtell nach [11]. Epstein und Axtell zeigen, wie man mit einfachen lokalen Agenten-Parametern die emergenten System-Eigenschaften von Gesellschaften erzeugen kann. – Der Überraschungseffekt ist nicht selten groß: So beeinflusst zum Beispiel die Fähigkeit des Sterbens oder der Reproduktion von Agenten ganz erheblich die emergenten Eigenschaften der ABM Ökonomie: Diese Modell-Eigenschaften sind nämlich notwendig, damit sich überhaupt sogenannte Nicht-Gleichgewichts-Handelsmärkte ausbilden können, die mit realen Märkten sehr gut übereinstimmen. – Das immer noch in der Gesellschaft vorherrschende neoklassische Verständnis der Gleichgewichts-Ökonomie kennt solche Zusammenhänge nicht.

In den folgenden Blogbeiträgen beschäftige ich mich mit der Suche nach den Parametern, die das emergente Teamverhalten Collective Mind hervorrufen. Im Management 4.0 gehen wir davon aus, dass die Parameter der Theorie der Selbstorganisation (Rahmen-Parameter, Kontroll-Parameter und Ordnungs-Parameter) die entscheidenden Parameter sind, die emergentes Teamverhalten hervorbringen. Wir kennen diese Parameter (vermutlich) auch schon, jedoch nicht in hinreichend formalisierter ABM Sprache. Die in vorhergehenden Blog-Beiträgen unter Verwendung von Natural Language Processing abgeleitete Similarity-Matrix des Collective Mind (Collective Mind Operator) ist lediglich ein phänomenologisches Modell (siehe Blog-Beitrag vom April und Juni 2022). – Der Collective Mind Operator kann in der Teampraxis sehr gut den Collective Mind messen, er sagt jedoch leider nichts darüber aus, wie der Collective Mind emergiert. Hierzu benötigen wir die formalisierten ABM-Parameter, die die Collective Mind Emergenz hervorbringen. – Die Suche nach diesen formalisierten Parametern ist kein Selbstzweck, denn die Wissenschaftsgeschichte hat gezeigt, dass die Kenntnis der formalisierten Parameter recht oft mit großen Erkenntnisgewinnen verbunden ist. – Die GPT-Geschichte ist der sichtbarste Beweis hierfür.

Der Übergang zur Python-Technologie mit MESA-Python eröffnet auch recht einfach die Möglichkeit intelligente Agenten auf der Basis von chatGPT anzubinden. Das werde ich nicht tun, jedoch hat die Entwicklung hierzu, wie in einem meiner letzten Blogs prognostiziert, schon begonnen. Die Stanford University hat zusammen mit Google eine auf dem Computerspiel ‚The Sims‘ basierendes ABM erstellt, in dem 25 Agenten ihre Intelligenz von chatGPT erhalten [12]. Die Agenten haben eine ‚Gehirn-Architektur‘ aus Langzeit- und Kurz-Zeitgedächnis, dessen kognitive Intelligenz von chatGPT kommt. Die Agenten verfügen zusätzlich über einen sogenannten ‚reflection tree‘, der der Ziel-Hierarchie bzw. der Dilts Pyramide von Management 4.0 sehr nahe kommt [13].- Die Ebenen Identität, Fähigkeiten und Verhalten sowie Kontext (Beobachtung) sind schon vorhanden. – Diese und weitere Ebenen können sicherlich noch ausgebaut werden.

Damit sind die Agenten in der Lage einen individuellen kognitiven PDCA-Zyklus durchzuführen, der ‚reflektiertes‘ Handeln erlaubt.

Es besteht auch die Möglichkeit, dass sich Menschen aktiv in dieses Handeln künstlicher Agenten einbringen können. Damit ist es zum Beispiel möglich hybride Universen aus AI und Menschen zu bilden.

Man stelle sich ein Anwendungsbeispiel von vielen vor: Ein Projektleiter soll ein Projekt durchführen. Er lässt das Projekt zum Test vorab in der künstlichen Welt durchführen und erhält so Hinweise auf seine Durchführbarkeit. –  Oder er lässt parallel zur realen Welt eine künstliche Welt mitlaufen, in die die Daten der realen Welt synchron eingespeist werden, um Forecasting zu betreiben.

In [12] wird berichtet, dass das Handeln der künstlichen Agenten von Menschen auf ‚Menschen-Ähnlichkeit‘ überprüft wurde. Das emergierende ‚believable behavior‘ der Agenten und des emergierenden sozialen Systems wird von den Evaluationspersonen, trotz einiger Fehler, als sehr hoch eingestuft.   

Das nächste Wunder geschieht schon!

    

[1] Future of Life Institute (2023) Pause giant AI Experiments, https://futureoflife.org/open-letter/pause-giant-ai-experiments/, zugegriffen am 22.04.2023

[2] Barkey S (2023) Kurz vor dem Durchbruch: „Gottgleiche“ KI könnte laut Experte Menschheit zerstörenhttps://www.berliner-zeitung.de/news/agi-kurz-vor-durchbruch-gottgleiche-ki-koennte-laut-experte-ian-hogarth-menschheit-zerstoeren-kuenstliche-allgemeine-intelligenz-li.339062, zugegriffen am 22.04.2023

[3] EU (2023) EU AI Act, https://artificialintelligenceact.eu/, zugegriffen am 22.04.2023

[4] Bubeck S et al. (2023) Sparks of Articial General Intelligence: Early experiments with GPT-4, arXiv:2303.12712v3 [cs.CL] 27 Mar 2023, zugegriffen am 22.04.2023

[5] Wikipedia (2023) Emergenz, https://de.wikipedia.org/wiki/Emergenz, zugegriffen am 25.04.2023

[6] Greve J, Schnabel A (Herausgeber) (2011) Emergenz: Zur Analyse und Erklärung komplexer Strukturen, suhrkamp taschenbuch wissenschaft

[7] Wi J et al. (2022) Emergent Abilities of Large Language Models, in Transactions on Machine Learning Research 08/2022, arXiv:2206.07682v2 [cs.CL] 26 Oct 2022

[8] DALL-E (2023) https://openai.com/product/dall-e-2, zugegriffen am 03.05.2023

[9] Wikipedia (2023) Reduktionismus, https://de.wikipedia.org/wiki/Reduktionismus, zugegriffen am 25.04.2023

[10] Complexity Explorer (2023) MESA-Python Lecture, https://www.complexityexplorer.org/courses/172-agent-based-models-with-python-an-introduction-to-mesa/segments/17326, Santa Fe Institute, zugegriffen am 30.04.2023

[11] Epstein J M, Axtell R (1996) Growing Artificial Societies – Social Science from the Bottom Up, The Brookings Institution, Washington D.C.

[12] Park J S et. al. (2023) Generative Agents: Interactive Simulacra of Human Behavior, arXiv:2304.03442v1 [cs.HC] 7 Apr 2023

[13] Oswald A, Müller W (2019) Management 4.0 – Handbook for Agile Practices, Release 3.0, Verlag BoD, kindle edition