AI & AM 4.0: Agent Based Modeling – Emergenz – Wunder geschehen!

Kürzlich erschien ein offener Brief zum Thema ‚Pausieren von gigantischen AI-Experimenten‘ à la GPT-3 oder GPT-4 [1].

Der Brief wurde inzwischen von mehr als 30.000 Personen unterschrieben. Er begründet sein Anliegen eines halbjährigen Aussetzens von AI-Groß-Entwicklungstätigkeiten mit folgendem Satz:

“This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.”

Es geht die Angst vor ‚emergenten Fähigkeiten‘ um. – An anderer Stelle wird von einer ‚Gottgleichen‘ KI gewarnt, die die Menschheit zerstören könnte [2].

Diese Sorgen mögen berechtigt sein, umso mehr, als man beobachten kann, wie lange sich die EU schon bemüht, den längst fälligen EU AI ACT als EU-Gesetz zu verabschieden [3].

In diesem Blog geht es jedoch nicht um diese Sorge oder Angst, sondern um das Thema Emergenz, das offensichtlich solche ‚Wunder‘ wie das der „Sparks of Artificial General Intelligence: Early experiments with GPT-4” [4] möglich macht. Die Intelligenz-Fähigkeiten von GPT-4, auch im Vergleich zu chatGPT/GPT-3.x, sind sensationell, gleichgültig, ob es um Mathematik, Musik, Bilderzeugung, Sprache und Logik und vielem mehr geht. – In nicht wenigen Fällen zeigt GPT-4 Intelligenz-Fähigkeiten, die überhaupt nicht trainiert worden sind. – Also klare Zeichen von emergenten Eigenschaften.

In Wikipedia wird Emergenz wie folgt definiert: „Emergenz (lateinisch emergere „Auftauchen“, „Herauskommen“, „Emporsteigen“) bezeichnet die Möglichkeit der Herausbildung von neuen Eigenschaften (Systemeigenschaften) oder Strukturen eines Systems infolge des Zusammenspiels seiner Elemente.“ [5]. Emergenz ist auch direkt mit dem Begriff der Selbstorganisation verbunden. Selbstorganisierte Systeme zeigen Emergenz bzw. emergente Eigenschaften. Auf der Basis dieser Definition wimmelt es in der Natur und damit in der Mathematik, den Naturwissenschaften/ Psychologie und den Sozialwissenschaften nur so von emergenten Eigenschaften, Strukturen oder Systemen.

In [6] wird auch deshalb zwischen schwacher und starker Emergenz unterschieden. Starke Emergenz liegt im Falle des Lebens vor, das aus Atomen oder Molekülen emergiert. – Oder, im Falle unseres Bewusstseins, das aus der materiellen Struktur unseres Gehirns emergiert. Die meisten anderen überraschenden Eigenschaften von Viel-Agenten Systemen wie zum Beispiel die Supraleitung, die Farbe von Gold, der Collective Mind eines Teams oder die Kultur einer Organisation werden eher der schwachen als der starken Emergenz zugeordnet. Ich halte die Unterscheidung für wenig sinnvoll.- Entscheidend für die Emergenz ist vielmehr, dass das durch die Wechselwirkung von Agenten entstehende Systeme Eigenschaften zeigt, die sich nicht aus den Eigenschaften der Agenten ableiten lassen.  In [7] wird deshalb für die Beschreibung von Large Language Model’s bezüglich Emergenz eine Definition verwendet, die die obige Definition aus [5] weiterführt:

„Emergence is when quantitative changes in a system result in qualitative changes in behavior.”

Abbildung 1: Bilder erzeugt durch die KI DALL-E [8] mit den Prompts: Create a painting in the style of Matisse: (Create a painting in the style of Gauguin:) Collective Mind as an example of social emergence which demonstrates synergies in a team

Im Falle von Large Language Models (LLM) gibt es mehrere quantitative Änderungen, die qualitative Veränderung hervorrufen: u.a. Anzahl der Parameter (Neuronen), Menge der Daten und die Trainingszeit. Aber auch die Architektur der LLM’s spielt eine entscheidende Rolle: u.a. das Transformer/Decoder Design, der Attention Mechanismus, usw.. So zeigt GPT-3 bei etwa 10 hoch 22 (10 Trilliarden) Floating Point Operations (FLOPs) als Maß für die Trainingszeit und 13 Milliarden Parametern einen sprunghaften Anstieg der sogenannten few-shoot prompting Genauigkeit.- Also nach einigen wenigen Lerndaten meistert das AI-System ähnliche Aufgabenstellungen. – Dieser Übergang entspricht einem Phasenübergang. – Ganz ähnlich zu der gesellschaftliche Resonanz für AI-System, die mit dem Erscheinen des einfach zu bedienenden chatGPT sprunghaft emergierte. 

Für die Beschreibung emergenten Systemverhaltens wurde in der Wissenschaftsgeschichte sehr oft der Nobelpreis vergeben: Es geht darum, diejenigen quantitativen Parameter ausfindig zu machen, die einen qualitativen Unterschied machen. Und dies ist meistens sehr schwierig, da man den Parametern nicht ansieht, ob sie in ihrer Zusammenstellung einen Unterschied machen. – Der qualitative Unterschied lässt sich also nicht auf die quantitativen Unterschiede in den Parametern reduzieren.

Jedoch wurde auch in der Geschichte der Wissenschaft aus dem Unverständnis der Emergenz eine unsinnige Spaltung in reduktionistische Wissenschaften und nicht-reduktionistische (holistische) Wissenschaften [9] vorgenommen. Hiernach wurde zum Beispiel die Physik als reduktionistische Wissenschaft angesehen, da angeblich alle System-Eigenschaften in der Physik auf die Eigenschaften der Agenten (z.B. Elementarteilchen, Atome) zurückgeführt werden, also reduziert werden.  Die Sozialwissenschaft mit der Soziologie à la Luhmann wurde zum Beispiel als holistische Wissenschaft wahrgenommen, da Luhmann, die Eigenschaften des sozialen Systems nicht auf die Menschen zurückführte, sondern dem System eine Eigenständigkeit zuerkannte.

Diese teilweise immer noch vorhandene naive Sicht des Gegensatzpaares Reduktionismus-Holismus wird durch das Auftauchen von GPT-4, aber auch schon durch die Erfahrungen mit chatGPT, kräftigst widerlegt: Die technischen Systeme chatGPT/GPT-3.x und chatGPTplus/GPT-4 zeigen mit ihrer Intelligenz eine für alle erfahrbare Emergenz. Diese AI-Systeme wurden auf der Basis bestimmter Daten-Parameter (u.a. Anzahl der Neuronen, Zeit des Trainings, Menge der Trainingsdaten) sowie bestimmten Architektur-Parameter (u.a. Transformer/Decoder und Attention-Mechanismus) mehr oder weniger gezielt kombiniert und es entstanden bei einer bestimmten Kombination dieser Parameter „wie durch ein Wunder“ emergente Intelligenz-Eigenschaften. – Es ist zu vermuten, dass bei Wegnahme z.B. der Attention-Eigenschaft, die emergente Eigenschaft der Intelligenz verschwindet, auch wenn die gigantische Skalierung bleibt.

Deswegen sind die emergenten AI-Eigenschaft jedoch nicht weniger wunderbar.

Dieses Beispiel belegt äußerst eindrucksvoll, dass die Natur, auch wenn sie in Form einer Technologie daherkommt, alle Ingredienzien für starke Emergenz enthält. – Wir ‚finden‘ diese Ingredienzien ‚lediglich‘.

Agent Based Modeling (ABM) spielt beim Auffinden dieser Eigenschaften eine prominente Rolle, auch wenn diese Rolle selbst in der Wissenschaft im Verhältnis zur Bedeutung nur wenigen bekannt sein dürfte. Unlängst hat das Santa Fe Institute neben Netlogo das ABM-Python-Framework MESA als Lecture aufgenommen [10]. Diese Lecture bildet mit moderner Technik das ABM des 25 Jahre alten Buches über ‚Growing Artificial Societies‘ von Epstein und Axtell nach [11]. Epstein und Axtell zeigen, wie man mit einfachen lokalen Agenten-Parametern die emergenten System-Eigenschaften von Gesellschaften erzeugen kann. – Der Überraschungseffekt ist nicht selten groß: So beeinflusst zum Beispiel die Fähigkeit des Sterbens oder der Reproduktion von Agenten ganz erheblich die emergenten Eigenschaften der ABM Ökonomie: Diese Modell-Eigenschaften sind nämlich notwendig, damit sich überhaupt sogenannte Nicht-Gleichgewichts-Handelsmärkte ausbilden können, die mit realen Märkten sehr gut übereinstimmen. – Das immer noch in der Gesellschaft vorherrschende neoklassische Verständnis der Gleichgewichts-Ökonomie kennt solche Zusammenhänge nicht.

In den folgenden Blogbeiträgen beschäftige ich mich mit der Suche nach den Parametern, die das emergente Teamverhalten Collective Mind hervorrufen. Im Management 4.0 gehen wir davon aus, dass die Parameter der Theorie der Selbstorganisation (Rahmen-Parameter, Kontroll-Parameter und Ordnungs-Parameter) die entscheidenden Parameter sind, die emergentes Teamverhalten hervorbringen. Wir kennen diese Parameter (vermutlich) auch schon, jedoch nicht in hinreichend formalisierter ABM Sprache. Die in vorhergehenden Blog-Beiträgen unter Verwendung von Natural Language Processing abgeleitete Similarity-Matrix des Collective Mind (Collective Mind Operator) ist lediglich ein phänomenologisches Modell (siehe Blog-Beitrag vom April und Juni 2022). – Der Collective Mind Operator kann in der Teampraxis sehr gut den Collective Mind messen, er sagt jedoch leider nichts darüber aus, wie der Collective Mind emergiert. Hierzu benötigen wir die formalisierten ABM-Parameter, die die Collective Mind Emergenz hervorbringen. – Die Suche nach diesen formalisierten Parametern ist kein Selbstzweck, denn die Wissenschaftsgeschichte hat gezeigt, dass die Kenntnis der formalisierten Parameter recht oft mit großen Erkenntnisgewinnen verbunden ist. – Die GPT-Geschichte ist der sichtbarste Beweis hierfür.

Der Übergang zur Python-Technologie mit MESA-Python eröffnet auch recht einfach die Möglichkeit intelligente Agenten auf der Basis von chatGPT anzubinden. Das werde ich nicht tun, jedoch hat die Entwicklung hierzu, wie in einem meiner letzten Blogs prognostiziert, schon begonnen. Die Stanford University hat zusammen mit Google eine auf dem Computerspiel ‚The Sims‘ basierendes ABM erstellt, in dem 25 Agenten ihre Intelligenz von chatGPT erhalten [12]. Die Agenten haben eine ‚Gehirn-Architektur‘ aus Langzeit- und Kurz-Zeitgedächnis, dessen kognitive Intelligenz von chatGPT kommt. Die Agenten verfügen zusätzlich über einen sogenannten ‚reflection tree‘, der der Ziel-Hierarchie bzw. der Dilts Pyramide von Management 4.0 sehr nahe kommt [13].- Die Ebenen Identität, Fähigkeiten und Verhalten sowie Kontext (Beobachtung) sind schon vorhanden. – Diese und weitere Ebenen können sicherlich noch ausgebaut werden.

Damit sind die Agenten in der Lage einen individuellen kognitiven PDCA-Zyklus durchzuführen, der ‚reflektiertes‘ Handeln erlaubt.

Es besteht auch die Möglichkeit, dass sich Menschen aktiv in dieses Handeln künstlicher Agenten einbringen können. Damit ist es zum Beispiel möglich hybride Universen aus AI und Menschen zu bilden.

Man stelle sich ein Anwendungsbeispiel von vielen vor: Ein Projektleiter soll ein Projekt durchführen. Er lässt das Projekt zum Test vorab in der künstlichen Welt durchführen und erhält so Hinweise auf seine Durchführbarkeit. –  Oder er lässt parallel zur realen Welt eine künstliche Welt mitlaufen, in die die Daten der realen Welt synchron eingespeist werden, um Forecasting zu betreiben.

In [12] wird berichtet, dass das Handeln der künstlichen Agenten von Menschen auf ‚Menschen-Ähnlichkeit‘ überprüft wurde. Das emergierende ‚believable behavior‘ der Agenten und des emergierenden sozialen Systems wird von den Evaluationspersonen, trotz einiger Fehler, als sehr hoch eingestuft.   

Das nächste Wunder geschieht schon!

    

[1] Future of Life Institute (2023) Pause giant AI Experiments, https://futureoflife.org/open-letter/pause-giant-ai-experiments/, zugegriffen am 22.04.2023

[2] Barkey S (2023) Kurz vor dem Durchbruch: „Gottgleiche“ KI könnte laut Experte Menschheit zerstörenhttps://www.berliner-zeitung.de/news/agi-kurz-vor-durchbruch-gottgleiche-ki-koennte-laut-experte-ian-hogarth-menschheit-zerstoeren-kuenstliche-allgemeine-intelligenz-li.339062, zugegriffen am 22.04.2023

[3] EU (2023) EU AI Act, https://artificialintelligenceact.eu/, zugegriffen am 22.04.2023

[4] Bubeck S et al. (2023) Sparks of Articial General Intelligence: Early experiments with GPT-4, arXiv:2303.12712v3 [cs.CL] 27 Mar 2023, zugegriffen am 22.04.2023

[5] Wikipedia (2023) Emergenz, https://de.wikipedia.org/wiki/Emergenz, zugegriffen am 25.04.2023

[6] Greve J, Schnabel A (Herausgeber) (2011) Emergenz: Zur Analyse und Erklärung komplexer Strukturen, suhrkamp taschenbuch wissenschaft

[7] Wi J et al. (2022) Emergent Abilities of Large Language Models, in Transactions on Machine Learning Research 08/2022, arXiv:2206.07682v2 [cs.CL] 26 Oct 2022

[8] DALL-E (2023) https://openai.com/product/dall-e-2, zugegriffen am 03.05.2023

[9] Wikipedia (2023) Reduktionismus, https://de.wikipedia.org/wiki/Reduktionismus, zugegriffen am 25.04.2023

[10] Complexity Explorer (2023) MESA-Python Lecture, https://www.complexityexplorer.org/courses/172-agent-based-models-with-python-an-introduction-to-mesa/segments/17326, Santa Fe Institute, zugegriffen am 30.04.2023

[11] Epstein J M, Axtell R (1996) Growing Artificial Societies – Social Science from the Bottom Up, The Brookings Institution, Washington D.C.

[12] Park J S et. al. (2023) Generative Agents: Interactive Simulacra of Human Behavior, arXiv:2304.03442v1 [cs.HC] 7 Apr 2023

[13] Oswald A, Müller W (2019) Management 4.0 – Handbook for Agile Practices, Release 3.0, Verlag BoD, kindle edition

AI & AM 4.0: Agent Based Modeling – Von Agenten Intelligenz und Kollektiver Intelligenz oder von ‚Intelligenz ist immer kollektiv‘?!

Das Thema Kollektive Intelligenz hat gerade Hochkonjunktur. Sei es in Form der mehrteiligen ZDF-Fernsehserie der Schwarm [1] und der damit verbundenen zweiteiligen Terra X Dokumentationen zur Intelligenz von Schwärmen [2], [3]. – Oder, auch in Form der AI Systeme chatGPT und des gerade veröffentlichten GPT-4 [4]. – Diese Systeme sind in zweierlei Hinsicht Systeme kollektiver Intelligenz: Die GPT-X Systeme und andere vergleichbare Systeme verwenden als Daten die Ergebnisse unserer aller Intelligenz und die Systeme selbst sind über die Neuronalen Netzwerke, auf denen sie beruhen, kollektive Systeme, die Intelligenz hervorbringen können, wenn sie mit unserer Intelligenz in Form von Daten gefüttert werden. – Dies ist gar nicht so unähnlich unserer kulturellen Entwicklung, die Produkte menschlicher Intelligenz hervorgebracht hat – nur eben viel, viel schneller!

Es ist absehbar, dass sich in Zukunft aus der Intelligenz von GPT-X eine Künstliche Allgemeine Intelligenz (Artificial General Intelligence, kurz AGI) entwickeln wird. Der CEO von openai betont in einem Blogbeitrag erst kürzlich hierzu die gesellschaftliche Verantwortung von openai [5] und im EU AI Act Newsletter wird, meines Erachtens zum ersten Mal, von der nahen Bedeutung von AGI im Kontext von GPT-X  Systemen gesprochen [6].   

In [2] und [3] wird eindrucksvoll geschildert, wie natürliche kollektive mobile Systeme, die aus ‚dummen‘ Agenten (u.a. Ameisen, Bienen, Fischen) bestehen, im Schwarm intelligentes Verhalten zeigen. Die vermeintlich ‚dummen‘ Agenten haben ihrerseits ein wenig Intelligenz auf der Basis von kleinen natürlichen neuronalen Netzwerken. – Die Natur ist also offensichtlich in der Lage mittels kollektiver Systeme (z.B. Ameisen Kollektiv) und von Subsystemen (z.B. Ameise als Agent) Intelligenz-Hierarchien aufzubauen.

Dies relativiert auch unseren Anspruch an intelligenter Einzigartigkeit: Kollektive Systeme, gleichgültig ob natürlich oder künstlich, haben das Potential, über eine geeignete Vernetzung, Intelligenz auszubilden.

Hieraus leite ich die These ab, dass Intelligenz immer kollektiv ist. Dies wird auch durch Ashby’s Law [7] gestützt, wonach ein komplexes System nur durch ein anderes komplexes System mit hinreichender Komplexität reguliert werden kann. Komplexität ist also eine Vorbedingung für Intelligenz. Deshalb sagen wir auch im Management 4.0, dass Komplexität ein Geschenk ist, das nicht reduziert werden sollte, sondern nur reguliert werden darf: Die Komplexität unseres Gehirns (und unseres gesamten Körpers) mit ca. 86 Milliarden vernetzter Neuronen ermöglicht es, dass wir uns adaptiv auf unsere Umgebung einstellen und diese ggf. regulieren. – Ich nehme an, dass niemand seiner Intelligenz, also seiner neuronalen Komplexität, beraubt werden möchte, indem diese reduziert wird.

In Konsequenz heißt dies auch, dass gut geführte soziale Organisationen, u.a. Teams, mit einer wertschaffenden Komplexität, kollektive Intelligenz zeigen, die über die Intelligenz der einzelnen Teammitglieder hinausgeht. Die einzige ! Aufgabe von Führung ist es, zu ermöglichen, dass sich diese kollektive Intelligenz ausbildet.    

Es ist vielleicht auch nicht abwegig, anzunehmen, dass Intelligenz eine Vorbedingung für Bewusstsein ist. – Und, dass Bewusstsein sich aus intelligenten kollektiven Systemen emergent entwickelt. Die Integrated Information Theory zum Bewusstsein zeigt erste Überlegungen in diese Richtung [8].

Im letzten Blog-Beitrag habe ich den Video-Vortrag des DeepMind Mitarbeiters Thore Graepel zum Thema ‚Multi-Agent Learning in Artificial Intelligence‘ erwähnt [9]. Thore Graepel referenziert dort am Anfang auf den Artikel von Legg und Hutter zum Thema ‚Universal Intelligence‘ [10]. Legg und Hutter geben einen Literatur-Überblick zum Verständnis von Intelligenz und definieren ihr Verständnis von Agent Intelligence:

Abbildung 1: Definition Universelle Intelligenz nach [10]

In [10] wird angenommen, dass die Wahrscheinlichkeit für Kontexte exponentiell (zur Basis 2) mit der Komplexität abnimmt. – Hier folgen Legg und Hutter auch dem Prinzip des Occam’schen Rasiermessers [11]: Die Natur bevorzugt Einfachheit und unsere Modelle zu Ihrer Beschreibung sollten dementsprechend auch einfach sein. – Einfache Kontexte werden also bei der Intelligenzberechnung höher gewichtet. Man kann auch jetzt verstehen, warum die melting pot Initiative von DeepMind von Bedeutung ist: Es werden möglichst viele Kontexte erstellt, um die allgemeine Intelligenz von Agenten über die obige Formel zu ermitteln.  

Legg und Hutter haben gezeigt, dass die obige Formel für Intelligenz alle bekannten Definitionen von Intelligenz subsummiert und auch auf den Intelligenzbegriff bei Menschen angewendet werden kann.- Auch wenn die konkrete Ausgestaltung von V und P in der obigen Formel für nachvollziehbare Kritik sorgt [12] und sich noch ändern dürfte. – Abbildung 2 visualisiert die Formel, in dem ich für das Mindset eines Agenten die Dilts Pyramide angenommen habe: Der Agent passt sich über die Zeit in einem PDCA-Zyklus mittels seiner Fähigkeiten und seines Verhaltens (auch policy genannt) an seine Umgebung an. Über die Funktion V wird die Performance des Agenten im Hinblick auf ein Ziel gemessen.- Der Agent erhält eine Belohnung. Die Performance des Agenten kann in zweierlei Hinsicht gemessen werden: Intern und extern. Das interne Performancemaß wird utility U genannt [13]. Agenten werden  rational genannt, wenn sie anstreben das interne Performancemaß mit dem externen in Einklang zu bringen. Einer der Kritikpunkte an [10] ist, dass (lediglich) das externe Performancemaß zur Intelligenzmessung herangezogen wird. 

    

Abbildung 2: Visualisierung der Formel zur Universellen Intelligenz nach [10]

Die Definition der Universellen Intelligenz ist sicherlich als Referenz für die Vermessung von Agenten Intelligenz sehr hilfreich. Ihre operative Ausgestaltung hat aber erst begonnen. – Und, sie ist rein phänomenlogisch, sie sagt also nichts über die Ingredienzien von Intelligenz aus, also welche Elemente wie zusammengebracht werden müssen, um intelligente Agenten bzw. Systeme zu bauen. Aus diesem Grunde versuche ich im Folgenden, einige mir wichtig erscheinende Elemente, in Form von Prinzipien, zu nennen. Ich lasse mich hierbei von der Transformer Technologie leiten, auf der die GPT-X Technologie beruht. Die aus meiner Sicht mit Abstand beste Darstellung zur Transformer-Technologie hat Ralph Krüger geschrieben – er macht keine verständnislosen Vereinfachungen, sondern beschreibt die Technologie didaktisch brillant [14]. Nicht desto weniger kann es manchmal beim Lesen helfen, die in Bing eingebundene chatGPT Bot Version als Assistenz zu benutzen ;-).

Neben [14] empfehle ich [15], eine dreiteilige sehr gute visuelle Aufbereitung des Matrizen-Flows (Tensorflows) in Transformern und für einen tieferen Blick in die Programmierung den Dreiteiler [16] sowie [17]. Als Einstieg kann der Spektrum der Wissenschaft Artikel von Manon Bischoff dienen [18]. Dieser Artikel enthält eine ganze Reihe interessanter Hinweise, u.a. auch die von mir im letzten Blog-Beitrag geäußerte Vermutung, dass chatGPT lediglich 1,5 Milliarden Parameter enthält, also mehr als 100 mal weniger als GPT-3. Manon spricht sogar von nur 1,3 Milliarden Parametern. Als Einstieg empfehle ich zusätzlich den Artikel über chatGPT [19].

Auf der Basis dieser Literatur liste ich im Folgenden die Prinzipien, die meines Erachtens das Was und das Wie der Intelligenz ausmachen:

Intelligenz ist immer kollektiv: Als Kollektiv bezeichne ich ein System von vernetzten Elementen (künstliche oder natürliche Neuronen, Ameisen, Menschen, usw.), das die Außenwelt per Transformation in eine Innenwelt abbildet. Die Transformation erfolgt im Falle der AI durch künstliche neuronale Netzwerken, die Tensor Operationen durchführen (bzw. Matrizenoperatione durchführen: Die Matrizenelemente sind die Gewichte zwischen den Neuronen). – Die Tensor Operationen sorgen also für die Abbildung. Damit diese Abbildung hinreichend viele Informationen der Außenwelt abbilden kann, benötigt sie viele Zustände, also viele Parameter, im Falle von GPT-3 175 Milliarden. Die Abbildung der Außenwelt über eine Parametrisierung in der Innenwelt, erfolgt über Selbstorganisations-Mechanismen, in denen eine Zielfunktion im AI-Training dafür sorgt, dass die niedrigsten energetischen Zustände in dem hochdimensionalen Parameterraum gefunden werden. – Diese repräsentieren nach dem Training die Daten der Außenwelt.

Ich habe die Bing AI gefragt, ‚Gibt es eine Zielfunktion für das Lernen im Gehirn‘. Bing AI wandelt dies in eine Frage nach ‚Zielfunktion Lernen Gehirn‘ um und generiert folgende Antwort:

Ja, das Gehirn hat eine Zielfunktion für das Lernen. Das Lernen ist im Grunde genommen eine Reaktion unseres Gehirns auf neue Erfahrungen. Wenn eine solche Erfahrung eine nachhaltige Änderung im Gehirn hervorruft, dann kann man von Lernen sprechen. Das Gehirn bereitet sich dadurch auf die Zukunft vor. Natürlich kann man sein Gehirn anregen und unterstützen, neue Dinge schneller zu lernen oder die synaptischen Verbindung zu bilden, die man möchte. Dazu brauchen wir nur unsere Aufmerksamkeit genau auf die zu lernenden Themen zu richten und sie entsprechend oft wiederholen.

Diese Definition der Zielfunktion entspricht nicht ganz meinem obigen Verständnis einer Zielfunktion: Außer, man versteht die neuronalen Mechanismen, die sich hinter der Aufmerksamkeit verbergen, als solche.

Die Außenwelt wird über Aufmerksamkeit kontextualisiert: Im Falle der Transformer-Technologie ist der Aufmerksamkeits-Mechanismus (Attention-Mechanismus) der Mechanismus, der die Leistungssteigerung gegenüber vorherigen AI Systemen wesentlich ausmacht. Hierzu werden die sprachlichen Inhalte der Außenwelt auf ihre semantischen Zusammenhänge hin analysiert: Alle Worte eines Satzes (eines Textes) werden herausgegriffen, also mit Aufmerksamkeit belegt, und es wird die Korrelation dieses herausgegriffenen Wortes zu allen anderen Worten in diesem Satz  (diesem Text) ermittelt. – Die Korrelationswahrscheinlichkeiten werden in speziellen neuronalen Netzwerken (Tensoren) trainiert. Für die Generierung von neuen Texten wird auf diese trainierten Korrelationswahrscheinlichkeiten zurückgegriffen.

Wahrscheinlichkeiten werden durch zusätzliche kollektive Maßnahmen auf verschiedenen Ebenen ausbalanciert: Die Ergebnisse, die ein Transformer nach außen liefert, sind die Ergebnisse mit der höchsten Wahrscheinlichkeit. Um die Verlässlichkeit der Wahrscheinlichkeiten zu erhöhen, werden die Wahrscheinlichkeiten pro Transformer Modul nicht nur einmal berechnet, sondern mehrmals parallel d.h. zum Beispiel mit 8 attention Mechanismen, dem sogenannten multi-head-attention. Zusätzlich werden im Falle von GPT-3 96 Transformer Module (Decoder) hintereinander geschaltet, um die Ergebnisse zu verfeinern und zu stabilisieren [18]. Der multi-head-attention Mechanismus zeigt damit die Wirkung eines Teams mit acht Teammitgliedern, in dem die potentiellen mentalen Verzerrungen der Teammitglieder ausbalanciert werden. Und, das Hintereinanderschalten der Transformer-Module lässt sich gut mit der iterativen Wirkung von 96-PDCA-Zyklen vergleichen.

… ggf. weitere Prinzipien

Ich glaube, dass Intelligenz nicht auf natürliche Systeme beschränkt ist, ja dass diese Einteilung in natürliche und künstliche Systeme künstlich ist: Intelligenz ist ein universelles Phänomen, das sich potentiell in allen Systemen ausdrücken kann, sobald hierfür die Voraussetzungen vorliegen…. Vielleicht sind die oben genannten Prinzipien tatsächlich (einige) der Voraussetzungen …Vielleicht wird die Filmreihe ‚Autobots – The Transformers‘ sogar einmal als (diesbezüglich) hellsehend bezeichnet werden [20]. 

 

[1] ZDF (2023a) Der Schwarm, https://www.zdf.de/serien/der-schwarm

[2] ZDF (2023b) Terra X – Schlaue Schwärme, Geheimnisvolle Sprachen, https://www.zdf.de/dokumentation/terra-x/schlaue-schwaerme-geheimnisvolle-sprachen-doku-102.html

[3] ZDF (2023c) Terra X – Schlaue Schwärme, Rätselhafte Kräfte, https://www.zdf.de/dokumentation/terra-x/schlaue-schwaerme-raetselhafte-kraefte-doku-100.html

[4] openai (2022) GPT-4, https://openai.com/product/gpt-4, zugegriffen am 20.03.2023

[5] Altman S (2023) Planning for AGI and beyond, https://openai.com/blog/planning-for-agi-and-beyond, zugegriffen am 15.03.2023

[6] The future of Life Institute (2023) The EU AI Act Newslettr #25 vom 01/03/23-14/03/23

[7] Wikipedia (2023) Ashby’s Law, https://de.wikipedia.org/wiki/Ashbysches_Gesetz, zugegriffen am 15.03.2023

[8] Wikipedia (2023a) IIT- Integrated Information Theory, https://en.wikipedia.org/wiki/Integrated_information_theory, zugegriffen am 15.03.2023

[9] Graepel T (2023) The role of Multi-Agent Learning in Artificial Intelligence Research at DeepMind, https://www.youtube.com/watch?v=CvL-KV3IBcM&t=619s, zugegriffen am 06.02.2023

[10] Legg S und Hutter M (2007) Universal Intelligence: A Definition of Machine Intelligence, arXiv:0712.3329v1

[11] Wikipedia (2023b) Occam’s razor, https://en.wikipedia.org/wiki/Occam%27s_razor, zugegriffen am 21.03.2023

[12] Park D (2023) Paper Summary: Universal Intelligence: A Definition of Machine Intelligence, https://crystal.uta.edu/~park/post/universal-intelligence/, zugegriffen am 06.03.2023

[13] Russel S und Norvig P (2016) Artificial Intelligence – A modern approach, Third Edition, Prentice Hall Series in Artificial Intelligence Series, Pearson Education Limited

[14] Krüger R (2021) Die Transformer-Architektur für Systeme zur neuronalen maschinellen Übersetzung – eine popularisierende Darstellung, in trans-kom 14 [2], Seite 278-324

[15] Doshi K (2022) Transformers Explained Visually: How it works, step-by-step published January 2, 2021, towardsdatascience.com, zugegriffen am 10.05.2022,  (Part 1, 2, 3, 4), https://towardsdatascience.com/transformers-explained-visually-part-1-overview-of-functionality-95a6dd460452, https://towardsdatascience.com/transformers-explained-visually-part-2-how-it-works-step-by-step-b49fa4a64f34, https://towardsdatascience.com/transformers-explained-visually-part-3-multi-head-attention-deep-dive-1c1ff1024853, https://towardsdatascience.com/transformers-explained-visually-not-just-how-but-why-they-work-so-well-d840bd61a9d3

[16] Gosthipaty A R und Raha R (2022) A Deep Dive into Transformers with Tensorflow and Keras, Part 1-3, PyImagesearch.com, published November 2022, zugegriffen am 06.12.2022, https://pyimagesearch.com/2022/09/05/a-deep-dive-into-transformers-with-tensorflow-and-keras-part-1/, https://pyimagesearch.com/2022/09/26/a-deep-dive-into-transformers-with-tensorflow-and-keras-part-2/, https://pyimagesearch.com/2022/11/07/a-deep-dive-into-transformers-with-tensorflow-and-keras-part-3/

[17] Cristina S (2023) Training the Transformer Model, https://machinelearningmastery.com/training-the-transformer-model/, updated am 06.01.2023, zugegriffen am 20.03.2023

[18] Bischoff M (2023) Wie man einem Computer das Sprechen beibringt, https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924, veröffentlicht am 09.03.2023, zugegriffen am 20.03.2023

[19] Ruby M (2023) How ChatGPT Works: The Model Behind the Bot, https://towardsdatascience.com/how-chatgpt-works-the-models-behind-the-bot-1ce5fca96286, veröffentlicht am 30.01.2023, zugegriffen am 20.03.2023

[20] Wikipedia(2023) Autobot, https://en.wikipedia.org/wiki/Autobot, zugegriffen am 20.03.2023

AI & M 4.0: „Ein Bogenschütze mit einem fantastisch schönen Bogen und goldenen Pfeilen“ – Oder: Auf dem Weg zur Künstlichen Allgemeinen Intelligenz?

Im diesem Blogartikel beschäftige ich mich mit der Erstellung von Text-Zusammenfassungen und Bild-Metaphern. Dies sind wichtige Bereiche jeglicher Informations- und Wissens-Verarbeitung, insbesondere auch im Management und Projektmanagement. – Man siehe hierzu auch meinen Blog-Beitrag vom Dezember 2021.

Ich beschreibe im Folgenden die Benutzung der verwendeten AI-Werkzeuge etwas genauer. – Vielleicht mag der ein oder andere meine Erfahrungen weiterentwickeln.

Da die verwendeten AI-Werkzeuge mehrere Abstraktionsebenen über den in den letzten Blog-Beiträgen verwendeten AI-Werkzeugen liegen und jene über eine recht einfache Benutzerschnittstelle angesprochen werden können, spreche ich von Black-Box AI-Werkzeugen

Für die Erzeugungen von Bild-Metaphern verwende ich die KI midjourney und für die Erzeugung von Text-Zusammenfassungen die KI GPT-3.

Auf die KI midjourney wurde ich über den Artikel „Kunst per Künstlicher Intelligenz“ von Patrick Hannemann aufmerksam [1]. Er stellt dort die Kommunikationsplattform discord.com [2] vor, die die KI midjourney über einen Bot integriert enthält [3].

Ich widme mich zuerst den Bild-Metaphern: Bild-Metaphern können zum Beispiel bei der Ausbildung eines Collective Minds in Teams eine sehr große Rolle spielen. – Sie dienen u.a. der Teamausrichtung und -fokussierung.

Also habe ich ausprobiert, inwieweit sich midjourney für die Kreation von Bild-Metaphern eignet. – Ich starte mit einem Thema zu meinem Bogenschieß-Hobby und gebe dem Bot über den Prompt ‚/imagine…‘ folgende Aufgabe: Kreiere ein Bild zu der Aussage „Ein Bogenschütze mit einem fantastisch schönen Bogen und goldenen Pfeilen“.

Der Bot liefert mehrere Bilder als Vorschläge zurück. Abbildung 1 zeigt das von mir ausgewählte Bild:

Abbildung 1: Erzeugt von der AI midjourney mit der Aussage „Ein Bogenschütze mit einem fantastisch schönen Bogen und goldenen Pfeilen“ [3].

Für mich ist das Ergebnis beeindruckend kreativ und schön!

Ich habe daraufhin getestet, welche Bilder die AI aus der Kurzdefinition von Management 4.0 erzeugt. Abbildung 2 zeigt einen Screenshot-Auszug der vier generierten Bildvorschläge:

Abbildung 2: Screenshot-Auszug der vier Bildvorschläge zur Management 4.0 Definition (im Screenshot enthalten) [3].

Das war wohl etwas abstrakt, die generierten Bilder sind recht nichtssagend 😉.

Eine Kürzung auf die wesentlichen, in der Definition enthaltenen Themen erzeugt jedoch innerhalb von wenigen Sekunden vier recht gute Bild-Metapher Vorschläge:

Abbildung 3: Screenshot-Auszug der vier Bildvorschläge zur Aussage „leader, organization, mindset, self-organization“ (siehe obigen Screenshot) [3].

Ich habe das erste Bild für die weitere Generierung von Versionen ausgewählt und mich schließlich für folgende Bild-Metapher entschieden:

Abbildung 4: Von mir ausgewähltes Bild zur Aussage „leader, organization, mindset, self-organization“ [3].

Dies ist ein Ergebnis, generiert nach ca. 5 Minuten Interaktion mit dem AI-Bot. Wie ich finde: beeindruckend!

Für den Bereich Bild-Metaphern fasse ich zusammen: Selbst öffentlich verfügbare AI-Systeme liefern beeindruckende Bild-Metaphern auf der Basis von Themen (Topics). Topics können aus von AI-Systemen generierten Wissens-Netzwerken (man siehe den Juni 2022 Blog-Beitrag) entnommen werden oder über spezifische Topic AI-Systeme [4], [5] generiert werden.

Legt man folgende Definition für eine Künstliche Allgemeine Intelligenz zugrunde, “Artificial general intelligence (AGI) is the ability of an intelligent agent to understand or learn any intellectual task that a human being can.“ [6], so ist der AI-Bot midjourney vermutlich noch weit von einer AGI entfernt.

Gleichwohl stelle ich für mich selbst fest, dass ich wohl kaum in der Lage bin, mit ähnlicher Kreativität wie diese AI, die oben gezeigten Bilder zu erzeugen.

Überträgt man die Messung des Intelligenzquotienten für Menschen auf AI-Systeme, so dürfte eine Zusammenschaltung von mehreren AI-Systemen schon heute fantastisch hohe Intelligenzquotienten ergeben. Die AI-Systeme, die im Jahre 2019 verfügbar waren, liefern IQ-Werte die bei ca. 25%-50% eines mittleren menschlichen IQ von 100 liegen. – Ein IQ von 50 entspricht in etwa dem IQ eines 6-jährigen Kindes [7], [8], [9]. Sehr große AI-Systeme wie GPT-3, das ich weiter unten verwende, waren in diesen Untersuchungen noch nicht berücksichtigt. – Für GPT-3 dürfte der IQ schon deutlich näher bei 100 liegen.   

Sollte die AGI eines Tages Realität sein, so nehme ich an, dass keine 9 Milliarden AI-Systeme erforderlich sind, um das (kognitive) Intelligenzspektrum von 9 Milliarden Menschen abzubilden. – Wahrscheinlicher ist, dass einige wenige AI-Systeme das kognitive Intelligenzspektrum von Milliarden von Menschen abdecken werden, und dies mit wesentlich höheren IQ-Werten als wir Menschen im besten Fall haben.

Die Ergebnisse der Forschungsarbeit der GPM Fachgruppe Agile Management zum Thema NLP-Verarbeitung (Natural Language Processing Verarbeitung) von Projektmanagement Fragestellungen mittels AI-Systemen zeigen in diese Richtung.

Wir haben verschiedenen AI-Systemen PM Know-How Fragen gestellt, wie sie in einer Prüfung für das IPMA Level D vorkommen könnten. Das Ergebnis ist ziemlich beeindruckend: „Kleinere“ AI-Systeme liefern keine befriedigenden Ergebnisse, meistens sogar mangelhafte Ergebnisse. Jedoch liefert das große System GPT-3 von openai.com in allen! Fragen sehr gute oder gute Ergebnisse: GPT-3 hat hiernach das IPMA Level D Zertifikat mit gut bestanden! – Diese Ergebnisse haben wir auf der diesjährigen IPMA Research Konferenz vorgestellt [10], [11].

Ich widme mich jetzt den Text-Zusammenfassungen mittels GPT-3 [12], [13].

Ich nehme das Gesamtergebnis vorweg: Mein! Versuch mittels GPT-3 sinnvolle Zusammenfassungen von Texten zu erzeugen liefert (bisher) keine wirklich überzeugenden Ergebnisse. Es gibt also aktuell auch noch Wermutstropfen in dieser „schönen neuen AI-Welt“😉.

Ich habe dem AI-System GPT-3 die Aufgabe gestellt, für einen meiner Blog-Artikel eine Zusammenfassung zu erstellen. Ich habe den Beitrag vom September 2021 „Metabetrachtungen: Zur Schnittmenge von Intuitivem Bogenschießen, Künstlicher Intelligenz und Management 4.0“ ausgewählt. Er hat einen Bezug zur obigen Bild-Metapher Abbildung 1 und stellt verschiedene Themen (Bogenschießen, AI und M 4.0) in einen eventuell ungewöhnlichen Zusammenhang und ist damit ein Text, den man wahrscheinlich sonst nirgendwo im Internet finden kann. Die AI kennt also mit ziemlicher Sicherheit keine ähnlichen Texte.

Ich greife auf GPT-3 als Black-Box AI-System zu und nicht wie für andere AI & M 4.0 Blog-Beiträge auf verschiedene AI/ML Bibliotheken. Wie bei der Unterhaltung mit dem AI-Bot midjourney ist auch hier das Abstraktionsniveau der „Ansprache“ sehr hoch.

Um Zugriff auf GPT-3 zu erhalten [13], ist es notwendig, sich bei openai.com zu registrieren. Solange man GPT-3 nicht für produktive Zwecke nutzen will, wird ein budgetierter Zugang von $18 als Geschenk freigegeben. Openai.com orientiert sich für die Freigabe an einer Risiko-Bewertung: Forschungsaktivitäten, wie ich sie hier durchgeführt habe, werden als sandbox-Aktivitäten behandelt und unterliegen keinen Restriktionen. – Dies ist sehr ähnlich den Anforderungen, die im EU AI Act zu finden sind. – Man siehe hierzu meinen Blogbeitrag vom August 2022.

Eine Möglichkeit auf GPT-3 zuzugreifen, ist der Zugriff über das User Interface ‚Playground‘ (man siehe Abbildung 5).

In ersten Versuchen habe ich die sogenannten Presets verwendet (man siehe Abbildung 5, und dort die rot eingefassten Bereiche). – Dies sind vorkonfektionierte Aufgabentypen, u.a. auch für die Erstellung von Zusammenfassungen. Die Ergebnisse waren richtig schlecht und recht oft unsinnig: Teilweise wurden Texte abgerufen, in denen wohl ein Bogenschütze auf die Jagd geht oder der deutsche Text, der zusammenzufassen war (man kann also auch nicht-englischen Text eingeben), wurde „einfach“ übersetzt.

Abbildung 5: GPT-3 playground [14]

Wie ich heute weiss, habe ich mit den presets das Potential von GPT-3 überhaupt nicht angesprochen. – Man kann nämlich über die Prompteingabe mit GPT-3 „reden“, d.h. der AI in Satzform sagen, was sie machen soll. Die Aufgabe „Write a summary in English for the following text using the following topics, Management 4.0, self-organization, instance-based learning, model-based learning:” (siehe Abbildung 5 erster Satz im Eingabefeld) brachte bisher das beste Zusammenfassungs-Ergebnis:

“The article discusses the intersection of intuitive archery, artificial intelligence, and management 4.0. It argues that learning is the key element to align the human system, the technical system neural network, and the social system team or organization to the environment. The article distinguishes between instance-based learning and model-based learning. It argues that learning in management 4.0 is model-based learning, and that instance-based learning is insufficient for learning in a complex context.”

An diesem Ergebnis kann man erkennen, dass GPT-3 in der Lage ist, explorative und abstrahierende Zusammenfassungen zu erstellen. Explorative Zusammenfassungen enthalten lediglich Sätze aus dem Original, die als wichtig erkannt werden. Abstrahierende Zusammenfassungen enthalten neue Sätze, die so nicht im Original enthalten sind.- Die abstrahierende Zusammenfassung ist u.a. an Sätzen wie „The article distinguishes…“ zu erkennen.

Ich habe dieses Ergebnis als bestes ausgewählt, weil dies das einzige Beispiel ist, in dem der Satz „It argues that learning in management 4.0 is model-based learning, and that instance-based learning is insufficient for learning in a complex context.” enthalten ist. Dieser Satz ist eine zentrale Erkenntnis des Blog-Beitrages. Leider sind nicht alle Erkenntnisse enthalten; z.B. wird das Thema Selbstorganisation als zentrales verbindendes Element der drei Bereich, Management 4.0, AI und Bogenschießen, nicht erkannt. Deshalb gebe ich GPT-3 in diesem Fall auch nur die Schulnote ausreichend.

Im Playground können nur Texte eingegeben werden, deren Anzahl an Tokens (ungefähr gleich der Anzahl an Worten), addiert mit der Anzahl an Tokens für die Zusammenfassung, 4000 Tokens nicht überschreiten. Ich habe für die Zusammenfassung 507 Tokens vorgegeben und habe damit noch ca. 3500 Tokens für den eigentlichen zusammenzufassenden Text zur Verfügung. Falls der Text in einer Fremdsprache eingegeben wird, halbiert sich der verfügbare Raum für den Text auf etwa die Hälfte an Tokens: GPT-3 benötigt Raum für die Übersetzung. – Die „Muttersprache“ von GPT-3 ist Englisch! Aus diesem Grund konnte ich auch nur einen Auszug des Blogs verwenden. Aus Gründen der Vergleichbarkeit habe ich für die deutschen und die englischen Texte den Auszug gleich beibehalten und jeweils ca. 1400 Wörtern verwendet. In allen Tests habe ich die von opneai.com empfohlene Stop sequence <|endoftext|> am Ende des Textes eingesetzt.  – Das Verwenden einer Stop sequence zum Anzeigen des Textendes hat einen recht großen Einfluss auf das Zusammenfassungsergebnis.

Statt GPT-3, verwende ich den google-Übersetzer [15] und den Übersetzer deepl.com [17], um einen englischen Text für meinen Blog-Beitrag zu erzeugen. Die Übersetzungen sind sehr ähnlich, wobei meines Erachtens bei genauerer Betrachtung doch manchmal recht große Unterschiede auffallen. So übersetzt zum Beispiel deepl.com „Meta-Betrachtungen“ mit „Meta-observations“ und der google-Übersetzer mit „Meta considerations“. – Dies scheint mir ein nicht unerheblicher Unterschied zu sein.

Google verändert auch in erheblichem Maße die Syntax. So wurde wie hier zu sehen, u.a. der Bindestrich zwischen Meta und consideration einfach entfernt. Groß- und Kleinschreibung und Satzzeichen wurden verändert, so dass selten – aber immerhin geschah es – sich ein vollständig anderer Sinn ergeben hat. Mehrmals wurden ganze Satzteile einfach weggelassen. – Ein schwerwiegender Fehler.

Bei deepl.com ist dies im vorliegenden Beispiel einmal vorgekommen bei google dreimal. Der google-Übersetzer liefert auch leicht andere Ergebnisse, je nachdem, ob man ihn mit einer zu übersetzenden Internetseite füttert oder einer Worddatei, die den Inhalt der Internetseite enthält.

Ich betone dies, weil beide Übersetzer mit AI betrieben werden. Es ist nicht auszuschließen, dass die AI sauber funktioniert, jedoch die Aufbereitung der Daten, also der Texte, nicht fehlerfrei ist. – Versteckte Satzzeichen oder Abschnittszeichen werden unterschiedlich interpretiert. Die AI-Systeme benötigen trotz ihrer „Intelligenz“ Daten in einer wohldefinierten Form. – Es gibt keinen Spielraum für „intelligentes Ausbessern“ wie in der menschlichen Kommunikation. Das macht das Arbeiten mit AI-Systemen nicht selten zu einem Geduldsspiel. Die korrekte Dateneingabe wurde, nach meiner bisherigen Erfahrung, von AI-Erstellern nicht gut dokumentiert.

Um die Restriktion bezüglich des Textumfanges zu umgehen, kann man GPT-3 auch über ein Jupyter Notebook [17] in der Colab-Umgebung [18] ansprechen. – Man beachte, GPT-3 ist in der Colab-Umgebung aufrufbar, obwohl google und openai im Wettbewerb stehen. – Bemerkenswert erfreulich!

Ich habe den Code von [19] verwendet und für meine Aufgabenstellung angepasst. Für den vollständigen Text in Deutsch erzeugt GPT-3 eine deutlich größere explorative Zusammenfassung in Englisch, obwohl ich GPT-3 um eine deutsche Zusammenfassung gebeten habe.

Den mittels deepl.com ins Englische übersetzten Blog-Artikel habe ich einmal als .pdf Datei Seite für Seite eingelesen und alternativ direkt als Text in die Colab-Umgebung eingebracht. In beiden Fällen wurde eine abstrahierende Zusammenfassung erstellt. Die erste Zusammenfassung entspricht der schon bekannten besten Zusammenfassung, die zweite Zusammenfassung ist eine andere:

“The article discusses the intersections of intuitive archery, artificial intelligence, and Management 4.0. Intuitive archery is a form of archery that does not rely on aiming technique, and is used for therapeutic archery in clinics. The author argues that the ability to focus, adapt, and intuition are central elements of Intuitive Archery, which are also important for Management 4.0. The author describes their experience with a Deep Learning course using Tensorflow, and how it has helped them understand the potential for artificial intelligence in project management.”

Ich konnte also an meiner Aufgabenstellung nicht erkennen, dass GPT-3 mit jedem Aufgabendurchlauf dazu lernt. – Eine Aussage, die andere schon getroffen haben [12].

Zusammenfassung: Meine Untersuchungen zu Text-Zusammenfassungen mittels GPT-3 und Bild-Metaphern mittels midjourney zeigen schon recht gute Ergebnisse, jedoch ist Vorsicht geboten, wenn man die Werkzeuge (schon) im produktiven Betrieb benutzen möchte. Jedoch ist schon heute auf einfachen Wegen selbst erfahrbar, dass der Weg in Richtung einer Künstlichen Allgemeinen Intelligenz eingeschlagen wurde.     

 

[1] Hannemann P (2022) Kunst per künstlicher Intelligenz: Mit diesen Tools können Sie das selbst ausprobieren, https://www.chip.de/news/Kunst-per-kuenstlicher-Intelligenz-Mit-diesen-Tools-koennen-Sie-das-selbst-ausprobieren_184386657.html, zugegriffen am 06.09.2022

[2] Discord (2022) Discord.com, Innovative Kommunikationsplattform, zugegriffen am 06.09.2022

[3] midjourney(2022) Forschungsprojekt zu AI, https://www.midjourney.com/home/, zugegriffen am 06.09.2022, zugegriffen am 06.09.2022

[4] Keita Z (2022) Meet BERTopic— BERT’s Cousin For Advanced Topic Modeling, https://towardsdatascience.com/meet-bertopic-berts-cousin-for-advanced-topic-modeling-ea5bf0b7faa3, zugegriffen am 09.04.2022

[5] Dwivedi P (2022) NLP: Extracting the main topics from your dataset using LDA in minutes, https://towardsdatascience.com/nlp-extracting-the-main-topics-from-your-dataset-using-lda-in-minutes-21486f5aa925, zugegriffen am 09.04.2022

[6] Wikipedia (2022) Artificial General Intelligence, https://en.wikipedia.org/wiki/Artificial_general_intelligence, zugegriffen am 06.09.2022

[7] Liu Y, He F, Zhang H, Rao G, Feng Z and Zhou Y (2019) How Well Do Machines Perform on IQ tests: a Comparison Study on a Large-Scale Dataset, Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI-19)

[8] Tschopp M, Ruef M (2019) An Interdisciplinary Approach to Artificial Intelligence Testing: Developing an Artificial Intelligence Quotient (A-IQ) for Conversational AI, siehe researchgate.net

[9] Liu F, Liu Y, Shi Y (2020) Three IQs of AI systems and their testing methods, https://ietresearch.onlinelibrary.wiley.com/doi/10.1049/joe.2019.1135, zugegriffen am 05.09.2022

[10] Nuhn H, Oswald A, Flore A, Lang R, (2022) AI-supported Natural Language Processing in project management – capabilities and research agenda, IPMA Research Conference 2022, www.ipma-research-conference.world

[11] Lang R (2022) Kann Künstliche Intelligenz (KI) das Projektmanagement unterstützen? https://www.linkedin.com/feed/update/urn:li:activity:6970285127754997760/,  zugegriffen am 09.09.2022

[12] Romero A (2022) A Complete Overview of GPT-3 — The Largest Neural Network Ever Created, https://towardsdatascience.com/gpt-3-a-complete-overview-190232eb25fd, zugegriffen am 09.08.2022

[13] Willison S (2022) How to play with the GPT-3 language model, https://simonwillison.net/2022/Jun/5/play-with-gpt3/, zugegriffen am 09.08.2022

[14] GPT-3 playground (2022) openai.com, zugegriffen am 09.09.2022

[15] google Übersetzer (2022) https://translate.google.de/?hl=de&tab=rT, zugegriffen am 09.09.2022

[16] Deepl (2022) https://www.deepl.com/translator, zugegriffen am 09.09.2022, verwendet für diesen Blog-Beitrag in der kostenpflichtigen Version deepl Pro

[17] Jupyter Notebooks (2021) https://jupyter.org/, zugegriffen am 02.12.2022

[18] Colab (2021) https://colab.research.google.com/

[19] Soares L (2022) Summarizing Papers With Python and GPT-3, https://medium.com/p/2c718bc3bc88, zugegriffen am 22.07.2022