AI & AM 4.0: Agent Based Modeling – Emergenz – Wunder geschehen!

Kürzlich erschien ein offener Brief zum Thema ‚Pausieren von gigantischen AI-Experimenten‘ à la GPT-3 oder GPT-4 [1].

Der Brief wurde inzwischen von mehr als 30.000 Personen unterschrieben. Er begründet sein Anliegen eines halbjährigen Aussetzens von AI-Groß-Entwicklungstätigkeiten mit folgendem Satz:

“This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.”

Es geht die Angst vor ‚emergenten Fähigkeiten‘ um. – An anderer Stelle wird von einer ‚Gottgleichen‘ KI gewarnt, die die Menschheit zerstören könnte [2].

Diese Sorgen mögen berechtigt sein, umso mehr, als man beobachten kann, wie lange sich die EU schon bemüht, den längst fälligen EU AI ACT als EU-Gesetz zu verabschieden [3].

In diesem Blog geht es jedoch nicht um diese Sorge oder Angst, sondern um das Thema Emergenz, das offensichtlich solche ‚Wunder‘ wie das der „Sparks of Artificial General Intelligence: Early experiments with GPT-4” [4] möglich macht. Die Intelligenz-Fähigkeiten von GPT-4, auch im Vergleich zu chatGPT/GPT-3.x, sind sensationell, gleichgültig, ob es um Mathematik, Musik, Bilderzeugung, Sprache und Logik und vielem mehr geht. – In nicht wenigen Fällen zeigt GPT-4 Intelligenz-Fähigkeiten, die überhaupt nicht trainiert worden sind. – Also klare Zeichen von emergenten Eigenschaften.

In Wikipedia wird Emergenz wie folgt definiert: „Emergenz (lateinisch emergere „Auftauchen“, „Herauskommen“, „Emporsteigen“) bezeichnet die Möglichkeit der Herausbildung von neuen Eigenschaften (Systemeigenschaften) oder Strukturen eines Systems infolge des Zusammenspiels seiner Elemente.“ [5]. Emergenz ist auch direkt mit dem Begriff der Selbstorganisation verbunden. Selbstorganisierte Systeme zeigen Emergenz bzw. emergente Eigenschaften. Auf der Basis dieser Definition wimmelt es in der Natur und damit in der Mathematik, den Naturwissenschaften/ Psychologie und den Sozialwissenschaften nur so von emergenten Eigenschaften, Strukturen oder Systemen.

In [6] wird auch deshalb zwischen schwacher und starker Emergenz unterschieden. Starke Emergenz liegt im Falle des Lebens vor, das aus Atomen oder Molekülen emergiert. – Oder, im Falle unseres Bewusstseins, das aus der materiellen Struktur unseres Gehirns emergiert. Die meisten anderen überraschenden Eigenschaften von Viel-Agenten Systemen wie zum Beispiel die Supraleitung, die Farbe von Gold, der Collective Mind eines Teams oder die Kultur einer Organisation werden eher der schwachen als der starken Emergenz zugeordnet. Ich halte die Unterscheidung für wenig sinnvoll.- Entscheidend für die Emergenz ist vielmehr, dass das durch die Wechselwirkung von Agenten entstehende Systeme Eigenschaften zeigt, die sich nicht aus den Eigenschaften der Agenten ableiten lassen.  In [7] wird deshalb für die Beschreibung von Large Language Model’s bezüglich Emergenz eine Definition verwendet, die die obige Definition aus [5] weiterführt:

„Emergence is when quantitative changes in a system result in qualitative changes in behavior.”

Abbildung 1: Bilder erzeugt durch die KI DALL-E [8] mit den Prompts: Create a painting in the style of Matisse: (Create a painting in the style of Gauguin:) Collective Mind as an example of social emergence which demonstrates synergies in a team

Im Falle von Large Language Models (LLM) gibt es mehrere quantitative Änderungen, die qualitative Veränderung hervorrufen: u.a. Anzahl der Parameter (Neuronen), Menge der Daten und die Trainingszeit. Aber auch die Architektur der LLM’s spielt eine entscheidende Rolle: u.a. das Transformer/Decoder Design, der Attention Mechanismus, usw.. So zeigt GPT-3 bei etwa 10 hoch 22 (10 Trilliarden) Floating Point Operations (FLOPs) als Maß für die Trainingszeit und 13 Milliarden Parametern einen sprunghaften Anstieg der sogenannten few-shoot prompting Genauigkeit.- Also nach einigen wenigen Lerndaten meistert das AI-System ähnliche Aufgabenstellungen. – Dieser Übergang entspricht einem Phasenübergang. – Ganz ähnlich zu der gesellschaftliche Resonanz für AI-System, die mit dem Erscheinen des einfach zu bedienenden chatGPT sprunghaft emergierte. 

Für die Beschreibung emergenten Systemverhaltens wurde in der Wissenschaftsgeschichte sehr oft der Nobelpreis vergeben: Es geht darum, diejenigen quantitativen Parameter ausfindig zu machen, die einen qualitativen Unterschied machen. Und dies ist meistens sehr schwierig, da man den Parametern nicht ansieht, ob sie in ihrer Zusammenstellung einen Unterschied machen. – Der qualitative Unterschied lässt sich also nicht auf die quantitativen Unterschiede in den Parametern reduzieren.

Jedoch wurde auch in der Geschichte der Wissenschaft aus dem Unverständnis der Emergenz eine unsinnige Spaltung in reduktionistische Wissenschaften und nicht-reduktionistische (holistische) Wissenschaften [9] vorgenommen. Hiernach wurde zum Beispiel die Physik als reduktionistische Wissenschaft angesehen, da angeblich alle System-Eigenschaften in der Physik auf die Eigenschaften der Agenten (z.B. Elementarteilchen, Atome) zurückgeführt werden, also reduziert werden.  Die Sozialwissenschaft mit der Soziologie à la Luhmann wurde zum Beispiel als holistische Wissenschaft wahrgenommen, da Luhmann, die Eigenschaften des sozialen Systems nicht auf die Menschen zurückführte, sondern dem System eine Eigenständigkeit zuerkannte.

Diese teilweise immer noch vorhandene naive Sicht des Gegensatzpaares Reduktionismus-Holismus wird durch das Auftauchen von GPT-4, aber auch schon durch die Erfahrungen mit chatGPT, kräftigst widerlegt: Die technischen Systeme chatGPT/GPT-3.x und chatGPTplus/GPT-4 zeigen mit ihrer Intelligenz eine für alle erfahrbare Emergenz. Diese AI-Systeme wurden auf der Basis bestimmter Daten-Parameter (u.a. Anzahl der Neuronen, Zeit des Trainings, Menge der Trainingsdaten) sowie bestimmten Architektur-Parameter (u.a. Transformer/Decoder und Attention-Mechanismus) mehr oder weniger gezielt kombiniert und es entstanden bei einer bestimmten Kombination dieser Parameter „wie durch ein Wunder“ emergente Intelligenz-Eigenschaften. – Es ist zu vermuten, dass bei Wegnahme z.B. der Attention-Eigenschaft, die emergente Eigenschaft der Intelligenz verschwindet, auch wenn die gigantische Skalierung bleibt.

Deswegen sind die emergenten AI-Eigenschaft jedoch nicht weniger wunderbar.

Dieses Beispiel belegt äußerst eindrucksvoll, dass die Natur, auch wenn sie in Form einer Technologie daherkommt, alle Ingredienzien für starke Emergenz enthält. – Wir ‚finden‘ diese Ingredienzien ‚lediglich‘.

Agent Based Modeling (ABM) spielt beim Auffinden dieser Eigenschaften eine prominente Rolle, auch wenn diese Rolle selbst in der Wissenschaft im Verhältnis zur Bedeutung nur wenigen bekannt sein dürfte. Unlängst hat das Santa Fe Institute neben Netlogo das ABM-Python-Framework MESA als Lecture aufgenommen [10]. Diese Lecture bildet mit moderner Technik das ABM des 25 Jahre alten Buches über ‚Growing Artificial Societies‘ von Epstein und Axtell nach [11]. Epstein und Axtell zeigen, wie man mit einfachen lokalen Agenten-Parametern die emergenten System-Eigenschaften von Gesellschaften erzeugen kann. – Der Überraschungseffekt ist nicht selten groß: So beeinflusst zum Beispiel die Fähigkeit des Sterbens oder der Reproduktion von Agenten ganz erheblich die emergenten Eigenschaften der ABM Ökonomie: Diese Modell-Eigenschaften sind nämlich notwendig, damit sich überhaupt sogenannte Nicht-Gleichgewichts-Handelsmärkte ausbilden können, die mit realen Märkten sehr gut übereinstimmen. – Das immer noch in der Gesellschaft vorherrschende neoklassische Verständnis der Gleichgewichts-Ökonomie kennt solche Zusammenhänge nicht.

In den folgenden Blogbeiträgen beschäftige ich mich mit der Suche nach den Parametern, die das emergente Teamverhalten Collective Mind hervorrufen. Im Management 4.0 gehen wir davon aus, dass die Parameter der Theorie der Selbstorganisation (Rahmen-Parameter, Kontroll-Parameter und Ordnungs-Parameter) die entscheidenden Parameter sind, die emergentes Teamverhalten hervorbringen. Wir kennen diese Parameter (vermutlich) auch schon, jedoch nicht in hinreichend formalisierter ABM Sprache. Die in vorhergehenden Blog-Beiträgen unter Verwendung von Natural Language Processing abgeleitete Similarity-Matrix des Collective Mind (Collective Mind Operator) ist lediglich ein phänomenologisches Modell (siehe Blog-Beitrag vom April und Juni 2022). – Der Collective Mind Operator kann in der Teampraxis sehr gut den Collective Mind messen, er sagt jedoch leider nichts darüber aus, wie der Collective Mind emergiert. Hierzu benötigen wir die formalisierten ABM-Parameter, die die Collective Mind Emergenz hervorbringen. – Die Suche nach diesen formalisierten Parametern ist kein Selbstzweck, denn die Wissenschaftsgeschichte hat gezeigt, dass die Kenntnis der formalisierten Parameter recht oft mit großen Erkenntnisgewinnen verbunden ist. – Die GPT-Geschichte ist der sichtbarste Beweis hierfür.

Der Übergang zur Python-Technologie mit MESA-Python eröffnet auch recht einfach die Möglichkeit intelligente Agenten auf der Basis von chatGPT anzubinden. Das werde ich nicht tun, jedoch hat die Entwicklung hierzu, wie in einem meiner letzten Blogs prognostiziert, schon begonnen. Die Stanford University hat zusammen mit Google eine auf dem Computerspiel ‚The Sims‘ basierendes ABM erstellt, in dem 25 Agenten ihre Intelligenz von chatGPT erhalten [12]. Die Agenten haben eine ‚Gehirn-Architektur‘ aus Langzeit- und Kurz-Zeitgedächnis, dessen kognitive Intelligenz von chatGPT kommt. Die Agenten verfügen zusätzlich über einen sogenannten ‚reflection tree‘, der der Ziel-Hierarchie bzw. der Dilts Pyramide von Management 4.0 sehr nahe kommt [13].- Die Ebenen Identität, Fähigkeiten und Verhalten sowie Kontext (Beobachtung) sind schon vorhanden. – Diese und weitere Ebenen können sicherlich noch ausgebaut werden.

Damit sind die Agenten in der Lage einen individuellen kognitiven PDCA-Zyklus durchzuführen, der ‚reflektiertes‘ Handeln erlaubt.

Es besteht auch die Möglichkeit, dass sich Menschen aktiv in dieses Handeln künstlicher Agenten einbringen können. Damit ist es zum Beispiel möglich hybride Universen aus AI und Menschen zu bilden.

Man stelle sich ein Anwendungsbeispiel von vielen vor: Ein Projektleiter soll ein Projekt durchführen. Er lässt das Projekt zum Test vorab in der künstlichen Welt durchführen und erhält so Hinweise auf seine Durchführbarkeit. –  Oder er lässt parallel zur realen Welt eine künstliche Welt mitlaufen, in die die Daten der realen Welt synchron eingespeist werden, um Forecasting zu betreiben.

In [12] wird berichtet, dass das Handeln der künstlichen Agenten von Menschen auf ‚Menschen-Ähnlichkeit‘ überprüft wurde. Das emergierende ‚believable behavior‘ der Agenten und des emergierenden sozialen Systems wird von den Evaluationspersonen, trotz einiger Fehler, als sehr hoch eingestuft.   

Das nächste Wunder geschieht schon!

    

[1] Future of Life Institute (2023) Pause giant AI Experiments, https://futureoflife.org/open-letter/pause-giant-ai-experiments/, zugegriffen am 22.04.2023

[2] Barkey S (2023) Kurz vor dem Durchbruch: „Gottgleiche“ KI könnte laut Experte Menschheit zerstörenhttps://www.berliner-zeitung.de/news/agi-kurz-vor-durchbruch-gottgleiche-ki-koennte-laut-experte-ian-hogarth-menschheit-zerstoeren-kuenstliche-allgemeine-intelligenz-li.339062, zugegriffen am 22.04.2023

[3] EU (2023) EU AI Act, https://artificialintelligenceact.eu/, zugegriffen am 22.04.2023

[4] Bubeck S et al. (2023) Sparks of Articial General Intelligence: Early experiments with GPT-4, arXiv:2303.12712v3 [cs.CL] 27 Mar 2023, zugegriffen am 22.04.2023

[5] Wikipedia (2023) Emergenz, https://de.wikipedia.org/wiki/Emergenz, zugegriffen am 25.04.2023

[6] Greve J, Schnabel A (Herausgeber) (2011) Emergenz: Zur Analyse und Erklärung komplexer Strukturen, suhrkamp taschenbuch wissenschaft

[7] Wi J et al. (2022) Emergent Abilities of Large Language Models, in Transactions on Machine Learning Research 08/2022, arXiv:2206.07682v2 [cs.CL] 26 Oct 2022

[8] DALL-E (2023) https://openai.com/product/dall-e-2, zugegriffen am 03.05.2023

[9] Wikipedia (2023) Reduktionismus, https://de.wikipedia.org/wiki/Reduktionismus, zugegriffen am 25.04.2023

[10] Complexity Explorer (2023) MESA-Python Lecture, https://www.complexityexplorer.org/courses/172-agent-based-models-with-python-an-introduction-to-mesa/segments/17326, Santa Fe Institute, zugegriffen am 30.04.2023

[11] Epstein J M, Axtell R (1996) Growing Artificial Societies – Social Science from the Bottom Up, The Brookings Institution, Washington D.C.

[12] Park J S et. al. (2023) Generative Agents: Interactive Simulacra of Human Behavior, arXiv:2304.03442v1 [cs.HC] 7 Apr 2023

[13] Oswald A, Müller W (2019) Management 4.0 – Handbook for Agile Practices, Release 3.0, Verlag BoD, kindle edition

Vom „Grundrecht auf eine analoge Existenz“ oder von der Digitalität

Vor Kurzem bin ich auf den Spiegelartikel „Wir brauchen das Grundrecht auf eine analoge Existenz“ von Alexander Grau gestoßen [1], [2]. Dieser Artikel hat diesem Blog-Beitrag einen Teil des Titels gegeben.

Alexander Grau geht von folgender Grundannahme aus: „Digitalisierung ist längst keine Technologie mehr, sondern eine Ideologie…. Die Digitalisierung ist der Fetisch unserer Zeit… Allenfalls von ein paar Datenschützern oder Entwicklungspsychologen sind hin und wieder kritische Töne zu hören.“

Ist das so?

Andererseits gibt es AutorInnen wie Andrea Gadeib, die zwar eine optimistische Zukunft auf der Basis der Digitalen Transformation haben, gleichzeitig titelt ihr Buch „Die Zukunft ist menschlich: Manifest für einen intelligenten Umgang mit dem digitalen Wandel in unserer Gesellschaft.“ Der Titel manifestiert ihre statistische Erhebung, wonach im Jahre 2018 80% der deutschen Bevölkerung Angst vor der (unmenschlichen) Digitalisierung haben.

Das Recht auf eine analog Existenz – wie darf man dies verstehen? Heißt dies, dass das Recht auf eine analoge Existenz im Grundgesetz festgeschrieben wird und dass im Jahre 2050 jeder noch das Recht hat, mit Bargeld zu bezahlen, oder dass die Steuererklärung auch dann noch per Papier abgegeben werden darf, oder dass die Deutsche Bahn auch dann noch Schalter zur Verfügung stellen muss, an denen der Verkauf eines Papiertickets möglich ist, …oder, dass wir dann noch Autos oder Waschmaschinen haben werden bzw. haben müssen, die keine Chips enthalten, …oder…oder…oder…

Die Digitalisierung kann sicherlich Angst machen: Wenn sie einen überfordert oder wenn man glaubt, dass sie einem die Arbeit wegnimmt und man verarmt. Oder wenn man glaubt, dass Künstliche Intelligenzen uns beherrschen werden, oder dass Roboter die menschliche Interaktion ersetzen …oder…oder…, oder dass KI uns eines Tages auslöschen wird.

Alexander Grau zitiert den Politologe Patrick J. Deneen „Wir seien, so der Wissenschaftler, »autonom und frei, und doch genau den Technologien unterworfen, die uns das Gefühl von Unabhängigkeit vermitteln«.“.

Genau diese Aussage kann ich sehr gut nachvollziehen.- Sie ist vielleicht eine neue Erkenntnis, die Basis, auf der sie beruht, ist jedoch keineswegs so neu.

Wir ‚entscheiden uns ständig‘, Facebock, Twitter, LinkedIn und wie sie alle heißen zu nutzen, Influencern oder auch besonders rührigen Kollegen zu folgen und entsprechende Like‘s einzugeben. – Wir verlassen uns auf die Kaufempfehlungen von Amazon und Co., die wir selbst erzeugen. – Wir like‘n die ideologischen Empfehlungen verschiedener Politiker und trage damit zu deren Popularität bei….

Oder wir machen es mal ganz anders: Wir reagieren einfach mal mehrere Stunden oder Tage auf keine eMail oder Whats App Nachricht. Wir like‘n nicht jede Nachricht, die uns angeboten wird, und lesen mal ein Buch, das zwar mehr Fokus erfordert, statt den Kurzinfos diverser Kollegen oder Politiker zu folgen.

Diese letzte Form von Freiheit hat viel mit Bildung und Kompetenz, insbesondere Digitaler Bildung, und einer entsprechenden selbstreflektierenden Kompetenz zu tun. – Diese selbstreflektierende Kompetenz, die ich schon des Öfteren als Metakompetenz bezeichnet habe, wird umso wichtiger, je komplexer unser Leben wird. Digitale Kompetenz ist der Schlüssel, damit wir unsere Freiheit in der Digitalität (Digitalität = Digitale Realität) wahrnehmen können.

Mehrere Schritte zurück in die rein analoge Welt auf der Basis eines Grundrechtes nach einer analogen Existenz macht keinen Sinn. Diese Forderung ist naiv und mutet mich sogar dumm an. Es zeigt meines Erachtens auch ein Fehlen von Metakompetenz an. So schreibt Alexander Grau:

„Natürlich griffen schon Dampfmaschine, Elektrizität oder Verbrennungsmotor massiv in die Gesellschaft, unsere Arbeitswelt und unser Wertesystem ein. …Aber sie manipulierten nicht unser Denken. Anders die digitalen Technologien. Sie steuern unsere Gedanken und entwerfen unsere Träume. … Diese Entwicklung unterminiert die Basis liberaler Demokratien. … Nur der Mensch, der die Möglichkeit hat, ein analoges Leben zu führen, ist im eigentlichen Sinne frei. …Diese Freiheit zu schützen wäre die wichtigste und dringlichste Aufgabe des Staates. Doch der Staat schützt sie nicht. Stattdessen opfert er sie lieber wirtschaftlichen und technologischen Interessen, die als Notwendigkeiten deklariert werden. …“

Wer sich mit Auto-Enthusiasten unterhält, wird schnell feststellen, wie das Auto mit oder ohne Verbrennungsmotor und seine emotionale Aufladung als Freiheitssymbol über Jahrzehnte unser Denken manipuliert hat. Oder wie möge man erklären, dass über Jahrzehnte Landschaften auf dieser Basis gestaltet wurden und gerade heute die sogenannten nachhaltigen E-Autos immer dicker und umweltschädlicher werden. Unser individuelles und gesellschaftliches Denken ist massiv und großflächig von dieser Technologie manipuliert. – Es wird nicht so gesehen, weil es längst zum allgemeinen Gedankengut geworden ist.

Die Degrowth Bewegung [4] steht für eine Abkehr von jeglicher Technologie, da die ständige Weiterentwicklung der Technologie die Basis eines Wachstums ist, das uns mehr schädigt als es uns nützt.

Technologie ist per se nicht gut oder böse oder ideologisch, wir sind es. Was wir benötigen, ist ein Umgang mit der Technologie, der unser individuelles und gesellschaftliches Handeln in seinen örtlichen und zeitlichen Konsequenzen mit einpreist. Und genau das haben wir meines Wissens bei keiner Technologie bisher getan, beim Auto nicht und bei der Digitalisierung bisher auch nicht.

Man möge sich die Frage stellen, was gewesen wäre, wenn ehemals zu Gutenbergs Zeiten gefordert worden wäre ‚Jeder hat das Recht sich Schrift und Buch zu entziehen, das ist eine Technologie, die in unsere Freiheit eingreift, weil sie uns die Gedanken anderer, die uns manipulieren, dauerhaft zum Nach-Denken gibt.‘

Vor ein paar Wochen wurde mir das Buch ‚Walden‘ von Henry David Thoreau geschenkt [5], [6], [7]. Thoreau beschreibt in diesem Buch aus dem Jahre 1854 (!) seinen zweijährigen Aufenthalt in einer Waldhütte in Nordamerika. Ein Buch voller Metakompetenz. Mahatma Gandhi und Martin Luther King sollen von ihm beeinflusst worden sein, sowie die Naturbewegung und die Degrowth Bewegung. Ich möchte nur ein Zitat hier anführen, das viel mit unserer digitalen Like-Kultur zu tun hat: „Macht einer nach dem Essen ein halbstündiges Schläfchen. So reckt er, kaum ist er erwacht, den Hals und fragt: „Was gibt’s Neues?“ – als hätten die anderen unterdessen für ihn Posten gestanden. Manch einer lässt sich zu diesem Zweck alle dreißig Minuten wecken und erzählt einem dann zum Entgelt, wovon er geträumt hat. Am Morgen sind ihm die Nachrichten so unentbehrlich wie das Frühstück…Für den Philosophen sind alle sogenannten Nachrichten nur Klatsch, und wer dergleichen druckt oder liest, ist eine Klatschbase. Dabei sind nicht wenige auf diesen Klatsch versessen.“

Für mich liest sich dies wie eine Vorwegnahme unserer Like-Kultur, es zeigt aber auch, dass dazugehörige Muster schon sehr lange existieren!

Wer möchte schon in einer zukünftigen Welt leben, in der, mit Hilfe unseres eigenen unreflektierten Handelns, Bedeutungszuweisungen durch Like‘s zu gigantischen Bedeutungsattraktoren in sozialen Medien werden, denen sich dann nur noch wenige entziehen können. Und hier hat Alexander Grau sicherlich recht: Wir sind auf dem besten Weg, dass wir unsere Unfreiheit in einem Maße global und dynamisch selbst erschaffen, wie es in der Zeit vor der Jahrtausendwende nicht möglich gewesen ist. – Einige wenige analoge Enthusiasten werden dies jedoch keinesfalls aufhalten, selbst wenn die analoge Existenz im Grundrecht verbrieft sein sollte.

Es gibt derzeit (noch) keine ganzheitliche Ethik, die u.a. der Digitalisierung Zügel anlegt. – Die Zügel einer ganzheitlichen vorausschauenden Ethik hätten wir in der Vergangenheit schon des Öftern benötigt, ob es die extensive, noch anhaltende Nutzung des Autos ist, die rein betriebswirtschaftliche Ausrichtung von Landwirtschaft und Tierhaltung, die nicht-nachhaltige Ausrichtung der Energiewirtschaft …oder …oder …

In Kombination mit den damit verbundenen heraufdämmernden Katastrophen kann die unreflektierte Digitalisierung wie ein Brandbeschleuniger wirken. So könnten Millionen oder Milliarden armer Menschen ihre Digitalität dazu verwenden, um sich zusammen zu tun, um sich gegen die reichen Nationen des Nordens zu wenden. Populisten könnten die Digitalität dazu verwenden, um rechte oder linke Ideologien oder Verschwörungsideologien als Bedeutungsattraktoren einzuführen.

Deshalb ist es um so wichtiger, dass man die Digitale Realität in ihren grundlegenden Mustern versteht.

Felix Stalder definiert Digitalität als „jenes Set von Relationen, das heute auf der Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie in der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird“ [8].

Diese Relationen erzeugen zusätzliche Verbindungen in unserem Leben, die „drei Formen des Ordnens“ hervorrufen, „die dieser Kultur ihren spezifischen, einheitlichen Charakter verleihen: Referentialität, Gemeinschaftlichkeit und Algorithmizität“ [9], [10], [11].

Referentialität bedeutet die Menge an Bedeutungszuweisungen, die wir mit unseren Klicks, Likes oder anderen Formen der Bedeutungszuweisungen Dingen, Meinungen, Nachrichten und Ähnlichem zuschreiben.

Gemeinschaftlichkeit bedeutet, dass diese Bedeutungszuweisungen in einer gemeinschaftlichen Formation erfolgt, d.h. in einer Gruppe, einem digitalen Mopp, einer wissenschaftlichen, politischen, modischen, oder anderen Interessensgruppe.

Algorithmizität bezeichnet jene Aspekte der kulturellen Prozesse, die von Maschinen (vor-) geordnet werden.

Aus meiner Sicht sind diese drei Dimensionen wichtig und vorhanden, sie treffen jedoch auch für eine Dorfgemeinschaft zu. – Man siehe die zitierte Aussage von Thoreau weiter oben. –  Auch dort schreiben Menschen u.a. über Smalltalk Dingen, Meinungen und Nachrichten Bedeutung zu. Auch dort bildet sich über eine gemeinschaftliche Formation eine gemeinschaftliche Ordnung heraus. In der Sprache von Komplexität und Selbstorganisation sind dies Attraktoren, Bedeutungsattraktoren, die sich auf einem Bedeutungsmarkt ausbilden. Selbst die Algorithmizität gibt es meines Erachtens schon recht lange.- Es sind dann vielleicht keine Maschinen im eigentlichen Sinne, jedoch folgt man Kafka, dann übernehmen Bürokratien die Rolle intransparenter Algorithmen.

Meines Erachtens gibt es lediglich einen entscheidenden Unterschied, die Skalierung, die den Bedeutungsmärkten in der Digitalität eine neue Qualität verleiht:

Die Bedeutungszuweisungen werden von einzelnen Menschen in digitalen Plattformen vorgenommen. Diese Plattformen sind „beliebig“ skalierbar, d.h. „unendlich“ viele Menschen können hier ihre Bedeutungszuweisungen vornehmen. D.h. es können über individuelle Referenzialität auf sehr dynamische Weise gigantisch große gemeinschaftlich Bedeutungszuweisungen entstehen. Diese gemeinschaftlichen Bedeutungszuweisungen erzeugen ihre eigne Sogwirkung, sie werden zu Bedeutungsattraktoren, sie entziehen uns unsere Freiheit. – Leider haben wir sie selbst erzeugt. Digitale Algorithmen können die Ausbildung von Bedeutungsattraktoren dämpfen, verstärken oder beschleunigen.   

Auf den skalierbaren Plattformen bilden sich unter Umständen viele Bedeutungsmärkte (Bedeutungsmarktplätze) aus: Diese Bedeutungsmärkte können sich auf materielle und immaterielle Objekte beziehen. Bedeutungsattraktoren können Moderichtungen sein, politische Meinungen, Ideologien, Verschwörungsideologien, Hasstiraden, aber (auch ideologisch verbrämte) wissenschaftliche Ansichten. Diese Bedeutungsmärkte überschneiden sich recht oft auch mit den wirtschaftlichen Märkten, nämlich dann, wenn zum Beispiel bei Amazon zu einem Produkt Bewertungen abgegeben werden und diese Bewertungen das Kaufverhalten beeinflussen.

Skalierbarkeit und Bedeutungsmärkte können enormen räumlichen und zeitlichen Dynamiken unterliegen: Die Zusammensetzung der Agenten (Personen, Algorithmen) kann sich dynamisch in Qualität und Quantität ändern, so dass in kurzer Zeit Bedeutungen auf oder abgebaut werden. Diese Formen des Ordnens können auch zu exponentiellem organisationalem Wachstumsformen führen. Amazon, google und Co. sind Ergebnisse dieser neuen Dynamiken.     

Skalierbarkeit und Bedeutungsmärkte zeigen dann ihr ganzes negatives Potential, wenn die Agenten (Menschen oder Algorithmen) intransparent und ohne digitale Metakompetenz wirken.

Deshalb benötigen wir, wie im Blog-Beitrag vom August 2022 angesprochen, eine ganzheitliche Ethik und eine Veränderung des Bildungssystems, das eine ganzheitliche Kultur der Digitalisierung vermittelt.

[1] Grau A (2022) Alexander Grau, http://alexandergrau.de/index.html, zugegriffen am 17.09.2022

[2] Grau A (2022) Wir brauchen das Grundrecht auf eine analoge Existenz, https://www.spiegel.de/netzwelt/web/totaldigitalisierung-wir-brauchen-das-grundrecht-auf-eine-analoge-existenz-a-8db3e557-144d-490f-8570-5c3980392a0b?context=issue&sara_ecid=soci_upd_KsBF0AFjflf0DZCxpPYDCQgO1dEMph, zugegriffen am 17.09.2022

[3] Gadeib A (2019) Die Zukunft ist menschlich: Manifest für einen intelligenten Umgang mit dem digitalen Wandel in unserer Gesellschaft (Dein Business), GABAL Verlag GmbH, Kindle Ausgabe

[4] Wikipedia (2022) Degrowth, https://en.wikipedia.org/wiki/Degrowth

[5] Thoreau H D (1847) Walden, Reclam Taschenbuch, Deutsche Übersetzung aus dem Jahre 1972

[6] Wikipedia (2022), Henry David Thoreau, https://de.wikipedia.org/wiki/Henry_David_Thoreau, zugegriffen am 18.09.2022

[7] Wikipedia (2022), Transzendentialismus, https://de.wikipedia.org/wiki/Transzendentalismus, zugegriffen am 18.09.2022

[8] Stalder F (2016) Kultur der Digitalität, edition suhrkamp, Kindle Ausgabe

[9] Stalder F (2022) Grundformen der Digitalität, https://agora42.de/grundformen-der-digitalitaet-felix-stalder/

[10] Wikipedia (2022), Digitalität, https://de.wikipedia.org/wiki/Digitalit%C3%A4t#:~:text=Digitalit%C3%A4t%20bezeichnet%20die%20auf%20digital%20codierten%20Medien%20und,Menschen%2C%20zwischen%20Menschen%20und%20Objekten%20und%20zwischen%20Objekten, zugegriffen am 17.09.2022

[11] Hauck-Thum U, Noller J (Herausgeber) Was ist Digitalität?: Philosophische und pädagogische Perspektiven, Verlag J.B. Metzler, Kindle Ausgabe

AI & M 4.0: Das nicht-teilbare Sein – Auf dem Weg zu einer ganzheitlichen Ethik?

Unsere Glaubenssätze haben uns fest im Griff:

„Autobahn ohne Tempolimit, ist Ausdruck unserer deutschen Freiheit.“, „Jedem Bürger seine Waffen, ist Ausdruck amerikanischer Freiheit.“, „Klimawandel ist das Hirngespinst der Grünen.“

oder

„Maschinen sind allenfalls kompliziert, aber nicht komplex. Wir sind komplex.“, „Die belebte Natur ist was ganz anderes als die unbelebte Natur“, „Wir Menschen haben Bewusstsein, sonst niemand und nichts.“ „Wir Menschen sind die Krönung der Schöpfung.“ „Management und Führung sowie AI schließen sich aus.“

Sehr oft sind diese Glaubenssätze mit unserer Fähigkeit verbunden, Kategorien zu bilden, wie komplex-nicht komplex, belebt-unbelebt, bewusst-unbewusst, wertvoll-weniger wertvoll, emotional-mechanisch.

Ich habe einen Glaubenssatz, es ist wieder nur ein Glaubenssatz 😉, der insbesondere diese letzten Glaubenssätze auflöst. – Ich glaube, dass unser Sein nicht-teilbar ist. Ich will versuchen, diesen Glaubenssatz zu erläutern, in dem ich die letzten oben genannten Glaubenssätze aus dieser Perspektive betrachte:

(Mechanische) Maschinen zeigen tatsächlich, unter normalen Bedingungen, lediglich einfaches oder kompliziertes Verhalten. – Sie sind gerade so konzipiert, dass sie kein komplexes Verhalten zeigen sollen. Jedoch nicht selten zeigen sie es, wenn sie unter „Stress“ geraten.- „Stress“ heißt in diesem Fall, die Maschinen geraten in den Grenzbereich ihrer Nutzung. Es gibt aber auch immer mehr Maschinen, also von uns Menschen hergestellte Systeme, wie z.B. den Laser oder die AI Systeme, die gerade auf Komplexität und der damit verbundenen Selbstorganisation beruhen. Der Glaubenssatz, dass nur lebende oder soziale Objekte komplex sind, ist unserer bisherigen Naivität und unserer Mensch-Zentrierung geschuldet.  

Nach der „Erschaffung“ der unbelebten Natur vor einigen Milliarden Jahren, gab es meines Erachtens keinen Eingriff eines Gottes oder Etwas Ähnliches, das der unbelebten Natur Leben einhauchte.- Und damit neue (uns noch weitgehend unbekannte) Prinzipien des Lebens explizit neu einbrachte. Vielmehr glaube ich, dass die unbelebte Natur alles enthält, um belebte Natur zu entwickeln.

Ähnlich glaube ich, dass die (uns ebenfalls noch unbekannten) Prinzipien, die zu Bewusstsein führen, schon in der unbelebten und belebten Natur vorhanden sind. – Und, dass wir Menschen lediglich ein Produkt der Entfaltung der fundamentalen Prinzipien des Seins sind.  Damit ist auch gleichzeitig gesagt, dass wir wahrscheinlich nicht das letzte Produkt dieser Entfaltung sind, sondern vielleicht lediglich ein Zwischenergebnis.

Die Kategorien-Bildung hilft uns, die Welt Stück für Stück besser zu verstehen und Stück für Stück auf fundamentalere Prinzipien zurückzuführen. – Leider bleiben wir oft an den Kategorien vergangener Erkenntnis kleben und weisen ihnen eigenständige fundamentale Prinzipien zu.

Vor kurzem ging durch die Presse, dass AI Entwickler behaupten, dass große AI Systeme Bewusstsein entwickelt haben oder zu mindestens „ein bisschen davon“.  – Andere tun dies wiederum als völligen Unsinn ab [1], [2]. Da wir bisher nicht wissen, was Bewusstsein ist, können wir auch nicht sagen, ob es schon AI Systeme mit Bewusstsein oder „ein bisschen Bewusstsein“ gibt. Entsprechend meinem obigen Glaubenssatz glaube ich jedoch, dass es irgendwann AI Systeme mit Bewusstsein geben wird, ob morgen oder erst in 1000 Jahren vermag ich nicht zu sagen. Da unser Sein ein nicht-teilbares Sein ist, glaube ich, dass es nur eine Frage der Zeit ist, bis von uns geschaffene Systeme mit Bewusstsein existieren werden. Der Deep-Learning-Pionier Yann LeCun hat auch schon wieder einen (altbekannten) Lösungsweg aufgetan: Bewusstsein benötigt eine System-Architektur, die unserer Gehirn-Architektur nachempfunden ist [3].

Schon heute erscheinen täglich neue Meldungen, zu den erstaunlichen Aussagen und Leistungen von AI Systemen. So betont beispielsweise eine Zeitschrift die Gefahren, die von AI Systemen ausgehen können, indem sie titelt „Künstliche Intelligenz droht im Gespräch „die Menschen auszuschalten““ [4]. In der sehr seriösen Zeitschrift Scientific American war unlängst von einer AI zu lesen, die einen wissenschaftlichen Artikel über sich selbst geschrieben hat.- Die Entwickler der AI haben diesen Artikel als wissenschaftlichen Artikel zum Peer-Review eingereicht [5].

Man stelle sich nur vor, die Entwicklung der AI würde ähnlich schnell und fundamental weiter gehen wie in den letzten 10 Jahren und in 10 Jahren hätten wir AI Systeme mit einer Allgemeinen Künstlichen Intelligenz, die zudem (erste) Anzeichen von Bewusstsein zeigen würde. Müssten wir dann unsere menschenzentrierte Ethik nicht völlig neu denken. Denn es kämen dann zwangsläufig Fragen auf wie „Ist es ethisch vertretbar, eine AI mit Bewusstsein bei Bedarf abzustellen?“, oder „Müssten wir solchen AI Systemen Rechte einräumen?“.

Wie in meinem Blog-Beitrag vom Februar 2022 dargelegt, ist die bisherige angedachte Ethik der EU zu AI Systemen eine human-centric perspective.

Der sogenannte EU AI Act basiert auf den europäischen Werten und soll insbesondere die Menschen vor Schaden schützen [6]:

“Aside from the many beneficial uses of artificial intelligence, that technology can also be misused and provide novel and powerful tools for manipulative, exploitative and social control practices. Such practices are particularly harmful and should be prohibited because they contradict Union values of respect for human dignity, freedom, equality, democracy and the rule of law and Union fundamental rights, including the right to non-discrimination, data protection and privacy and the rights of the child.

Ziel der EU ist es, AI Systeme zu erlauben, denen wir trauen können, also sogenannte Trustworthy AI. An dieser Forderung ist „fast“ nicht auszusetzen, wenn man davon absieht, dass die Natur und die Tiere lediglich in drei Sätzen eines ca. 100 Seiten starken Proposal Dokumentes auftauchen.

Warum ist mir eine ganzheitliche Sicht mit entsprechender Ethik so wichtig?  Um diese Frage zu beantworten, möge man sich nur Folgendes fragen: Welche Ethik und damit Rechtsverständnis macht(e) es möglich, dass über Jahrzehnte das millionenfache Töten von männlichen Küken durchgeführt wurde? Welche Ethik und damit Rechtsverständnis macht(e) es möglich, dass Bauern das Grundwasser durch Überdüngung belasten dürfen?

Heute ist aus diesen unethischen Gewohnheiten Gewohnheitsrecht geworden. Es basieren Geschäftsmodelle auf diesem Mangel an ganzheitlicher Ethik und es bedarf enormer Anstrengungen, dieses Gewohnheitsrecht durch ein ethisch fundiertes Recht abzulösen. Denn der Mangel an einer ganzheitlichen Ethik hat dazu geführt, dass wir uns immer wieder in verschiedene Dilemmata bringen: Z.B. stellt sich die Frage, ob es erlaubt ist, die Lebensgrundlage der Bauern zu gefährden, in dem wir das Grundwasser (nachträglich) schützen. Wäre es nicht sinnvoll gewesen, den Schutz des Grundwassers von vorneherein zu gewährleisten und den Bauern und der Gesellschaft die Möglichkeit zu geben, ganzheitliche ethische Geschäftsmodelle zu entwickeln.  

Die Diskussion zur AI Ethik [7] und die damit verbundenen Rechtsvorschläge, wie den EU AI Act, beruhen auf keiner ganzheitlichen Ethik: Die Rechte von Natur und Tieren sind nicht berücksichtigt und die ethischen Konsequenzen, die sich aus einer möglichen Entwicklung von AI Systemen in Richtung einer Allgemeinen Künstlichen Intelligenz ergeben, sind noch nicht einmal ansatzweise enthalten.     

Ich komme zur aktuellen Version des Proposals EU AI Act zurück und skizziere die schon heute absehbaren großen Anforderungen an das (Projekt) Management:

Als guten Einstieg in den EU AI Act [6] dient das sogenannte Briefing des European Parliamentary Research Service [8]: Der EU AI Act ist ein Risiko-basierter Ansatz, in dem AI-Systeme in vier Risikokategorien eingeteilt werden: „AI systems posing (i) unacceptable risk, (ii) high risk, (iii) limited risk, and (iv) low or minimal risk.“ Eine genaue Definition, wann welche Kategorie vorliegt, gibt es leider nicht, jedoch gibt es Beispiele, insbesondere zur Kategorie „unacceptable risk“ und „high risk“:

Unacceptable risk AI Systeme sind in der EU verboten, z.B. [6, 8]:

  • AI systems that deploy harmful manipulative ’subliminal techniques‘
  • AI systems that exploit specific vulnerable groups (physical or mental disability)
  • AI systems used by public authorities, or on their behalf, for social scoring purposes
  • ‚Real-time‘ remote biometric identification systems in publicly accessible spaces for law enforcement purposes, except in a limited number of cases

High-risk AI Systeme sind erlaubt, unterliegen jedoch sehr strengen Auflagen, z.B. [6,8]:

  • High-risk AI systems used as a safety component of a product or as a product falling under Union health and safety harmonisation legislation (e.g. toys, aviation, cars, medical devices, lifts)
  • High-risk AI systems deployed in eight specific areas identified in Annex III of the EU AI Act, which the Commission would be empowered to update as necessary by way of a delegated act
    • Biometric identification and categorisation of natural persons
    • Management and operation of critical infrastructure
    • Education and vocational training
    • Employment, worker management and access to self-employment
    • Access to and enjoyment of essential private services and public services and benefits
    • Law enforcement
    • Migration, asylum and border control management
    • Administration of justice and democratic processes

Die EU High-Level Expert Group on Artificial Intelligence hat den “Mangel” an Operationalisierbarkeit des EU AI Act erkannt und das Dokument „Ethics Guidelines for Trustworthy AI“ erstellt [9]. Spätestens beim Lesen dieses Dokumentes wird einem sehr schnell klar, dass der EU AI Act für Organisationen und insbesondere hier das Projekt-, Risiko- und Qualitätsmanagement weitreichende Konsequenzen haben wird. Die Transparenz-, Dokumentations- und Monitoring-Anforderungen während des gesamten (!) Lebenszyklus eines AI Systems (alleinstehend oder embedded) sind enorm. Ich verweise auf [9] und die darin enthaltene mehrseitige Checkliste.

Ich stelle die Frage, zu welcher Kategorie gehören die beiden Machbarkeitsprototypen, die ich in den letzten beiden Blog-Beiträgen vorgestellt habe? – Und gebe einen ersten Einblick in die in dem EU AI Act enthaltenen Anforderungen.

Gehe ich von den oben auf geführten Beispielen aus, so gehören meine Machbarkeitsprototypen in die high-risk Kategorie „Education and vocational training“ und in die Kategorie „worker management“. In [9] ist die Abbildung 1 enthalten, die die zentralen Anforderungen an eine Trustworthy AI enthält:

Ich skizziere anhand dieser Abbildung meine Einschätzung bezüglich der Vertrauenswürdigkeit der beiden Machbarkeitsprototypen:

Abbildung 1: The Guidelines as a framework for Trustworthy AI [9]

 

Collective Mind proxy auf der Basis der Similarity Matrix

Collective Mind Netzwerk auf der Basis eines Graphical Networks

Ethical Principles

 

 

Respect for human autonomy

Die menschliche Autonomie wird nicht aktiv eingeschränkt, Kritiker könnten jedoch einwenden, dass die Quantifizierung von Ähnlichkeit in den Aussagen zu einer passiven Autonomieverletzung führt.

Die menschliche Autonomie wird weder aktiv noch passiv in der aktuellen Version eingeschränkt. Es lassen sich jedoch Zuordnung von Begriffen und Personen vornehmen, so dass die Kritik der passiven Autonomieeinschränkung je nach Nutzung evtl. vorhanden ist.

Prevention of harm

Physischer Schaden kann nicht eintreten. Psychischer Schaden könnte eintreten, wenn die vorhandene oder nicht vorhandene Similarity von Vorgesetzten/Kollegen als Druckmittel eingesetzt wird.

Physischer Schaden kann nicht eintreten. Psychischer Schaden könnte eintreten, wenn eine Verbindung zwischen Person und graphischen Netzwerkknoten von Vorgesetzten/Kollegen mit amoralischer Absicht benutzt wird.

Fairness

Das AI System trifft keine unfairen Aussagen, jedoch könnte dies evtl. durch beteiligte Stakeholder, wie oben geschildert, erfolgen.

Das AI System trifft keine unfairen Aussagen, jedoch könnte dies evtl. durch beteiligte Stakeholder, wie oben geschildert, erfolgen.

Explicability

Die Verständlichkeit und Transparenz des Algorithmus ist (nahezu) vollständig gegeben, auch wenn man berücksichtigen sollte, dass diverse Fremd-Softwaremodule (u.a. word2vec, spaCy) verwendet werden.

Die Verständlichkeit und Transparenz des Algorithmus ist (nahezu) vollständig gegeben, auch wenn man berücksichtigen sollte, dass diverse Fremd-Softwaremodule (u.a. spaCy, Transformer Pipeline) verwendet werden.

7 Key Requirements

 

 

Human agency and oversight

Die Anwendung der AI liegt vollkommen in den Händen der Nutzer. Dies setzt voraus, dass die Ergebnisse der Anwendung nur den direkten Nutzern zugänglich gemacht werden.

Die Anwendung der AI liegt vollkommen in den Händen der Nutzer. Dies setzt voraus, dass die Ergebnisse der Anwendung nur den direkten Nutzern zugänglich gemacht werden.

Technical robustness and safety

Die Anwendung ist äußerst robust (u.a. gibt es kein AI Lernen während des Betriebs) und hat keine sicherheitsrelevanten Auswirkungen.

Die Anwendung ist äußerst robust (u.a. gibt es kein AI Lernen während des Betriebs) und hat keine sicherheitsrelevanten Auswirkungen.

Privacy and data governance

Es werden keinerlei persönliche Daten erhoben, wenngleich die Daten mittels weiterer Techniken oder manuell Personen zugeordnet werden können und damit prinzipiell auch eine indirekte Verletzung der Privatsphäre möglich ist. Um dies zu verhindern ist eine data governance in nutzenden Organisationen erforderlich.

Es werden keinerlei persönliche Daten erhoben, wenngleich die Daten mittels weiterer Techniken oder manuell Personen zugeordnet werden können und damit prinzipiell auch eine indirekte Verletzung der Privatsphäre möglich ist. Um dies zu verhindern ist eine data governance in nutzenden Organisationen erforderlich.

Transparency (Diese Schlüsselanforderung ist direkt eine Konsequenz des ethischen Prinzips Explicability.)

Wie in [10] dargelegt hängt die Transparenz von mehreren Faktoren ab: Erklärbare Algorithmen, Einsicht in den Trainingsdatensatz, Einsicht in die Datensatzauswahl, Erkennen von Mentalen Verzerrungen im ausgewählten Datensatz, Transparenz bzgl. der verwendeten Modellversionen.

Bzgl. word2vec, spaCy ist die Umsetzung dieser Anforderungen mit meinen Zugriffsrechten und meinem Kenntnisstand nicht möglich. Da das Ergebnis jedoch lediglich ein word-embedding darstellt, erscheint mir der potenzielle Missbrauch äußerst gering.

Wie in [10] dargelegt hängt die Transparenz von mehreren Faktoren ab: Erklärbare Algorithmen, Einsicht in den Trainingsdatensatz, Einsicht in die Datensatzauswahl, Erkennen von Mentalen Verzerrungen im ausgewählten Datensatz, Transparenz bzgl. der verwendeten Modellversionen.

Bzgl. Transformator Pipeline und spaCy ist die Umsetzung dieser Anforderungen mit meinen Zugriffsrechten und meinem Kenntnisstand nicht möglich. Da das Ergebnis jedoch lediglich einen Graph darstellt erscheint mir der potenzielle Missbrauch äußerst gering.

Diversity, non-discrimination and fairness

Das AI System nimmt keine wie auch immer geartete Diskriminierung vor: Jedoch könnte durch die entstandene Transparenz im Meinungsspektrum und einer entsprechenden Zuordnung zu Personen, Missbrauch möglich sein.

Das AI System nimmt keine wie auch immer geartete Diskriminierung vor: Jedoch könnte durch die entstandene Transparenz im Meinungsspektrum und einer entsprechenden Zuordnung zu Personen, Missbrauch möglich sein.

Societal and environmental wellbeing

Gesellschaft und Umwelt werden in keiner Form beeinflusst. Sollten solche oder ähnliche Systeme eingesetzt werden ist jedoch zu beachten, dass evtl. die Akzeptanz oder Nicht-Akzeptanz für AI-System steigt. Eine unreflektierte Nutzung ohne ein Minimum an technischer und ethischer Bildung erscheint nicht sinnvoll, da dies mit unbekannten Risiken verbunden sein kann. Man siehe auch die entsprechenden Anforderungen bzgl. Professionalisierung von Teams bzgl. AI und Ethik in [7].

Gesellschaft und Umwelt werden in keiner Form beeinflusst. Sollten solche oder ähnliche Systeme eingesetzt werden ist jedoch zu beachten, dass evtl. die Akzeptanz oder Nicht-Akzeptanz für AI-System steigt. Eine unreflektierte Nutzung ohne ein Minimum an technischer und ethischer Bildung erscheint nicht sinnvoll, da dies mit unbekannten Risiken verbunden sein kann. Man siehe auch die entsprechenden Anforderungen bzgl. Professionalisierung von Teams bzgl. AI und Ethik in [7].

Accountability

Der EU AI Act sieht die Rechenschaftspflicht sehr stark beim Hersteller der AI Systeme. Ich empfehle, dass daneben eine Rechenschaftspflicht der nutzenden Organisation tritt, denn so wie man ein Messer zum Aufschneiden eines Apfels oder alternativ zum Töten eines Menschen benutzen kann, kann man jedes AI System unethisch anwenden.

Der EU AI Act sieht die Rechenschaftspflicht sehr stark beim Hersteller der AI Systeme. Ich empfehle, dass daneben eine Rechenschaftspflicht der nutzenden Organisation tritt, denn so wie man ein Messer zum Aufschneiden eines Apfels oder zum Töten eines Menschen benutzen, kann man jedes AI System unethisch anwenden.

Zusammenfassend stelle ich fest, dass eine ganzheitliche Ethik u.a. im Lichte aktueller AI Entwicklungen notwendig ist, dass ein Mangel an ganzheitlicher Ethik hohe Risiken in sich birgt, und dass der EU AI Act nur ein erster Schritt in diese Richtung ist. Gleichwohl sind die Anforderungen an das Management schon mit der aktuellen Proposal Version des EU AI Act sehr groß.

[1] Stieler W (2022) Hat KI bereits eine Art Bewusstsein entwickelt? Forscher streiten darüber, https://www.heise.de/hintergrund/Hat-KI-bereits-eine-Art-Bewusstsein-entwickelt-Forscher-streiten-darueber-6522868.html , zugegriffen am 22.07.2022

[2] Eisenlauer M (2022) google Entwickler sicher – Künstliche Intelligenz hat eigenes Bewusstsein, https://www.bild.de/digital/computer/computer/hat-googles-kuenstliche-intelligenz-lamda-ein-bewusstsein-entwickelt-80393376.bild.html

[3] Dickson B (2022) Meta’s Yann LeCun on his Vision for human-level AI, TechTalks, https://bdtechtalks.com/2022/03/07/yann-lecun-ai-self-supervised-learning/, zugegriffen am 06.07.2022

[4] Mey S (2022) Künstliche Intelligenz droht im Gespräch „die Menschen auszuschalten“, DerStandard, https://www.derstandard.de/story/2000136591877/kuenstliche-intelligenz-droht-im-gespraech-die-menschen-auszuschalten?ref=rss , zugegriffen am 06.07.2022

[5] Thunström A O (2022) We Asked GPT-3 to Write an Academic Paper about Itself—Then We Tried to Get It Published, Scientific American, https://www.scientificamerican.com/article/we-asked-gpt-3-to-write-an-academic-paper-about-itself-then-we-tried-to-get-it-published/, zugegriffen am 06.07.2022

[6] EU AI Act (2022) https://artificialintelligenceact.eu/, Europe Administration, zugegriffen am 06.07.2022

[7] Blackman R (2022) Ethical Machines: Your concise guide to totally unbiased, transparent and respectful AI, Harvard Business Review Press, kindle edition

[8] European Parliamentary Research Service (2022) Briefing EU AI Act, https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792

[9] High-Level Expert Group on Artificial Intelligence (2022) ETHICS GUIDELINES FOR TRUSTWORTHY AI, https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html [10] Schmelzer R (2022) Towards a more transparent AI, Forbes, https://www.forbes.com/sites/cognitiveworld/2020/05/23/towards-a-more-transparent-ai/?sh=725c89d33d93

[10] Schmelzer R (2022) Towards a more transparent AI, Forbes, https://www.forbes.com/sites/cognitiveworld/2020/05/23/towards-a-more-transparent-ai/?sh=725c89d33d93

AI & M 4.0: Hybrid Collective Intelligence in Organisation und Gesellschaft

Dieser Blogbeitrag ergänzt meinen vorherigen Blogbeitrag, insbesondere die dort gelisteten Kernaussagen des Buches „The Age of AI: And Our Human Future“ des ehemaligen amerikanische Außenminister Kissinger sowie des ehemaligen google CEO Schmidt und des MIT Professor Huttenlocher [1].

Hybrid (Collective) Intelligence liegt vor, wenn unsere menschliche (kollektive) Intelligenz durch die (kollektive) Intelligenz von Artificial Intelligence ergänzt wird und sich damit eine Erweiterung der Wahrnehmung unserer Realität ergibt, so dass wir komplexe Fragestellungen beantworten können, die wir ohne AI nicht oder nur mit deutlich größerem Aufwand beantworten könnten. Diese Definition lehnt sich an diejenige in [2] an.

Hybrid (Collective) Intelligence führt insbesondere für das Projekt Management zu drei zentralen Veränderungen:

  • Der Innovationsprozess wird sich substanziell verändern, da ein oder mehrere AI Systeme den F&E Suchraum allein oder in Zusammenarbeit mit Menschen erheblich erweitern und verändern werden [3].
  • Das (Projekt) Management hat zu berücksichtigen, dass Aufgaben zwischen Mensch und AI, alleine oder zusammen, zu verteilen sind. – Entscheidungsprozesse werden sich in dieser Zusammensetzung erheblich verändern [4]. – Man siehe hierzu auch die Liste an AI/ML Erweiterungen im letzten Blog-Beitrag.
  • AI Systeme werden in nahezu alle Projektlösungen einfließen und damit wird AI zur Kernkompetenz in der Projektarbeit. Gleichzeit sind die Auswirkungen der AI Projektlösungen für die Stakeholder, die Gesellschaft und die Natur zu berücksichtigen.

Ich verwende als Definition von Intelligenz eine recht unübliche Definition, die meines Erachtens aber umso treffender ist. Diese Definition wurde wohl erstmals von Alex Wissner-Gross vorgeschlagen [5, 6]: “Intelligence is the ability to maximize future options in order to accomplish complex tasks.” – Diese Definition lässt sich u.a. in eine mathematische Gleichung übersetzen und ist universell auf alle Objekte (belebte, unbelebte, soziale) anwendbar. Im Kontext von AI bedeutet dies zum Beispiel, dass eine AI zur Natural Language Processing (NLP) nicht nur die trainierten Texte oder recht ähnliche in Frage-Antwort Situationen wiedererkennt, sondern die Flexibilität besitzt auch Fragen zu beantworten, die nicht genau den trainierten Fragen entsprechen. Neben der neuronalen Architektur des Neuronalen Netzwerkes wird dies vor allem durch die vielen Parameter-Freiheitsgrade erreicht. – Die Freiheitsgrade von State-of-The-Art AI NLP Systemen umfassen aktuell mehrere 100 Million Parameter.

Die Fähigkeit zukünftige Optionen zu maximieren, ist also die Fähigkeit Freiheit bzw. freies Handeln unter antizipierten zukünftigen Randbedingungen zu maximieren. Falls wir nicht wollen, dass die AI „ihre Freiheit“ (in Zukunft) auf Kosten unserer Freiheit maximiert, ist es notwendig, Randbedingungen für sie zu setzen. Dies bedeutet die Einführung einer Governance für Hybride (Collective) Intelligence (kurz HCI Governance), die zudem adaptiv, also in einem PDCA-Zyklus, in die Zukunft fortzuschreiben ist.
Die Einführung einer HCI Governance wird umso notwendiger, je mehr sich die AI von einer schwachen AI zu einer starken (und allgemeinen) AI oder Superintelligenz entwickelt [7, 8]. – Die genaue Verortung des aktuellen Intelligenzgrades der AI-Systeme und deren zukünftiger Entwicklung ist jedoch nicht wesentlich, denn wir wissen heute schon, dass eine HCI Governance Not tut, da neben den Segnungen der Realitätserweiterungen durch AI auch schon Freiheitseinschränkungen (u.a. Diskriminierungen, fake news, Beeinflussung von demokratischen Wahlen) durch AI aufgetreten sind.

Peeters et al. haben unlängst in ihrem sehr lesenswerten Artikel „Hybrid Collective Intelligence in a Human-AI Society“ drei verschiedene Basis-Haltungen zum Umgang mit AI identifiziert [9]:

  • Technology-centric perspective
  • Human-centric perspective
  • Collective-Intelligence perspective

Das Bemerkenswerte ihrer Analyse, die durch das niederländische Verteidigungsministerium gesponsort wurde, ist, dass sie für jede dieser Haltungen (im Artikel sprechen sie von „perspectives“) Glaubenssysteme und dazugehörige Kontexte identifiziert haben. – Also ganz im Sinne von Management 4.0.

Ich nenne hier, als Beispiel, nur jeweils einen Glaubenssatz pro Haltung:

  • Technology-centric perspective: “When sufficiently developed, AI technology can applied to solve any problem.”
  • Human-centric perspective: “Artificial intelligence only exhibits part of human cognition and is therefore insufficient for many real-world problems.”
  • Collective-intelligence perspective: “Intelligence should not be studied at the level of individual humans or AI-machines, but at the group level of humans and AI-machines working together.”

In [10] werden die EU-Haltung und die USA-Haltung miteinander verglichen: Die EU-(Administrations-)Haltung ist tendenziell eine human-centric perspective und die USA-Haltung ist tendenziell eine technology-centric perspective. – Hieraus erklären sich u.a. die diversen Bestrebungen der EU-Administration amerikanische AI-Konzerne wie google, meta/facebook, apple und amazon durch Gesetze und Strafen zu regulieren.  

Mit Hilfe dieser drei Basis-Haltungen bzw. -Perspektiven zur AI lässt sich auch die Grundhaltung in [1] beschreiben: Sie ist tendenziell eine human-centric perspective ergänzt um die technology-centric perspectice und die collective-intelligence perspective. Im Wissen um diese, aber insbesondere auch wegen der in den USA vorherrschenden technology-centric perspective, fordern die Autoren eine Regulation der AI, also die Einführung einer Governance für AI Systeme. Dies ist umso wichtiger, da auf der Basis der technology-centric perspective schon heute weltweit AI gestützte Waffensysteme entwickelt und genutzt werden.

Berühmte Vertreter der technology-centric perspective in den USA sind Peter Kurzweil [11] und die mit ihm verbundene Singularity University [12]. – Ein Kennzeichen dieser Haltung ist der Glaube, dass in absehbarer Zukunft, im Jahre 2045, die Fähigkeiten der AI diejenigen der Menschheit übersteigen werden.

In [9] wird betont, dass keine der obigen Basis-Haltungen richtiger oder besser ist, sondern dass der Kontext die Basis-Haltung bestimmen sollte. – Was leider nur selten geschieht. – In [13] wird die zentrale Bedeutung der Reflexion und der kritischen Auseinandersetzung mit dem sozialen Kontext, also den aktiven Werten, Glaubensätzen und Prinzipien für das Design, die Implementierung und die Operationalisierung von AI Systemen diskutiert. Falls die Metakompetenz für diese (Selbst-) Reflexion und kritische Auseinandersetzung nicht vorhanden ist, wird eine AI Ethik nicht angenommen und damit auch nicht verantwortungsvoll umgesetzt. In [14] habe ich die “Forderung” aufgestellt, dass Projekte mit hoher Komplexität, eine türkis/teal Kultur benötigen: “Ideally, this requires a mindset of all key stakeholders that also contains red, blue and orange value meme components (red means power orientation, blue means control and order orientation, and orange means entrepreneurship and linear-scientific-thinking orientation), but is mainly shaped by the transformational value meme components, namely green (compassion), yellow (nonlinear networked system thinking) and teal (holistic-transcendental orientation).” Alle Teammitglieder und insbesondere der Projektleiter sollten über die Metakompetenz verfügen, ihre eigenen Werte und Glaubenssätze im jeweiligen Kontext kritisch zu hinterfragen, um bewusst AI Systeme ethisch verantwortungsvoll zu designen, zu implementieren und zu operationalisieren.  

Meine persönlich präferierte Basis-Haltung ist die collective-intelligence perspective. Wenn ich AI Systeme erstelle liegt meine Haltung hingegen eher auf der technology-centric perspective und im Schreiben dieses Blog-Beitrages eher auf der human-centric perspective.    

Schaut man sich die Definitionen für AI der großen AI-Konzerne an, so lassen diese eine recht eindeutige AI-Haltung der jeweiligen Autoren erkennen:

IBM: “Artificial intelligence leverages computers and machines to mimic the problem-solving and decision-making capabilities of the human mind.” [15]: technology-centric perspective

Microsoft (deutsch): „Unter künstlicher Intelligenz (AI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“ [16]: collective-intelligence perspective

Microsoft (amerikanisch): “Artificial intelligence (AI) is the capability of a computer to imitate intelligent human behavior. Through AI, machines can analyze images, comprehend speech, interact in natural ways, and make predictions using data.” [17]: technology-centric perspective. – Die Microsoft AI Internetseite [18] „AI for Good“ zeigt hingegen eine eher human-centric oder collective-intelligence perspective.

Google CEO: “At its heart, AI is computer programming that learns and adapts. It can’t solve every problem, but its potential to improve our lives is profound. At Google, we use AI to make products more useful—from email that’s spam-free and easier to compose, to a digital assistant you can speak to naturally, to photos that pop the fun stuff out for you to enjoy.” [19]: collective-intelligence perspective

Die Internetseite von google [20] und diejenige von meta/facebook [21] lassen eine Mischung aus technology-centric- und collective-intelligence-perspective erkennen.

Die OECD hat im Jahre 2019 ihr Dokument „Artificial Intelligence in Society“ vorgelegt, und definiert dort ihre human-centric perspective, die sie auch so nennt [22]: Hiernach müssen AI Systeme u.a. Menschenwürde und -rechte sowie die Demokratie gewährleisten, indem sie u.a. transparent, nachvollziehbar, vertrauenswürdig, sicher und steuerbar sind und bleiben. – Eine gestaltende Auseinandersetzung mit dem sozio-technischen System Mensch-Künstliche Intelligenz, im Sinne des Designs einer Governance, findet jedoch nicht statt.

Eine ähnliche Aussage ergibt sich für Deutschland: In [23] werden unter dem Titel „The making of AI Society: AI futures frames in German political and media discourses” die sogenannten „AI future frames“ für Deutschland untersucht. – AI future frames sind mentale Rahmen, in denen die AI Zukunft gesetzt wird. Das Ergebnis ist eher ernüchternd: „By mirroring the past in the future, alternative future visions are excluded, and past and current assumptions, beliefs, and biases are maintained. Despite the allegedly disruptive potential of emerging AI.” Hiernach denkt die deutsche Politik die neoliberale Politik der letzten Jahrzehnte unter dem Label „AI Made in Germany“ oder AI German einfach fort: „successful innovation = welfare generating future = political stability“. Die Lippenbekenntnisse der deutschen politischen Administration bis zur Wahl 2021 sind human-centric; im Tun überlassen sie die AI Governance dem Markt und eine AI Ethik explizit den deutschen Industrieunternehmen. – Eine entsprechende politische Governance, die den zentralen Aussagen in [1] Rechnung trägt, gibt es nicht. – Eine Einbettung in eine europäische AI Strategie fehlt völlig!

Die EU Kommission hat letztes Jahr in [24] einen Vorschlag für ein Regulationspapier erstellt, das in erster Linie als harmonisierende Referenz für die EU Administration dienen soll: Ein seitenstarkes Papier mit vielen Details; ich vermisse mal wieder ein Großes Bild, das zu einem Collective Mind in der EU (Administration) führen könnte. 

Wie könnten die Eckpfeiler eines Großen Bildes einer AI bzw. HCI Governance aussehen? Hier ein Vorschlag:

Rahmenparameter:

Landesspezifische AI Governance Systeme sind in eine europäische AI Governance eingebettet. – Die Strukturen der AI Governance sind auf allen europäischen Ebenen ähnlich. – Die (europäische) AI Governance folgt in ihrer Struktur einer Ziel-Hierachie: Vom Großen Bild zum Detail. Der transformative Charakter der AI Governance ist in die Governance einer ökologisch-ökonomischen Transformation (u.a. Nachhaltigkeit für Natur, Tier und Mensch, hin zu einer an sozialer Gerechtigkeit und Gleichheit orientierten Ökonomie, die Wachstum nicht als Allheilmittel verkauft) eingebettet

Kontrollparameter:

Die Kontrollparameter orientieren sich an den zentralen Aussagen aus [1]: Eine europäische AI Ethik und Gesetzgebung sorgt für eine Regulation der AI Freiheiten. Die AI Ethik und Gesetzgebung wird von der Politik gestaltet. Z.B. heißt dies, dass der Wert AI Transparenz politisch definiert wird und gesetzlich verankert wird.- Dies könnte zum Beispiel heißen, dass AI Systeme in Europa vor staatlichen Organen nach Bedarf offengelegt werden müssen.

Da AI Systeme unsere Welt transformieren, ist es notwendig dafür zu sorgen, dass die Schere zwischen AI-Wissenden und AI-Nichtwissenden nicht zu einer Verschärfung von Ungleichheit führt. Ein entsprechendes Bildungskonzept ist notwendig: AI gehört als Pflichtfach in die Schulen und AI gehört in die Curricula aller universitären Disziplinen.

Ordnungsparameter:             

Als Großes Bild für den Ordnungsparameter schlage ich vor „European Ecosystem for Hybrid Collective Intelligence“. Die Ausgestaltung dieses Großen Bildes heißt u.a. dass neben einer gemeinsamen europäischen AI Governance eine gemeinsame AI Infrastruktur aufgebaut wird. – Es werden Mechanismen bereitgestellt, die das Silo-Denken und -Handeln von Industrie und politischen Administrationen auflösen. U.a. wird eine „AI für Jedermann“ aufgebaut und die die obigen drei Sichten human-centric, technology-centric und collective intelligence integriert: Die sozio-technische HCI Integration wird also bewusst europäisch gestaltet.  

 

[1] Kissinger H A, Schmidt E, Huttenlocher D (2021) The Age of AI: And Our Human Future, kindle edition
[2] Dominik Dellermann, Adrian Calma, Nikolaus Lipusch, Thorsten Weber, Sascha Weigel, Philipp Ebel (2021) The future of human-AI collaboration: a taxonomy of design knowledge for hybrid intelligence systems, arXiv.org > cs > arXiv:2105.03354
[3] Dragos‑Cristian Vasilescu, Michael Filzmoser (2021) Machine invention systems: a (r)evolution of the invention process?, Journal AI & Society, January 2021
[4] Phanish Puranam (2021) Human–AI collaborative decision‑making as an organization design Problem, Journal of Organization Design (2021) 10:75–80
[5] Alex Wissner-Gross (2022) A new equation for intelligence, https://www.youtube.com/watch?v=auT-pA5_O_A, march 2020, zugegriffen am 07.02.2022
[6] Ron Schmelzer (2022) https://www.forbes.com/sites/cognitiveworld/2020/02/27/cant-define-ai-try-defining-intelligence/?sh=6f658a955279, Forbes Blog February 2020, zugegriffen am 07.02.2022
[7] Bernard Marr (2022) The Key Definitions Of Artificial Intelligence (AI) That Explain Its Importance, Forbes Blog February 2018, https://www.forbes.com/sites/bernardmarr/2018/02/14/the-key-definitions-of-artificial-intelligence-ai-that-explain-its-importance/?sh=219cbb1f4f5d , zugegriffen am 07.01.2022
[8] Wikipedia (2022) Artificial Intelligence, https://en.wikipedia.org/wiki/Artificial_intelligence, zugegriffen am 07.02.2022
[9] Peeters M M M, van Diggelen J, van den Bosch K, Bronhorst A, Neerinex M A, Schraagen J M, Raaijmakers S (2021) Hybrid Collective Intelligence in a Human-AI Society, in AI & Society Journal, March 2021
[10] Roberts H, Cowls J, Hine E, Mazzi E, Tsamados A, Taddeo M, Floridi L (2021) Achieving a ‘Good AI Society’: Coparing the Aims and Progress of the EU and the US, SSRN Journal, January 2021
[11] Kurzweil R (2022) https://www.kurzweilai.net/, zugegriffen am 07.02.2022
[12] Singularity University (2022) https://www.su.org/ , zugegriffen am 07.02.2022
[13] Krijger J (2021) Enter the metrics: critical theory and organizational operationalization of AI ethics, Journal AI & Society, September 2021
[14] Oswald A (2022) The Whole – More than the Sum of Its Parts! Self-Organization – The Universal Principle! in Ding R, Wagner R, Bodea CN (editors) Research on Project, Programme and Portfolio Management – Projects as an Arena for Self-Organizing, Lecture Notes in Management and Industrial Engineering, Springer Nature
[15] IBM (2022) Artificial Intelligence, https://www.ibm.com/cloud/learn/what-is-artificial-intelligence, zugegriffen am 07.02.2022
[16] Microsoft (2022) Künstliche Intelligenz, https://news.microsoft.com/de-at/microsoft-erklart-was-ist-kunstliche-intelligenz-definition-funktionen-von-ki/, zugegriffen am 07.02.2022
[17] Microsoft (2022) Artificial Intelligence Architecture, https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/ai-overview, zugegriffen am 07.02.2022
[18] Microsoft (2022) AI for Good, https://www.microsoft.com/en-us/ai/ai-for-good, zugegriffen am 07.02.2022
[19] Sundar Pichai (2022) AI at Google: our principles, https://www.blog.google/technology/ai/ai-principles/, Blog of CEO google, june 2018, zugegriffen am 07.02.2022
[20] Google (2022) Google AI: Advancing AI for everyone, https://ai.google/, zugegriffen am 07.02.2022
[21] Meta AI (Facebook) (2022) Bringing the world closer together by advancing AI, https://ai.facebook.com/, zugegriffen am 07.02.2022
[22] OECD (2019) Artificial Intelligence in Society, Online Version, https://www.oecd-ilibrary.org/sites/eedfee77-en/index.html?itemId=/content/publication/eedfee77-en&_csp_=5c39a73676a331d76fa56f36ff0d4aca&itemIGO=oecd&itemContentType=book
[23] Köstler L, Ossewaarde R (2020) The making of AI Society: AI futures frames in German political and media discourses, in AI & Society Journal, February 2021, Springer Nature
[24] Europäische Kommission (2021) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52021PC0206, zugegriffen am 07.02.2022

Metabetrachtungen: Zur Schnittmenge von diesjährigem Physik-Nobelpreis, Künstlicher Intelligenz und Collective Mind

Dieses Jahr wurde der Physik-Nobelpreis unter dem gemeinsamen Label „For groundbreaking contributions to our understanding of complex physical systems.“ an die Physiker Klaus Hasselmann und Syukuro Manabe sowie Giorgio Parisi vergeben. Es ist meines Wissens das erste Mal, dass das Verstehen von komplexen physikalischen Systemen so explizit honoriert wurde. Alle drei Forscher haben den Einfluss von mikroskopischen Zuständen auf makroskopische Zustände untersucht. Bei Klaus Hasselmann ging es um die Auswirkung von (lokalen) Wetterphänomenen auf (globale) Klimaphänomene. Also dem zentralen Problem unserer Tage. Syukuro Manabe wurde für die erstmalige computergestützte globale Klima-Modellierung geehrt.

Giorgio Parisi hat den Nobelpreis für seine Untersuchung von Spingläsern, insbesondere für seinen „great leap  … to introduce a new order parameter“ erhalten [1]. Seine Arbeiten ziehe ich für meine Metabetrachtungen heran.

Spin Gläser sind u.a. Legierungen wie CuMn, wobei das nichtmagnetische Kupfer (Cu) magnetisches Mangan (Mn) mit ca. 13% enthält. Die magnetischen Momente (Spin‘s) der Manganatome sind zufällig, aber fest im Kupferkristall verteilt. Zwischen den Manganatomen können ferromagnetische und antiferromagnetische Wechselwirkungen auftreten. – Je nach Konfiguration der Manganatome müssen diese mit ihren Nachbar-Manganatomen sowohl eine ferromagnetische als auch eine antiferromagnetische Wechselwirkung „befriedigen“. Dies kann auch Atome „frustrieren“. – Spingläser, also Substanzen, die bezüglich des Spins, wie Glas, amorphe Konfigurationen aufweisen und Frustrationen ausbilden, zeichnen sich (oft) nicht mehr nur durch einen einfachen Ordnungsparameter, wie die makroskopische Magnetisierung aus. – Sondern sie bilden viele mikroskopische Zustände aus, die mit dem Einstellen bestimmter Parameter (Rahmen- und Kontrollparameter) zu vielen unterschiedlichen Phasen mit jeweils unterschiedlichen Ordnungsparameter-Ausprägungen führen. Diese Ordnungsparameter-Ausprägungen genügen jedoch einem einheitlichen mathematischen Muster. – Parisi hat dieses „new order parameter“ Muster eingeführt [2].

Ich will versuchen dieses Muster am Beispiel einer sozialen Gruppe, an einem Team, zu erläutern.- Für den ein oder anderen mag dies Physikalismus sein [3], also der Versuch Alles und Jedes mittels Physik zu erklären; für mich ist es das Denken in Modellen und Theorien; und Metabetrachtungen helfen das ein oder andere qualitativ und quantitativ viel besser zu verstehen: Im Management 4.0 modellieren wir zentrale menschliche Eigenschaften mit der sogenannten Dilts Pyramide. Die Dilts Pyramide integriert hierbei ca. 30 unsere Persönlichkeit bestimmende Eigenschaften (Vision, Mission, Zugehörigkeit, Temperament, Werte, Glaubenssätze, Grundannahmen und Prinzipien). Stellen wir uns für den Moment die Pyramide (sie ist ja ein Keil, eine Spitze) als eine Ausrichtung unserer Persönlichkeit vor. Bilden wir eine Gruppe aus Personen mit unterschiedlichen Dilts Pyramiden, so bildet die Gruppe nicht selten (am Anfang) eine „Diltsglas-Organisation“: Die Pyramiden zeigen alle in unterschiedliche Richtungen. Recht selten geschieht es, dass die Pyramiden eine gemeinsame Ausrichtung erfahren, das Team sich also einen Ordnungsparameter, den Collective Mind, erarbeitet. Sehr oft führt die Gruppendynamik in einem Projektteam zu unterschiedlichen Kommunikationskonfigurationen (Zuständen): Unterschiedliche Visionen, Werte oder Glaubenssätze tauchen auf, nicht selten bleiben diese nebeneinander bestehen, ohne dass dies für die Gruppenmitglieder wirklich transparent wird. Damit verbunden sind, wie wir wahrscheinlich alle wissen, auch Frustrationen. Die Kommunikationskonfigurationen sind jedoch nicht beliebig. Die verschiedenen konfigurationsspezifischen Ausrichtungen der Dilts Pyramide der einzelnen Gruppenmitglieder haben nichtverschwindende „Überlappe“, z.B. mögen bestimmte Werte oder Glaubenssätze in verschiedenen Konfigurationen auftauchen. – Sie wirken als „mikroskopische“ Ordnungsparameter, die die makroskopische (Un-) Ordnung bestimmen. Man könnte also einen neuen Ordnungsparameter einführen, der den „Überlapp“ bei allen Teammitglieder misst und aufsummiert. – Damit hat man auch ein Maß für die „Diltsglas-Organisation“ des Teams. – Dieses Vorgehen entspricht dem von Parisi eingeführten neuen Ordnungsparameter für Spingläser. – Der Ordnungsparameter der „Diltsglas-Organisation“ ist damit auch ein Maß für die „Abweichung“ von einem einfachen Ordnungsparameter, dem Collective Mind, bei dem alle Dilts Pyramiden im Rahmen der Teamaktivitäten in eine Richtung zeigen.

Man kann die Analogie noch erweitern: Physikalische Spingläser können durch äußere magnetische Felder in der Ausbildung des Parisi-Ordnungsparameters beeinflusst werden. Auch „Diltsglas-Organisationen“ zeigen ein ähnliches Verhalten, wenn eine (äußere) Beeinflussung einsetzt: Führungskräfte oder Coaches wirken auf die Dilts Pyramiden des Teams ein. – Bei kleinen Einflussnahmen bleibt das „Diltsglas“ erhalten, steigt die Einflussnahme entsteht eine Ausrichtung, die aussieht wie ein Collective Mind. In den meisten Fällen dürfte die Ausrichtung jedoch wieder verschwinden, wenn die Einflussnahme zurückgeht, falls sich bis dahin keine intrinsische Veränderung im Team ausgebildet hat.  

Alles schön und gut, könnte man sagen: Warum macht es Sinn sich mit solchen Metabetrachtungen zu beschäftigen. In der Schrift des Nobel-Komitees [1] wird die Antwort gegeben. Die Modelle zur Erklärung von Spin-Gläsern haben heute sehr viele unterschiedliche Bereich erheblich befruchtet: Verschiedene Gebiete der Physik, der Biologie, der Chemie, der Neurowissenschaften und der Künstlichen Intelligenz. Für die Verbindung von Neurowissenschaften und Systemen Künstlicher Intelligenz wird explizit die Arbeit von John J. Hopfield in [1] genannt. Neuronale Netzwerke können auch als Spinglas Systeme verstanden werden, wenn man die magnetischen Momente durch Neuronen ersetzt. Die Wechselwirkungsparameter zwischen den Spins entsprechen den Gewichten zwischen den Ausgängen einer Neuronen Schicht und den Eingängen der nächsten Neuronen Schicht. Angelegte magnetische Felder entsprechen den Bias-Einstellungen der Neuronen. – Und wie oben geschildert, kann man die Grundprinzipien auch auf soziale Gruppen übertragen.

Die GPM Fachgruppe Agile Management beschäftigt sich seit einem Jahr mit der Nutzung von KI-Systemen im Management 4.0. Insbesondere habe ich mir hierzu zwei Themen ausgesucht:

  • Die Nutzung eines Neuronalen Netzwerkes für die Ermittlung von Persönlichkeitsmerkmalen aus beobachteten Verhaltensweisen.
  • Die Ermittlung des Grades der „Diltsglas-Organisation“ (wie oben geschildert) und des Collective Minds eines Teams aus auditiven Gesprächsprotokollen.

Den technologischen Durchstich für die erste Aufgabe konnte ich inzwischen erfolgreich abschließen. Ich bin also optimistisch, dass ich meine nächsten Blogbeiträge der Ausgestaltung dieser beiden Themen widmen werde. 

           

[1] The Nobel Committee for Physics (2021) For groundbreaking contributions to our understanding of complex physical systems, Scientific background on the Nobel Prize in Physics 2021.

[2] Parisi G (2008) The physical Meaning of Replica Symmetry Breaking, arXiv

[3] Wikipedia (2021) Physikalismus, https://de.wikipedia.org/wiki/Physikalismus_(Ontologie), zugegriffen am 29.10.2021

[4] Hopfield J.J. (1982) Neural networks and physical systems with emergent collective computational abilities, Proc. Nat. Acad. Sci. USA, Vol. 79 Biophysics

Metabetrachtungen: Zur Schnittmenge von Intuitivem Bogenschießen, Künstlicher Intelligenz und Management 4.0

Ende letzten Jahres habe ich einen WDR-Fernseh-Beitrag zur Bogenwerkstatt gesehen [1]. Dieser Beitrag hat meine verschüttete Kindheitsleidenschaft zum Bogenschießen wieder offengelegt. Seither übe ich mich mit großer Freude im sogenannten Intuitiven Bogenschießen [2]. Beim Intuitiven Bogenschießen bringt allein das „Körpergefühl und die Erfahrung des Schützen den Pfeil ins Ziel – rein intuitiv ohne Zieltechnik“. Intuitives Bogenschießen hat eine recht große Nähe zum japanischen Zen-Bogenschießen. – Das Buch des Philosophen Eugen Herrigel, der nach sechs! Jahren harten Übens (genüsslich zu lesen) seine Zen Bogenschieß-Prüfung ablegte gibt u.a. einen wunderbaren Eindruck von der Aussage „rein intuitiv ohne Zieltechnik“. – Die Fähigkeit sich an unterschiedliche Kontexte anzupassen, wird insbesondere beim 3D-Parcours Schießen im Gelände besonders herausgefordert.

Intuitives Bogenschießen wird auch als therapeutisches Bogenschießen in Kliniken eingesetzt. – Fokus, Adaption und Intuition sind zentrale Elemente des Intuitiven Bogenschießens. – Die begriffliche Nähe zum Management 4.0 ist offensichtlich. Ich werde später aufzeigen, dass auch eine Schnittmenge zur Künstlichen Intelligenz mittels Deep Learning gegeben ist.

Vor kurzem hatte ich die Gelegenheit und das Glück an einem dreitägigen Kurs zum Thema Deep Learning mittels Tensorflow teilzunehmen [4]. Tensorflow ist die von google u.a. über colab.research.google.com zur Verfügung gestellte Plattform für das Erstellen von Deep Learning Systemen der Künstlichen Intelligenz. – Das Eintauchen in diese und weitere Plattformen des Machine Learnings (ML) ist überwältigend: Es ist kein Programmieren mehr im mir bisher bekannten Sinne, sondern entspricht eher dem Design und Konfigurieren von Systemen auf sehr hohem Abstraktionsniveau. – Den erreichten (globalen) Fortschritt im ML konnte ich mir bisher in dieser nahezu „unendlichen Fülle“ nicht vorstellen. Deep Learning ist eine Form von technischer Selbstorganisation – das Design und die Konfiguration dienen der Ausgestaltung der Selbstorganisationsparameter des neuronalen Netzwerkes; und damit ist der Bezug zu Management 4.0 schon erkennbar.          

Vor einem Jahr haben wir in der Fachgruppe Agile Management eine Arbeitsgruppe ins Leben gerufen, die sich mit der Anwendung von Künstlicher Intelligenz im Projekt Management beschäftigt: Helge Nuhn hat kürzlich einen Übersichtsartikel zu Stand und Potential der Nutzung von Artificial Intelligence Systemen (AI Systemen) in temporären Organisationen und im Projekt Management erstellt [5].

In allen drei Bereichen – Intuitivem Bogenschießen, Künstlicher Intelligenz und Management 4.0 – ist Lernen das Schlüsselelement, um das System Mensch, das technische System Neuronales Netzwerk und das soziale System Team oder Organisation auf das Umfeld, also auf den jeweiligen Kontext, auszurichten.

In dem Standardwerk zu Machine Learning (ML) von Aurélien Géron charakterisiert er maschinelle Lernverfahren u.a. durch die Gegenüberstellung von Instanzbasiertem Lernen und Modellbasiertem Lernen: Instanzbasiertes Lernen ist dem Auswendiglernen sehr nahe. – Die Maschine lernt vordefinierte Objekt-Beispiele (Instanzen) einfach auswendig und wendet ein sogenanntes Ähnlichkeitsmaß zum Identifizieren von neuen Objekten (Instanzen) an. Ist die Ähnlichkeit hoch genug werden die neuen Objekte maschinell den vordefinierten Klassen zugeordnet. Instanzen können spezifische Kunden, Äpfel, eMails usw. sein. Das Ähnlichkeitsmaß wird über Regeln definiert und wird im „klassischen“ Sinne programmiert. – Die Regeln stellen eine äußerst einfache Form eines von außen (durch den Programmierer) vorgegebenen Modells dar. Das eigentliche Modellbasierte Lernen funktioniert jedoch völlig anders: Einem System werden Beispieldaten übergeben und das System entwickelt hieraus ein Modell und dieses Modell wird zur Vorhersage verwendet. Das Modellbasierte Lernen ist also dem wissenschaftlichen Vorgehen bei der Entwicklung von Erkenntnissen nicht unähnlich. Deep Learning lässt sich nach dem mehr oder weniger an Selbständigkeit beim AI-Lernen unterscheiden: Supervised Learning, Unsupervised Learning und Reinforcement Learning.

Zwischen Instanzbasiertem Lernen und Modellbasiertem Lernen liegt ein fundamentaler Unterschied. – Dies wird in dem Moment offensichtlich, wenn ich die Verbindung zum Management 4.0 und dem Lernen im einfachen oder komplizierten Kontext und dem Lernen im komplexen Kontext ziehe. Das Instanzbasierte Lernen ist das Lernen an Best Practice, also an Beispiel-Objekten wie einem Beispiel-Projekt oder an einem Beispiel-Verfahren. Das Ähnlichkeitsmaß ist in diesem Fall die Nähe zur eigenen Praxis: Der Lernende sucht nach einem Projekt, das möglichst zu seiner bisherigen Praxis passt. Dies kann heißen, dass Beispiele aus anderen Branchen nicht akzeptiert werden, dass nur dann das Beispiel passt, wenn der Lernende davon ausgeht, dass im Best Practice ein ähnliches Mindset vorliegt oder dass der WIP (Work-in-Progress) wie in der eigenen Organisation ähnlich groß ist, usw…. In jedem Fall wird der Projektkontext des Best Practices nur ungenügend abgebildet, es findet keine oder eine nur sehr geringe Abstraktionsleistung statt und die Übertragbarkeit ist deshalb mehr als fraglich.

Lernen im Management 4.0 ist Modellbasiertes Lernen. Instanzen sind nicht die Basis des Lernens, allenfalls um zu zeigen, dass man mit dem Modell sehr gut Probleme (Instanzen) lösen kann, die man vorher noch nie gesehen hat. – Falls das Modell jedoch nicht erfasst wird, erzeugt dies bei einem an Instanzbasiertes Lernen gewöhnten Menschen keine Erkenntnis: Da das Modell sich nicht erschließt, erschließt sich auch nicht die Lösung; Modell und Lösung sind unpraktisch.         

Mit dieser Erkenntnis sehr eng verbunden ist das sogenannte „Overfitting“ im ML: Man kann ein Neuronales Netz extrem gut mit einem gewaltig großen Datensatz (zum Beispiel Tier-Bildern) trainieren. – Die ermittelte Trefferrate ist fantastisch, so lange Bilder aus dem Trainingsdatensatz verwendet werden. – Trotzdem versagt das Netz bei einem bisher unbekannten Bild die Hundeart Spitz zu erkennen, und verortet den Spitz als Tyrannosaurus Rex. Der Kontext in dem der Spitz gezeigt wurde, war anders als bei den Trainingsdaten: Das AI-System konnte aufgrund der geringen Datenvariabiltät kein hinreichend abstraktes Modell ausbilden, um den Spitz in einem andersartigen Kontext zu erkennen. – Das Modell war sozusagen im Instanzbasierten Lernen hängen geblieben.

Beim Bogenschießen machte ich eine ähnliche Erfahrung im Selbsttraining: Ich stellte mich mit sehr vielen Schüssen (und ich meine hunderte, wenn nicht tausende Schüsse) auf einen bestimmten Kontext ein und die Trefferrate war sehr gut! – Eugen Herrigel beschreibt in seinem Buch wie er 4 Jahre aus einem Meter Distanz zum Ziel die Rituale des Zen-Bogenschießens einübt, um dann ad hoc mit einer 60 Meter Distanz konfrontiert zu werden, an der er über Monate kläglich scheiterte.

Bogenschießen unterliegt vielen, wahrscheinlich einigen hundert Parametern: Einer der offensichtlichen Kontext-Parameter ist die Entfernung zum Ziel. Änderte ich in der Anfangszeit die Entfernung ging meine Trefferrate deutlich runter. Ich hatte meine Intuition, mein Gehirn (d.h. mein neuronales Netzwerk), mittels Instanzbasiertem Lernen trainiert. Mit der Hinzunahme weiterer Entfernungen im 3D-Parcours wurde meine Trefferrate immer schlechter, um nicht zu sagen chaotischer. Mein Gehirn hat es aufgrund der vielen Parameter nicht geschafft, von allein eine Intuition, also ein mentales Modell, auszubilden, das mir zu einer besseren Trefferrate verhilft. Bei künstlichen Neuronalen Netzwerken hat man eine ähnliche Beobachtung gemacht: AI-Systeme können ebenfalls „Frustration“ ausbilden, sei es, dass sie in einem System-Zustand verharren oder „chaotische“ Reaktionen zeigen.  

Die Trefferrate wurde erst wieder deutlich besser als ich meiner Intuition auf die Sprünge half. Ich dachte mir ein einfaches Modell aus: Dieses Modell beruht auf der Erkenntnis, dass der Pfeilflug eine Wurfparabel beschreibt. Man spricht auch von ballistischem Schießen. Ist die Distanz gering (ca. 20 m) merkt man vielfach nichts von dieser Wurfparabel. – Vielfach bedeutet, dass die anderen Parameter, wie zum Beispiel Pfeilgewicht, Bogenstärke, usw. dies ermöglichen. Im Falle meines Bogens und meiner Pfeile wird die Wurfparabel ab 20 m immer stärker sichtbar. Das Modell lautet aktuell: Richte den Pfeil in einer geraden Linie auf das Ziel aus, auch wenn es 30 oder 40 Meter entfernt ist, schätze die Entfernung und hebe den Bogen in Abhängigkeit von der Entfernung leicht an. Leicht anheben bedeutet maximal 1-2 Winkelgrad. – Ein Winkelgrad kann durchaus im Ziel eine Abweichung von 50 cm oder mehr hervorrufen. – Also eine ziemliche Anforderung an Intuition und Motorik. Seit ich mit diesem Modell (das noch etwas umfangreicher ist, und weitere Parameter wie zum Beispiel das Pfeilgewicht berücksichtigt) schieße, hat sich die Trefferrate wieder deutlich verbessert und meine Adaptionsfähigkeit ist wesentlich gestiegen.      

Der Neurobiologe Henning Beck beschreibt in [7] wie unser Hang zur Ordnung im Lernen, also zum Instanzbasierten Block-Lernen uns „behindert“:

„Stellen Sie sich vor, Sie sind Lehrer an einer Kunstschule und wollen Ihren Kursteilnehmern den typischen Malstil von van Gogh, Monet und Cezanne vermitteln, wie gehen Sie vor? Oder umgedreht gefragt: Sie sollen für eine Prüfung lernen, was das Typische an den Bildern der drei Künstler ist, was würden Sie tun? Würden Sie sich Bilder der Maler anschauen? Ins Museum gehen, die Bilder vielleicht sogar nachmalen? …

…Eine Gruppe lernte genau nach obiger Blockabfertigung: Zunächst sah man sich eine Reihe von Bildern des ersten Künstlers an, machte dann eine kurze Pause, bevor die Bilder des Künstlers Nummer zwei folgten. Bei der anderen Gruppe machte man etwas anderes: Man zeigte die Bilder aller Künstler durcheinandergemischt, machte dann eine Pause und zeigte anschließend eine neue Runde durchmischter Bilder. Was für ein heilloses Durcheinander! So verliert man doch total den Überblick! …

…Das Ergebnis der Studie war jedoch erstaunlich: Ging es in dem anschließenden Test darum, ein zuvor gezeigtes Bild zu erkennen, dann schnitt die erste Gruppe, die blockweise gelernt hatte, besser ab. Ging es jedoch darum, ein neues, zuvor nicht gezeigtes Bild korrekt zuzuordnen, dann war Gruppe zwei mit den durchmischten Bildern besser. Denn diese Gruppe hatte die Bilder nicht nur auswendig gelernt, sondern auch das Typische der Malstile verstanden…

…Im obigen Malstilexperiment gaben drei Viertel der Teilnehmer an, das blockweise Lernen führe zu einem besseren Verständnis der Malstile – selbst nachdem man den finalen Test gemacht hatte, war die Mehrheit überzeugt, weiterhin blockweise lernen zu wollen.“

Ich habe Henning Beck hier so ausführlich zitiert, weil ich das „…Durchmischen von Lerninhalten, …das „Interleaving“…“ seit vielen Jahren in meinen Management 4.0 Trainings anwende und auch dort die Erfahrung mache, dass 50-75% der Teilnehmer das Block-Lernen bevorzugen. – Wie oben geschildert, geht blockweises Lernen mit dem Unvermögen einher, mentale Modelle zu erstellen, die sich auf neue Kontexte adaptiv einstellen. – Dies ist eine zentrale Fähigkeit um Komplexität zu meistern, also dem Handeln unter Unsicherheit und Unüberschaubarkeit.   

Meine Erfahrungen, sei es im Selbst-Training beim Bogenschießen, beim Erstellen von AI-Systemen oder in meinen Management 4.0 Trainings, zeigen, dass die Schnittmenge in diesen drei vordergründig disjunkten Bereichen keineswegs Null ist. – Die hier skizzierten Metabetrachtungen helfen, Einzel-Disziplinen besser zu verstehen, vernetzte Erkenntnisse zu gewinnen und Meta-Lernen anzuregen.

 

[1] Hörnchen D (2021) Die Bogenwerkstatt, https://www.die-bogenwerkstatt.de/, zugegriffen am 15.09.2021

[2] Wikipedia (2021) Traditionelles Bogenschießen, https://de.wikipedia.org/wiki/Traditionelles_Bogenschie%C3%9Fen, zugegriffen am 15.09.2021

[3] Herrigel E. (2010) Zen in der Kunst des Bogenschießens

[4] Zeigermann O (2021) Introduction Deep Learning to Deep Learning with Tensorflow 2, zeigermann.eu, embarc.de/oliver-zeigermann, ein Training der oose.de

[5] Nuhn H (2021) Organizing for temporality and supporting AI systems – a framework for applied AI and organization research, Lecture Notes in Informatics, GI e.V

[6] Géron A (2020) Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und Tesnorflow, O’Reilly, 2. Auflage

[7] Beck H (2021) Die Crux mit der Ordnung, in managerSeminare 276, März 2021, https://www.managerseminare.de/ms_Artikel/Schlauer-lernen-Die-Crux-mit-der-Ordnung,281117, zugegriffen am 15.09.2021