AI & M 4.0: Das nicht-teilbare Sein – Auf dem Weg zu einer ganzheitlichen Ethik?

Unsere Glaubenssätze haben uns fest im Griff:

„Autobahn ohne Tempolimit, ist Ausdruck unserer deutschen Freiheit.“, „Jedem Bürger seine Waffen, ist Ausdruck amerikanischer Freiheit.“, „Klimawandel ist das Hirngespinst der Grünen.“

oder

„Maschinen sind allenfalls kompliziert, aber nicht komplex. Wir sind komplex.“, „Die belebte Natur ist was ganz anderes als die unbelebte Natur“, „Wir Menschen haben Bewusstsein, sonst niemand und nichts.“ „Wir Menschen sind die Krönung der Schöpfung.“ „Management und Führung sowie AI schließen sich aus.“

Sehr oft sind diese Glaubenssätze mit unserer Fähigkeit verbunden, Kategorien zu bilden, wie komplex-nicht komplex, belebt-unbelebt, bewusst-unbewusst, wertvoll-weniger wertvoll, emotional-mechanisch.

Ich habe einen Glaubenssatz, es ist wieder nur ein Glaubenssatz 😉, der insbesondere diese letzten Glaubenssätze auflöst. – Ich glaube, dass unser Sein nicht-teilbar ist. Ich will versuchen, diesen Glaubenssatz zu erläutern, in dem ich die letzten oben genannten Glaubenssätze aus dieser Perspektive betrachte:

(Mechanische) Maschinen zeigen tatsächlich, unter normalen Bedingungen, lediglich einfaches oder kompliziertes Verhalten. – Sie sind gerade so konzipiert, dass sie kein komplexes Verhalten zeigen sollen. Jedoch nicht selten zeigen sie es, wenn sie unter „Stress“ geraten.- „Stress“ heißt in diesem Fall, die Maschinen geraten in den Grenzbereich ihrer Nutzung. Es gibt aber auch immer mehr Maschinen, also von uns Menschen hergestellte Systeme, wie z.B. den Laser oder die AI Systeme, die gerade auf Komplexität und der damit verbundenen Selbstorganisation beruhen. Der Glaubenssatz, dass nur lebende oder soziale Objekte komplex sind, ist unserer bisherigen Naivität und unserer Mensch-Zentrierung geschuldet.  

Nach der „Erschaffung“ der unbelebten Natur vor einigen Milliarden Jahren, gab es meines Erachtens keinen Eingriff eines Gottes oder Etwas Ähnliches, das der unbelebten Natur Leben einhauchte.- Und damit neue (uns noch weitgehend unbekannte) Prinzipien des Lebens explizit neu einbrachte. Vielmehr glaube ich, dass die unbelebte Natur alles enthält, um belebte Natur zu entwickeln.

Ähnlich glaube ich, dass die (uns ebenfalls noch unbekannten) Prinzipien, die zu Bewusstsein führen, schon in der unbelebten und belebten Natur vorhanden sind. – Und, dass wir Menschen lediglich ein Produkt der Entfaltung der fundamentalen Prinzipien des Seins sind.  Damit ist auch gleichzeitig gesagt, dass wir wahrscheinlich nicht das letzte Produkt dieser Entfaltung sind, sondern vielleicht lediglich ein Zwischenergebnis.

Die Kategorien-Bildung hilft uns, die Welt Stück für Stück besser zu verstehen und Stück für Stück auf fundamentalere Prinzipien zurückzuführen. – Leider bleiben wir oft an den Kategorien vergangener Erkenntnis kleben und weisen ihnen eigenständige fundamentale Prinzipien zu.

Vor kurzem ging durch die Presse, dass AI Entwickler behaupten, dass große AI Systeme Bewusstsein entwickelt haben oder zu mindestens „ein bisschen davon“.  – Andere tun dies wiederum als völligen Unsinn ab [1], [2]. Da wir bisher nicht wissen, was Bewusstsein ist, können wir auch nicht sagen, ob es schon AI Systeme mit Bewusstsein oder „ein bisschen Bewusstsein“ gibt. Entsprechend meinem obigen Glaubenssatz glaube ich jedoch, dass es irgendwann AI Systeme mit Bewusstsein geben wird, ob morgen oder erst in 1000 Jahren vermag ich nicht zu sagen. Da unser Sein ein nicht-teilbares Sein ist, glaube ich, dass es nur eine Frage der Zeit ist, bis von uns geschaffene Systeme mit Bewusstsein existieren werden. Der Deep-Learning-Pionier Yann LeCun hat auch schon wieder einen (altbekannten) Lösungsweg aufgetan: Bewusstsein benötigt eine System-Architektur, die unserer Gehirn-Architektur nachempfunden ist [3].

Schon heute erscheinen täglich neue Meldungen, zu den erstaunlichen Aussagen und Leistungen von AI Systemen. So betont beispielsweise eine Zeitschrift die Gefahren, die von AI Systemen ausgehen können, indem sie titelt „Künstliche Intelligenz droht im Gespräch „die Menschen auszuschalten““ [4]. In der sehr seriösen Zeitschrift Scientific American war unlängst von einer AI zu lesen, die einen wissenschaftlichen Artikel über sich selbst geschrieben hat.- Die Entwickler der AI haben diesen Artikel als wissenschaftlichen Artikel zum Peer-Review eingereicht [5].

Man stelle sich nur vor, die Entwicklung der AI würde ähnlich schnell und fundamental weiter gehen wie in den letzten 10 Jahren und in 10 Jahren hätten wir AI Systeme mit einer Allgemeinen Künstlichen Intelligenz, die zudem (erste) Anzeichen von Bewusstsein zeigen würde. Müssten wir dann unsere menschenzentrierte Ethik nicht völlig neu denken. Denn es kämen dann zwangsläufig Fragen auf wie „Ist es ethisch vertretbar, eine AI mit Bewusstsein bei Bedarf abzustellen?“, oder „Müssten wir solchen AI Systemen Rechte einräumen?“.

Wie in meinem Blog-Beitrag vom Februar 2022 dargelegt, ist die bisherige angedachte Ethik der EU zu AI Systemen eine human-centric perspective.

Der sogenannte EU AI Act basiert auf den europäischen Werten und soll insbesondere die Menschen vor Schaden schützen [6]:

“Aside from the many beneficial uses of artificial intelligence, that technology can also be misused and provide novel and powerful tools for manipulative, exploitative and social control practices. Such practices are particularly harmful and should be prohibited because they contradict Union values of respect for human dignity, freedom, equality, democracy and the rule of law and Union fundamental rights, including the right to non-discrimination, data protection and privacy and the rights of the child.

Ziel der EU ist es, AI Systeme zu erlauben, denen wir trauen können, also sogenannte Trustworthy AI. An dieser Forderung ist „fast“ nicht auszusetzen, wenn man davon absieht, dass die Natur und die Tiere lediglich in drei Sätzen eines ca. 100 Seiten starken Proposal Dokumentes auftauchen.

Warum ist mir eine ganzheitliche Sicht mit entsprechender Ethik so wichtig?  Um diese Frage zu beantworten, möge man sich nur Folgendes fragen: Welche Ethik und damit Rechtsverständnis macht(e) es möglich, dass über Jahrzehnte das millionenfache Töten von männlichen Küken durchgeführt wurde? Welche Ethik und damit Rechtsverständnis macht(e) es möglich, dass Bauern das Grundwasser durch Überdüngung belasten dürfen?

Heute ist aus diesen unethischen Gewohnheiten Gewohnheitsrecht geworden. Es basieren Geschäftsmodelle auf diesem Mangel an ganzheitlicher Ethik und es bedarf enormer Anstrengungen, dieses Gewohnheitsrecht durch ein ethisch fundiertes Recht abzulösen. Denn der Mangel an einer ganzheitlichen Ethik hat dazu geführt, dass wir uns immer wieder in verschiedene Dilemmata bringen: Z.B. stellt sich die Frage, ob es erlaubt ist, die Lebensgrundlage der Bauern zu gefährden, in dem wir das Grundwasser (nachträglich) schützen. Wäre es nicht sinnvoll gewesen, den Schutz des Grundwassers von vorneherein zu gewährleisten und den Bauern und der Gesellschaft die Möglichkeit zu geben, ganzheitliche ethische Geschäftsmodelle zu entwickeln.  

Die Diskussion zur AI Ethik [7] und die damit verbundenen Rechtsvorschläge, wie den EU AI Act, beruhen auf keiner ganzheitlichen Ethik: Die Rechte von Natur und Tieren sind nicht berücksichtigt und die ethischen Konsequenzen, die sich aus einer möglichen Entwicklung von AI Systemen in Richtung einer Allgemeinen Künstlichen Intelligenz ergeben, sind noch nicht einmal ansatzweise enthalten.     

Ich komme zur aktuellen Version des Proposals EU AI Act zurück und skizziere die schon heute absehbaren großen Anforderungen an das (Projekt) Management:

Als guten Einstieg in den EU AI Act [6] dient das sogenannte Briefing des European Parliamentary Research Service [8]: Der EU AI Act ist ein Risiko-basierter Ansatz, in dem AI-Systeme in vier Risikokategorien eingeteilt werden: „AI systems posing (i) unacceptable risk, (ii) high risk, (iii) limited risk, and (iv) low or minimal risk.“ Eine genaue Definition, wann welche Kategorie vorliegt, gibt es leider nicht, jedoch gibt es Beispiele, insbesondere zur Kategorie „unacceptable risk“ und „high risk“:

Unacceptable risk AI Systeme sind in der EU verboten, z.B. [6, 8]:

  • AI systems that deploy harmful manipulative ’subliminal techniques‘
  • AI systems that exploit specific vulnerable groups (physical or mental disability)
  • AI systems used by public authorities, or on their behalf, for social scoring purposes
  • ‚Real-time‘ remote biometric identification systems in publicly accessible spaces for law enforcement purposes, except in a limited number of cases

High-risk AI Systeme sind erlaubt, unterliegen jedoch sehr strengen Auflagen, z.B. [6,8]:

  • High-risk AI systems used as a safety component of a product or as a product falling under Union health and safety harmonisation legislation (e.g. toys, aviation, cars, medical devices, lifts)
  • High-risk AI systems deployed in eight specific areas identified in Annex III of the EU AI Act, which the Commission would be empowered to update as necessary by way of a delegated act
    • Biometric identification and categorisation of natural persons
    • Management and operation of critical infrastructure
    • Education and vocational training
    • Employment, worker management and access to self-employment
    • Access to and enjoyment of essential private services and public services and benefits
    • Law enforcement
    • Migration, asylum and border control management
    • Administration of justice and democratic processes

Die EU High-Level Expert Group on Artificial Intelligence hat den “Mangel” an Operationalisierbarkeit des EU AI Act erkannt und das Dokument „Ethics Guidelines for Trustworthy AI“ erstellt [9]. Spätestens beim Lesen dieses Dokumentes wird einem sehr schnell klar, dass der EU AI Act für Organisationen und insbesondere hier das Projekt-, Risiko- und Qualitätsmanagement weitreichende Konsequenzen haben wird. Die Transparenz-, Dokumentations- und Monitoring-Anforderungen während des gesamten (!) Lebenszyklus eines AI Systems (alleinstehend oder embedded) sind enorm. Ich verweise auf [9] und die darin enthaltene mehrseitige Checkliste.

Ich stelle die Frage, zu welcher Kategorie gehören die beiden Machbarkeitsprototypen, die ich in den letzten beiden Blog-Beiträgen vorgestellt habe? – Und gebe einen ersten Einblick in die in dem EU AI Act enthaltenen Anforderungen.

Gehe ich von den oben auf geführten Beispielen aus, so gehören meine Machbarkeitsprototypen in die high-risk Kategorie „Education and vocational training“ und in die Kategorie „worker management“. In [9] ist die Abbildung 1 enthalten, die die zentralen Anforderungen an eine Trustworthy AI enthält:

Ich skizziere anhand dieser Abbildung meine Einschätzung bezüglich der Vertrauenswürdigkeit der beiden Machbarkeitsprototypen:

Abbildung 1: The Guidelines as a framework for Trustworthy AI [9]

 

Collective Mind proxy auf der Basis der Similarity Matrix

Collective Mind Netzwerk auf der Basis eines Graphical Networks

Ethical Principles

 

 

Respect for human autonomy

Die menschliche Autonomie wird nicht aktiv eingeschränkt, Kritiker könnten jedoch einwenden, dass die Quantifizierung von Ähnlichkeit in den Aussagen zu einer passiven Autonomieverletzung führt.

Die menschliche Autonomie wird weder aktiv noch passiv in der aktuellen Version eingeschränkt. Es lassen sich jedoch Zuordnung von Begriffen und Personen vornehmen, so dass die Kritik der passiven Autonomieeinschränkung je nach Nutzung evtl. vorhanden ist.

Prevention of harm

Physischer Schaden kann nicht eintreten. Psychischer Schaden könnte eintreten, wenn die vorhandene oder nicht vorhandene Similarity von Vorgesetzten/Kollegen als Druckmittel eingesetzt wird.

Physischer Schaden kann nicht eintreten. Psychischer Schaden könnte eintreten, wenn eine Verbindung zwischen Person und graphischen Netzwerkknoten von Vorgesetzten/Kollegen mit amoralischer Absicht benutzt wird.

Fairness

Das AI System trifft keine unfairen Aussagen, jedoch könnte dies evtl. durch beteiligte Stakeholder, wie oben geschildert, erfolgen.

Das AI System trifft keine unfairen Aussagen, jedoch könnte dies evtl. durch beteiligte Stakeholder, wie oben geschildert, erfolgen.

Explicability

Die Verständlichkeit und Transparenz des Algorithmus ist (nahezu) vollständig gegeben, auch wenn man berücksichtigen sollte, dass diverse Fremd-Softwaremodule (u.a. word2vec, spaCy) verwendet werden.

Die Verständlichkeit und Transparenz des Algorithmus ist (nahezu) vollständig gegeben, auch wenn man berücksichtigen sollte, dass diverse Fremd-Softwaremodule (u.a. spaCy, Transformer Pipeline) verwendet werden.

7 Key Requirements

 

 

Human agency and oversight

Die Anwendung der AI liegt vollkommen in den Händen der Nutzer. Dies setzt voraus, dass die Ergebnisse der Anwendung nur den direkten Nutzern zugänglich gemacht werden.

Die Anwendung der AI liegt vollkommen in den Händen der Nutzer. Dies setzt voraus, dass die Ergebnisse der Anwendung nur den direkten Nutzern zugänglich gemacht werden.

Technical robustness and safety

Die Anwendung ist äußerst robust (u.a. gibt es kein AI Lernen während des Betriebs) und hat keine sicherheitsrelevanten Auswirkungen.

Die Anwendung ist äußerst robust (u.a. gibt es kein AI Lernen während des Betriebs) und hat keine sicherheitsrelevanten Auswirkungen.

Privacy and data governance

Es werden keinerlei persönliche Daten erhoben, wenngleich die Daten mittels weiterer Techniken oder manuell Personen zugeordnet werden können und damit prinzipiell auch eine indirekte Verletzung der Privatsphäre möglich ist. Um dies zu verhindern ist eine data governance in nutzenden Organisationen erforderlich.

Es werden keinerlei persönliche Daten erhoben, wenngleich die Daten mittels weiterer Techniken oder manuell Personen zugeordnet werden können und damit prinzipiell auch eine indirekte Verletzung der Privatsphäre möglich ist. Um dies zu verhindern ist eine data governance in nutzenden Organisationen erforderlich.

Transparency (Diese Schlüsselanforderung ist direkt eine Konsequenz des ethischen Prinzips Explicability.)

Wie in [10] dargelegt hängt die Transparenz von mehreren Faktoren ab: Erklärbare Algorithmen, Einsicht in den Trainingsdatensatz, Einsicht in die Datensatzauswahl, Erkennen von Mentalen Verzerrungen im ausgewählten Datensatz, Transparenz bzgl. der verwendeten Modellversionen.

Bzgl. word2vec, spaCy ist die Umsetzung dieser Anforderungen mit meinen Zugriffsrechten und meinem Kenntnisstand nicht möglich. Da das Ergebnis jedoch lediglich ein word-embedding darstellt, erscheint mir der potenzielle Missbrauch äußerst gering.

Wie in [10] dargelegt hängt die Transparenz von mehreren Faktoren ab: Erklärbare Algorithmen, Einsicht in den Trainingsdatensatz, Einsicht in die Datensatzauswahl, Erkennen von Mentalen Verzerrungen im ausgewählten Datensatz, Transparenz bzgl. der verwendeten Modellversionen.

Bzgl. Transformator Pipeline und spaCy ist die Umsetzung dieser Anforderungen mit meinen Zugriffsrechten und meinem Kenntnisstand nicht möglich. Da das Ergebnis jedoch lediglich einen Graph darstellt erscheint mir der potenzielle Missbrauch äußerst gering.

Diversity, non-discrimination and fairness

Das AI System nimmt keine wie auch immer geartete Diskriminierung vor: Jedoch könnte durch die entstandene Transparenz im Meinungsspektrum und einer entsprechenden Zuordnung zu Personen, Missbrauch möglich sein.

Das AI System nimmt keine wie auch immer geartete Diskriminierung vor: Jedoch könnte durch die entstandene Transparenz im Meinungsspektrum und einer entsprechenden Zuordnung zu Personen, Missbrauch möglich sein.

Societal and environmental wellbeing

Gesellschaft und Umwelt werden in keiner Form beeinflusst. Sollten solche oder ähnliche Systeme eingesetzt werden ist jedoch zu beachten, dass evtl. die Akzeptanz oder Nicht-Akzeptanz für AI-System steigt. Eine unreflektierte Nutzung ohne ein Minimum an technischer und ethischer Bildung erscheint nicht sinnvoll, da dies mit unbekannten Risiken verbunden sein kann. Man siehe auch die entsprechenden Anforderungen bzgl. Professionalisierung von Teams bzgl. AI und Ethik in [7].

Gesellschaft und Umwelt werden in keiner Form beeinflusst. Sollten solche oder ähnliche Systeme eingesetzt werden ist jedoch zu beachten, dass evtl. die Akzeptanz oder Nicht-Akzeptanz für AI-System steigt. Eine unreflektierte Nutzung ohne ein Minimum an technischer und ethischer Bildung erscheint nicht sinnvoll, da dies mit unbekannten Risiken verbunden sein kann. Man siehe auch die entsprechenden Anforderungen bzgl. Professionalisierung von Teams bzgl. AI und Ethik in [7].

Accountability

Der EU AI Act sieht die Rechenschaftspflicht sehr stark beim Hersteller der AI Systeme. Ich empfehle, dass daneben eine Rechenschaftspflicht der nutzenden Organisation tritt, denn so wie man ein Messer zum Aufschneiden eines Apfels oder alternativ zum Töten eines Menschen benutzen kann, kann man jedes AI System unethisch anwenden.

Der EU AI Act sieht die Rechenschaftspflicht sehr stark beim Hersteller der AI Systeme. Ich empfehle, dass daneben eine Rechenschaftspflicht der nutzenden Organisation tritt, denn so wie man ein Messer zum Aufschneiden eines Apfels oder zum Töten eines Menschen benutzen, kann man jedes AI System unethisch anwenden.

Zusammenfassend stelle ich fest, dass eine ganzheitliche Ethik u.a. im Lichte aktueller AI Entwicklungen notwendig ist, dass ein Mangel an ganzheitlicher Ethik hohe Risiken in sich birgt, und dass der EU AI Act nur ein erster Schritt in diese Richtung ist. Gleichwohl sind die Anforderungen an das Management schon mit der aktuellen Proposal Version des EU AI Act sehr groß.

[1] Stieler W (2022) Hat KI bereits eine Art Bewusstsein entwickelt? Forscher streiten darüber, https://www.heise.de/hintergrund/Hat-KI-bereits-eine-Art-Bewusstsein-entwickelt-Forscher-streiten-darueber-6522868.html , zugegriffen am 22.07.2022

[2] Eisenlauer M (2022) google Entwickler sicher – Künstliche Intelligenz hat eigenes Bewusstsein, https://www.bild.de/digital/computer/computer/hat-googles-kuenstliche-intelligenz-lamda-ein-bewusstsein-entwickelt-80393376.bild.html

[3] Dickson B (2022) Meta’s Yann LeCun on his Vision for human-level AI, TechTalks, https://bdtechtalks.com/2022/03/07/yann-lecun-ai-self-supervised-learning/, zugegriffen am 06.07.2022

[4] Mey S (2022) Künstliche Intelligenz droht im Gespräch „die Menschen auszuschalten“, DerStandard, https://www.derstandard.de/story/2000136591877/kuenstliche-intelligenz-droht-im-gespraech-die-menschen-auszuschalten?ref=rss , zugegriffen am 06.07.2022

[5] Thunström A O (2022) We Asked GPT-3 to Write an Academic Paper about Itself—Then We Tried to Get It Published, Scientific American, https://www.scientificamerican.com/article/we-asked-gpt-3-to-write-an-academic-paper-about-itself-then-we-tried-to-get-it-published/, zugegriffen am 06.07.2022

[6] EU AI Act (2022) https://artificialintelligenceact.eu/, Europe Administration, zugegriffen am 06.07.2022

[7] Blackman R (2022) Ethical Machines: Your concise guide to totally unbiased, transparent and respectful AI, Harvard Business Review Press, kindle edition

[8] European Parliamentary Research Service (2022) Briefing EU AI Act, https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792

[9] High-Level Expert Group on Artificial Intelligence (2022) ETHICS GUIDELINES FOR TRUSTWORTHY AI, https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html [10] Schmelzer R (2022) Towards a more transparent AI, Forbes, https://www.forbes.com/sites/cognitiveworld/2020/05/23/towards-a-more-transparent-ai/?sh=725c89d33d93

[10] Schmelzer R (2022) Towards a more transparent AI, Forbes, https://www.forbes.com/sites/cognitiveworld/2020/05/23/towards-a-more-transparent-ai/?sh=725c89d33d93

AI & M 4.0: Hybrid Collective Intelligence in Organisation und Gesellschaft

Dieser Blogbeitrag ergänzt meinen vorherigen Blogbeitrag, insbesondere die dort gelisteten Kernaussagen des Buches „The Age of AI: And Our Human Future“ des ehemaligen amerikanische Außenminister Kissinger sowie des ehemaligen google CEO Schmidt und des MIT Professor Huttenlocher [1].

Hybrid (Collective) Intelligence liegt vor, wenn unsere menschliche (kollektive) Intelligenz durch die (kollektive) Intelligenz von Artificial Intelligence ergänzt wird und sich damit eine Erweiterung der Wahrnehmung unserer Realität ergibt, so dass wir komplexe Fragestellungen beantworten können, die wir ohne AI nicht oder nur mit deutlich größerem Aufwand beantworten könnten. Diese Definition lehnt sich an diejenige in [2] an.

Hybrid (Collective) Intelligence führt insbesondere für das Projekt Management zu drei zentralen Veränderungen:

  • Der Innovationsprozess wird sich substanziell verändern, da ein oder mehrere AI Systeme den F&E Suchraum allein oder in Zusammenarbeit mit Menschen erheblich erweitern und verändern werden [3].
  • Das (Projekt) Management hat zu berücksichtigen, dass Aufgaben zwischen Mensch und AI, alleine oder zusammen, zu verteilen sind. – Entscheidungsprozesse werden sich in dieser Zusammensetzung erheblich verändern [4]. – Man siehe hierzu auch die Liste an AI/ML Erweiterungen im letzten Blog-Beitrag.
  • AI Systeme werden in nahezu alle Projektlösungen einfließen und damit wird AI zur Kernkompetenz in der Projektarbeit. Gleichzeit sind die Auswirkungen der AI Projektlösungen für die Stakeholder, die Gesellschaft und die Natur zu berücksichtigen.

Ich verwende als Definition von Intelligenz eine recht unübliche Definition, die meines Erachtens aber umso treffender ist. Diese Definition wurde wohl erstmals von Alex Wissner-Gross vorgeschlagen [5, 6]: “Intelligence is the ability to maximize future options in order to accomplish complex tasks.” – Diese Definition lässt sich u.a. in eine mathematische Gleichung übersetzen und ist universell auf alle Objekte (belebte, unbelebte, soziale) anwendbar. Im Kontext von AI bedeutet dies zum Beispiel, dass eine AI zur Natural Language Processing (NLP) nicht nur die trainierten Texte oder recht ähnliche in Frage-Antwort Situationen wiedererkennt, sondern die Flexibilität besitzt auch Fragen zu beantworten, die nicht genau den trainierten Fragen entsprechen. Neben der neuronalen Architektur des Neuronalen Netzwerkes wird dies vor allem durch die vielen Parameter-Freiheitsgrade erreicht. – Die Freiheitsgrade von State-of-The-Art AI NLP Systemen umfassen aktuell mehrere 100 Million Parameter.

Die Fähigkeit zukünftige Optionen zu maximieren, ist also die Fähigkeit Freiheit bzw. freies Handeln unter antizipierten zukünftigen Randbedingungen zu maximieren. Falls wir nicht wollen, dass die AI „ihre Freiheit“ (in Zukunft) auf Kosten unserer Freiheit maximiert, ist es notwendig, Randbedingungen für sie zu setzen. Dies bedeutet die Einführung einer Governance für Hybride (Collective) Intelligence (kurz HCI Governance), die zudem adaptiv, also in einem PDCA-Zyklus, in die Zukunft fortzuschreiben ist.
Die Einführung einer HCI Governance wird umso notwendiger, je mehr sich die AI von einer schwachen AI zu einer starken (und allgemeinen) AI oder Superintelligenz entwickelt [7, 8]. – Die genaue Verortung des aktuellen Intelligenzgrades der AI-Systeme und deren zukünftiger Entwicklung ist jedoch nicht wesentlich, denn wir wissen heute schon, dass eine HCI Governance Not tut, da neben den Segnungen der Realitätserweiterungen durch AI auch schon Freiheitseinschränkungen (u.a. Diskriminierungen, fake news, Beeinflussung von demokratischen Wahlen) durch AI aufgetreten sind.

Peeters et al. haben unlängst in ihrem sehr lesenswerten Artikel „Hybrid Collective Intelligence in a Human-AI Society“ drei verschiedene Basis-Haltungen zum Umgang mit AI identifiziert [9]:

  • Technology-centric perspective
  • Human-centric perspective
  • Collective-Intelligence perspective

Das Bemerkenswerte ihrer Analyse, die durch das niederländische Verteidigungsministerium gesponsort wurde, ist, dass sie für jede dieser Haltungen (im Artikel sprechen sie von „perspectives“) Glaubenssysteme und dazugehörige Kontexte identifiziert haben. – Also ganz im Sinne von Management 4.0.

Ich nenne hier, als Beispiel, nur jeweils einen Glaubenssatz pro Haltung:

  • Technology-centric perspective: “When sufficiently developed, AI technology can applied to solve any problem.”
  • Human-centric perspective: “Artificial intelligence only exhibits part of human cognition and is therefore insufficient for many real-world problems.”
  • Collective-intelligence perspective: “Intelligence should not be studied at the level of individual humans or AI-machines, but at the group level of humans and AI-machines working together.”

In [10] werden die EU-Haltung und die USA-Haltung miteinander verglichen: Die EU-(Administrations-)Haltung ist tendenziell eine human-centric perspective und die USA-Haltung ist tendenziell eine technology-centric perspective. – Hieraus erklären sich u.a. die diversen Bestrebungen der EU-Administration amerikanische AI-Konzerne wie google, meta/facebook, apple und amazon durch Gesetze und Strafen zu regulieren.  

Mit Hilfe dieser drei Basis-Haltungen bzw. -Perspektiven zur AI lässt sich auch die Grundhaltung in [1] beschreiben: Sie ist tendenziell eine human-centric perspective ergänzt um die technology-centric perspectice und die collective-intelligence perspective. Im Wissen um diese, aber insbesondere auch wegen der in den USA vorherrschenden technology-centric perspective, fordern die Autoren eine Regulation der AI, also die Einführung einer Governance für AI Systeme. Dies ist umso wichtiger, da auf der Basis der technology-centric perspective schon heute weltweit AI gestützte Waffensysteme entwickelt und genutzt werden.

Berühmte Vertreter der technology-centric perspective in den USA sind Peter Kurzweil [11] und die mit ihm verbundene Singularity University [12]. – Ein Kennzeichen dieser Haltung ist der Glaube, dass in absehbarer Zukunft, im Jahre 2045, die Fähigkeiten der AI diejenigen der Menschheit übersteigen werden.

In [9] wird betont, dass keine der obigen Basis-Haltungen richtiger oder besser ist, sondern dass der Kontext die Basis-Haltung bestimmen sollte. – Was leider nur selten geschieht. – In [13] wird die zentrale Bedeutung der Reflexion und der kritischen Auseinandersetzung mit dem sozialen Kontext, also den aktiven Werten, Glaubensätzen und Prinzipien für das Design, die Implementierung und die Operationalisierung von AI Systemen diskutiert. Falls die Metakompetenz für diese (Selbst-) Reflexion und kritische Auseinandersetzung nicht vorhanden ist, wird eine AI Ethik nicht angenommen und damit auch nicht verantwortungsvoll umgesetzt. In [14] habe ich die “Forderung” aufgestellt, dass Projekte mit hoher Komplexität, eine türkis/teal Kultur benötigen: “Ideally, this requires a mindset of all key stakeholders that also contains red, blue and orange value meme components (red means power orientation, blue means control and order orientation, and orange means entrepreneurship and linear-scientific-thinking orientation), but is mainly shaped by the transformational value meme components, namely green (compassion), yellow (nonlinear networked system thinking) and teal (holistic-transcendental orientation).” Alle Teammitglieder und insbesondere der Projektleiter sollten über die Metakompetenz verfügen, ihre eigenen Werte und Glaubenssätze im jeweiligen Kontext kritisch zu hinterfragen, um bewusst AI Systeme ethisch verantwortungsvoll zu designen, zu implementieren und zu operationalisieren.  

Meine persönlich präferierte Basis-Haltung ist die collective-intelligence perspective. Wenn ich AI Systeme erstelle liegt meine Haltung hingegen eher auf der technology-centric perspective und im Schreiben dieses Blog-Beitrages eher auf der human-centric perspective.    

Schaut man sich die Definitionen für AI der großen AI-Konzerne an, so lassen diese eine recht eindeutige AI-Haltung der jeweiligen Autoren erkennen:

IBM: “Artificial intelligence leverages computers and machines to mimic the problem-solving and decision-making capabilities of the human mind.” [15]: technology-centric perspective

Microsoft (deutsch): „Unter künstlicher Intelligenz (AI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“ [16]: collective-intelligence perspective

Microsoft (amerikanisch): “Artificial intelligence (AI) is the capability of a computer to imitate intelligent human behavior. Through AI, machines can analyze images, comprehend speech, interact in natural ways, and make predictions using data.” [17]: technology-centric perspective. – Die Microsoft AI Internetseite [18] „AI for Good“ zeigt hingegen eine eher human-centric oder collective-intelligence perspective.

Google CEO: “At its heart, AI is computer programming that learns and adapts. It can’t solve every problem, but its potential to improve our lives is profound. At Google, we use AI to make products more useful—from email that’s spam-free and easier to compose, to a digital assistant you can speak to naturally, to photos that pop the fun stuff out for you to enjoy.” [19]: collective-intelligence perspective

Die Internetseite von google [20] und diejenige von meta/facebook [21] lassen eine Mischung aus technology-centric- und collective-intelligence-perspective erkennen.

Die OECD hat im Jahre 2019 ihr Dokument „Artificial Intelligence in Society“ vorgelegt, und definiert dort ihre human-centric perspective, die sie auch so nennt [22]: Hiernach müssen AI Systeme u.a. Menschenwürde und -rechte sowie die Demokratie gewährleisten, indem sie u.a. transparent, nachvollziehbar, vertrauenswürdig, sicher und steuerbar sind und bleiben. – Eine gestaltende Auseinandersetzung mit dem sozio-technischen System Mensch-Künstliche Intelligenz, im Sinne des Designs einer Governance, findet jedoch nicht statt.

Eine ähnliche Aussage ergibt sich für Deutschland: In [23] werden unter dem Titel „The making of AI Society: AI futures frames in German political and media discourses” die sogenannten „AI future frames“ für Deutschland untersucht. – AI future frames sind mentale Rahmen, in denen die AI Zukunft gesetzt wird. Das Ergebnis ist eher ernüchternd: „By mirroring the past in the future, alternative future visions are excluded, and past and current assumptions, beliefs, and biases are maintained. Despite the allegedly disruptive potential of emerging AI.” Hiernach denkt die deutsche Politik die neoliberale Politik der letzten Jahrzehnte unter dem Label „AI Made in Germany“ oder AI German einfach fort: „successful innovation = welfare generating future = political stability“. Die Lippenbekenntnisse der deutschen politischen Administration bis zur Wahl 2021 sind human-centric; im Tun überlassen sie die AI Governance dem Markt und eine AI Ethik explizit den deutschen Industrieunternehmen. – Eine entsprechende politische Governance, die den zentralen Aussagen in [1] Rechnung trägt, gibt es nicht. – Eine Einbettung in eine europäische AI Strategie fehlt völlig!

Die EU Kommission hat letztes Jahr in [24] einen Vorschlag für ein Regulationspapier erstellt, das in erster Linie als harmonisierende Referenz für die EU Administration dienen soll: Ein seitenstarkes Papier mit vielen Details; ich vermisse mal wieder ein Großes Bild, das zu einem Collective Mind in der EU (Administration) führen könnte. 

Wie könnten die Eckpfeiler eines Großen Bildes einer AI bzw. HCI Governance aussehen? Hier ein Vorschlag:

Rahmenparameter:

Landesspezifische AI Governance Systeme sind in eine europäische AI Governance eingebettet. – Die Strukturen der AI Governance sind auf allen europäischen Ebenen ähnlich. – Die (europäische) AI Governance folgt in ihrer Struktur einer Ziel-Hierachie: Vom Großen Bild zum Detail. Der transformative Charakter der AI Governance ist in die Governance einer ökologisch-ökonomischen Transformation (u.a. Nachhaltigkeit für Natur, Tier und Mensch, hin zu einer an sozialer Gerechtigkeit und Gleichheit orientierten Ökonomie, die Wachstum nicht als Allheilmittel verkauft) eingebettet

Kontrollparameter:

Die Kontrollparameter orientieren sich an den zentralen Aussagen aus [1]: Eine europäische AI Ethik und Gesetzgebung sorgt für eine Regulation der AI Freiheiten. Die AI Ethik und Gesetzgebung wird von der Politik gestaltet. Z.B. heißt dies, dass der Wert AI Transparenz politisch definiert wird und gesetzlich verankert wird.- Dies könnte zum Beispiel heißen, dass AI Systeme in Europa vor staatlichen Organen nach Bedarf offengelegt werden müssen.

Da AI Systeme unsere Welt transformieren, ist es notwendig dafür zu sorgen, dass die Schere zwischen AI-Wissenden und AI-Nichtwissenden nicht zu einer Verschärfung von Ungleichheit führt. Ein entsprechendes Bildungskonzept ist notwendig: AI gehört als Pflichtfach in die Schulen und AI gehört in die Curricula aller universitären Disziplinen.

Ordnungsparameter:             

Als Großes Bild für den Ordnungsparameter schlage ich vor „European Ecosystem for Hybrid Collective Intelligence“. Die Ausgestaltung dieses Großen Bildes heißt u.a. dass neben einer gemeinsamen europäischen AI Governance eine gemeinsame AI Infrastruktur aufgebaut wird. – Es werden Mechanismen bereitgestellt, die das Silo-Denken und -Handeln von Industrie und politischen Administrationen auflösen. U.a. wird eine „AI für Jedermann“ aufgebaut und die die obigen drei Sichten human-centric, technology-centric und collective intelligence integriert: Die sozio-technische HCI Integration wird also bewusst europäisch gestaltet.  

 

[1] Kissinger H A, Schmidt E, Huttenlocher D (2021) The Age of AI: And Our Human Future, kindle edition
[2] Dominik Dellermann, Adrian Calma, Nikolaus Lipusch, Thorsten Weber, Sascha Weigel, Philipp Ebel (2021) The future of human-AI collaboration: a taxonomy of design knowledge for hybrid intelligence systems, arXiv.org > cs > arXiv:2105.03354
[3] Dragos‑Cristian Vasilescu, Michael Filzmoser (2021) Machine invention systems: a (r)evolution of the invention process?, Journal AI & Society, January 2021
[4] Phanish Puranam (2021) Human–AI collaborative decision‑making as an organization design Problem, Journal of Organization Design (2021) 10:75–80
[5] Alex Wissner-Gross (2022) A new equation for intelligence, https://www.youtube.com/watch?v=auT-pA5_O_A, march 2020, zugegriffen am 07.02.2022
[6] Ron Schmelzer (2022) https://www.forbes.com/sites/cognitiveworld/2020/02/27/cant-define-ai-try-defining-intelligence/?sh=6f658a955279, Forbes Blog February 2020, zugegriffen am 07.02.2022
[7] Bernard Marr (2022) The Key Definitions Of Artificial Intelligence (AI) That Explain Its Importance, Forbes Blog February 2018, https://www.forbes.com/sites/bernardmarr/2018/02/14/the-key-definitions-of-artificial-intelligence-ai-that-explain-its-importance/?sh=219cbb1f4f5d , zugegriffen am 07.01.2022
[8] Wikipedia (2022) Artificial Intelligence, https://en.wikipedia.org/wiki/Artificial_intelligence, zugegriffen am 07.02.2022
[9] Peeters M M M, van Diggelen J, van den Bosch K, Bronhorst A, Neerinex M A, Schraagen J M, Raaijmakers S (2021) Hybrid Collective Intelligence in a Human-AI Society, in AI & Society Journal, March 2021
[10] Roberts H, Cowls J, Hine E, Mazzi E, Tsamados A, Taddeo M, Floridi L (2021) Achieving a ‘Good AI Society’: Coparing the Aims and Progress of the EU and the US, SSRN Journal, January 2021
[11] Kurzweil R (2022) https://www.kurzweilai.net/, zugegriffen am 07.02.2022
[12] Singularity University (2022) https://www.su.org/ , zugegriffen am 07.02.2022
[13] Krijger J (2021) Enter the metrics: critical theory and organizational operationalization of AI ethics, Journal AI & Society, September 2021
[14] Oswald A (2022) The Whole – More than the Sum of Its Parts! Self-Organization – The Universal Principle! in Ding R, Wagner R, Bodea CN (editors) Research on Project, Programme and Portfolio Management – Projects as an Arena for Self-Organizing, Lecture Notes in Management and Industrial Engineering, Springer Nature
[15] IBM (2022) Artificial Intelligence, https://www.ibm.com/cloud/learn/what-is-artificial-intelligence, zugegriffen am 07.02.2022
[16] Microsoft (2022) Künstliche Intelligenz, https://news.microsoft.com/de-at/microsoft-erklart-was-ist-kunstliche-intelligenz-definition-funktionen-von-ki/, zugegriffen am 07.02.2022
[17] Microsoft (2022) Artificial Intelligence Architecture, https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/ai-overview, zugegriffen am 07.02.2022
[18] Microsoft (2022) AI for Good, https://www.microsoft.com/en-us/ai/ai-for-good, zugegriffen am 07.02.2022
[19] Sundar Pichai (2022) AI at Google: our principles, https://www.blog.google/technology/ai/ai-principles/, Blog of CEO google, june 2018, zugegriffen am 07.02.2022
[20] Google (2022) Google AI: Advancing AI for everyone, https://ai.google/, zugegriffen am 07.02.2022
[21] Meta AI (Facebook) (2022) Bringing the world closer together by advancing AI, https://ai.facebook.com/, zugegriffen am 07.02.2022
[22] OECD (2019) Artificial Intelligence in Society, Online Version, https://www.oecd-ilibrary.org/sites/eedfee77-en/index.html?itemId=/content/publication/eedfee77-en&_csp_=5c39a73676a331d76fa56f36ff0d4aca&itemIGO=oecd&itemContentType=book
[23] Köstler L, Ossewaarde R (2020) The making of AI Society: AI futures frames in German political and media discourses, in AI & Society Journal, February 2021, Springer Nature
[24] Europäische Kommission (2021) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52021PC0206, zugegriffen am 07.02.2022

Metabetrachtungen: Zur Schnittmenge von diesjährigem Physik-Nobelpreis, Künstlicher Intelligenz und Collective Mind

Dieses Jahr wurde der Physik-Nobelpreis unter dem gemeinsamen Label „For groundbreaking contributions to our understanding of complex physical systems.“ an die Physiker Klaus Hasselmann und Syukuro Manabe sowie Giorgio Parisi vergeben. Es ist meines Wissens das erste Mal, dass das Verstehen von komplexen physikalischen Systemen so explizit honoriert wurde. Alle drei Forscher haben den Einfluss von mikroskopischen Zuständen auf makroskopische Zustände untersucht. Bei Klaus Hasselmann ging es um die Auswirkung von (lokalen) Wetterphänomenen auf (globale) Klimaphänomene. Also dem zentralen Problem unserer Tage. Syukuro Manabe wurde für die erstmalige computergestützte globale Klima-Modellierung geehrt.

Giorgio Parisi hat den Nobelpreis für seine Untersuchung von Spingläsern, insbesondere für seinen „great leap  … to introduce a new order parameter“ erhalten [1]. Seine Arbeiten ziehe ich für meine Metabetrachtungen heran.

Spin Gläser sind u.a. Legierungen wie CuMn, wobei das nichtmagnetische Kupfer (Cu) magnetisches Mangan (Mn) mit ca. 13% enthält. Die magnetischen Momente (Spin‘s) der Manganatome sind zufällig, aber fest im Kupferkristall verteilt. Zwischen den Manganatomen können ferromagnetische und antiferromagnetische Wechselwirkungen auftreten. – Je nach Konfiguration der Manganatome müssen diese mit ihren Nachbar-Manganatomen sowohl eine ferromagnetische als auch eine antiferromagnetische Wechselwirkung „befriedigen“. Dies kann auch Atome „frustrieren“. – Spingläser, also Substanzen, die bezüglich des Spins, wie Glas, amorphe Konfigurationen aufweisen und Frustrationen ausbilden, zeichnen sich (oft) nicht mehr nur durch einen einfachen Ordnungsparameter, wie die makroskopische Magnetisierung aus. – Sondern sie bilden viele mikroskopische Zustände aus, die mit dem Einstellen bestimmter Parameter (Rahmen- und Kontrollparameter) zu vielen unterschiedlichen Phasen mit jeweils unterschiedlichen Ordnungsparameter-Ausprägungen führen. Diese Ordnungsparameter-Ausprägungen genügen jedoch einem einheitlichen mathematischen Muster. – Parisi hat dieses „new order parameter“ Muster eingeführt [2].

Ich will versuchen dieses Muster am Beispiel einer sozialen Gruppe, an einem Team, zu erläutern.- Für den ein oder anderen mag dies Physikalismus sein [3], also der Versuch Alles und Jedes mittels Physik zu erklären; für mich ist es das Denken in Modellen und Theorien; und Metabetrachtungen helfen das ein oder andere qualitativ und quantitativ viel besser zu verstehen: Im Management 4.0 modellieren wir zentrale menschliche Eigenschaften mit der sogenannten Dilts Pyramide. Die Dilts Pyramide integriert hierbei ca. 30 unsere Persönlichkeit bestimmende Eigenschaften (Vision, Mission, Zugehörigkeit, Temperament, Werte, Glaubenssätze, Grundannahmen und Prinzipien). Stellen wir uns für den Moment die Pyramide (sie ist ja ein Keil, eine Spitze) als eine Ausrichtung unserer Persönlichkeit vor. Bilden wir eine Gruppe aus Personen mit unterschiedlichen Dilts Pyramiden, so bildet die Gruppe nicht selten (am Anfang) eine „Diltsglas-Organisation“: Die Pyramiden zeigen alle in unterschiedliche Richtungen. Recht selten geschieht es, dass die Pyramiden eine gemeinsame Ausrichtung erfahren, das Team sich also einen Ordnungsparameter, den Collective Mind, erarbeitet. Sehr oft führt die Gruppendynamik in einem Projektteam zu unterschiedlichen Kommunikationskonfigurationen (Zuständen): Unterschiedliche Visionen, Werte oder Glaubenssätze tauchen auf, nicht selten bleiben diese nebeneinander bestehen, ohne dass dies für die Gruppenmitglieder wirklich transparent wird. Damit verbunden sind, wie wir wahrscheinlich alle wissen, auch Frustrationen. Die Kommunikationskonfigurationen sind jedoch nicht beliebig. Die verschiedenen konfigurationsspezifischen Ausrichtungen der Dilts Pyramide der einzelnen Gruppenmitglieder haben nichtverschwindende „Überlappe“, z.B. mögen bestimmte Werte oder Glaubenssätze in verschiedenen Konfigurationen auftauchen. – Sie wirken als „mikroskopische“ Ordnungsparameter, die die makroskopische (Un-) Ordnung bestimmen. Man könnte also einen neuen Ordnungsparameter einführen, der den „Überlapp“ bei allen Teammitglieder misst und aufsummiert. – Damit hat man auch ein Maß für die „Diltsglas-Organisation“ des Teams. – Dieses Vorgehen entspricht dem von Parisi eingeführten neuen Ordnungsparameter für Spingläser. – Der Ordnungsparameter der „Diltsglas-Organisation“ ist damit auch ein Maß für die „Abweichung“ von einem einfachen Ordnungsparameter, dem Collective Mind, bei dem alle Dilts Pyramiden im Rahmen der Teamaktivitäten in eine Richtung zeigen.

Man kann die Analogie noch erweitern: Physikalische Spingläser können durch äußere magnetische Felder in der Ausbildung des Parisi-Ordnungsparameters beeinflusst werden. Auch „Diltsglas-Organisationen“ zeigen ein ähnliches Verhalten, wenn eine (äußere) Beeinflussung einsetzt: Führungskräfte oder Coaches wirken auf die Dilts Pyramiden des Teams ein. – Bei kleinen Einflussnahmen bleibt das „Diltsglas“ erhalten, steigt die Einflussnahme entsteht eine Ausrichtung, die aussieht wie ein Collective Mind. In den meisten Fällen dürfte die Ausrichtung jedoch wieder verschwinden, wenn die Einflussnahme zurückgeht, falls sich bis dahin keine intrinsische Veränderung im Team ausgebildet hat.  

Alles schön und gut, könnte man sagen: Warum macht es Sinn sich mit solchen Metabetrachtungen zu beschäftigen. In der Schrift des Nobel-Komitees [1] wird die Antwort gegeben. Die Modelle zur Erklärung von Spin-Gläsern haben heute sehr viele unterschiedliche Bereich erheblich befruchtet: Verschiedene Gebiete der Physik, der Biologie, der Chemie, der Neurowissenschaften und der Künstlichen Intelligenz. Für die Verbindung von Neurowissenschaften und Systemen Künstlicher Intelligenz wird explizit die Arbeit von John J. Hopfield in [1] genannt. Neuronale Netzwerke können auch als Spinglas Systeme verstanden werden, wenn man die magnetischen Momente durch Neuronen ersetzt. Die Wechselwirkungsparameter zwischen den Spins entsprechen den Gewichten zwischen den Ausgängen einer Neuronen Schicht und den Eingängen der nächsten Neuronen Schicht. Angelegte magnetische Felder entsprechen den Bias-Einstellungen der Neuronen. – Und wie oben geschildert, kann man die Grundprinzipien auch auf soziale Gruppen übertragen.

Die GPM Fachgruppe Agile Management beschäftigt sich seit einem Jahr mit der Nutzung von KI-Systemen im Management 4.0. Insbesondere habe ich mir hierzu zwei Themen ausgesucht:

  • Die Nutzung eines Neuronalen Netzwerkes für die Ermittlung von Persönlichkeitsmerkmalen aus beobachteten Verhaltensweisen.
  • Die Ermittlung des Grades der „Diltsglas-Organisation“ (wie oben geschildert) und des Collective Minds eines Teams aus auditiven Gesprächsprotokollen.

Den technologischen Durchstich für die erste Aufgabe konnte ich inzwischen erfolgreich abschließen. Ich bin also optimistisch, dass ich meine nächsten Blogbeiträge der Ausgestaltung dieser beiden Themen widmen werde. 

           

[1] The Nobel Committee for Physics (2021) For groundbreaking contributions to our understanding of complex physical systems, Scientific background on the Nobel Prize in Physics 2021.

[2] Parisi G (2008) The physical Meaning of Replica Symmetry Breaking, arXiv

[3] Wikipedia (2021) Physikalismus, https://de.wikipedia.org/wiki/Physikalismus_(Ontologie), zugegriffen am 29.10.2021

[4] Hopfield J.J. (1982) Neural networks and physical systems with emergent collective computational abilities, Proc. Nat. Acad. Sci. USA, Vol. 79 Biophysics

Metabetrachtungen: Zur Schnittmenge von Intuitivem Bogenschießen, Künstlicher Intelligenz und Management 4.0

Ende letzten Jahres habe ich einen WDR-Fernseh-Beitrag zur Bogenwerkstatt gesehen [1]. Dieser Beitrag hat meine verschüttete Kindheitsleidenschaft zum Bogenschießen wieder offengelegt. Seither übe ich mich mit großer Freude im sogenannten Intuitiven Bogenschießen [2]. Beim Intuitiven Bogenschießen bringt allein das „Körpergefühl und die Erfahrung des Schützen den Pfeil ins Ziel – rein intuitiv ohne Zieltechnik“. Intuitives Bogenschießen hat eine recht große Nähe zum japanischen Zen-Bogenschießen. – Das Buch des Philosophen Eugen Herrigel, der nach sechs! Jahren harten Übens (genüsslich zu lesen) seine Zen Bogenschieß-Prüfung ablegte gibt u.a. einen wunderbaren Eindruck von der Aussage „rein intuitiv ohne Zieltechnik“. – Die Fähigkeit sich an unterschiedliche Kontexte anzupassen, wird insbesondere beim 3D-Parcours Schießen im Gelände besonders herausgefordert.

Intuitives Bogenschießen wird auch als therapeutisches Bogenschießen in Kliniken eingesetzt. – Fokus, Adaption und Intuition sind zentrale Elemente des Intuitiven Bogenschießens. – Die begriffliche Nähe zum Management 4.0 ist offensichtlich. Ich werde später aufzeigen, dass auch eine Schnittmenge zur Künstlichen Intelligenz mittels Deep Learning gegeben ist.

Vor kurzem hatte ich die Gelegenheit und das Glück an einem dreitägigen Kurs zum Thema Deep Learning mittels Tensorflow teilzunehmen [4]. Tensorflow ist die von google u.a. über colab.research.google.com zur Verfügung gestellte Plattform für das Erstellen von Deep Learning Systemen der Künstlichen Intelligenz. – Das Eintauchen in diese und weitere Plattformen des Machine Learnings (ML) ist überwältigend: Es ist kein Programmieren mehr im mir bisher bekannten Sinne, sondern entspricht eher dem Design und Konfigurieren von Systemen auf sehr hohem Abstraktionsniveau. – Den erreichten (globalen) Fortschritt im ML konnte ich mir bisher in dieser nahezu „unendlichen Fülle“ nicht vorstellen. Deep Learning ist eine Form von technischer Selbstorganisation – das Design und die Konfiguration dienen der Ausgestaltung der Selbstorganisationsparameter des neuronalen Netzwerkes; und damit ist der Bezug zu Management 4.0 schon erkennbar.          

Vor einem Jahr haben wir in der Fachgruppe Agile Management eine Arbeitsgruppe ins Leben gerufen, die sich mit der Anwendung von Künstlicher Intelligenz im Projekt Management beschäftigt: Helge Nuhn hat kürzlich einen Übersichtsartikel zu Stand und Potential der Nutzung von Artificial Intelligence Systemen (AI Systemen) in temporären Organisationen und im Projekt Management erstellt [5].

In allen drei Bereichen – Intuitivem Bogenschießen, Künstlicher Intelligenz und Management 4.0 – ist Lernen das Schlüsselelement, um das System Mensch, das technische System Neuronales Netzwerk und das soziale System Team oder Organisation auf das Umfeld, also auf den jeweiligen Kontext, auszurichten.

In dem Standardwerk zu Machine Learning (ML) von Aurélien Géron charakterisiert er maschinelle Lernverfahren u.a. durch die Gegenüberstellung von Instanzbasiertem Lernen und Modellbasiertem Lernen: Instanzbasiertes Lernen ist dem Auswendiglernen sehr nahe. – Die Maschine lernt vordefinierte Objekt-Beispiele (Instanzen) einfach auswendig und wendet ein sogenanntes Ähnlichkeitsmaß zum Identifizieren von neuen Objekten (Instanzen) an. Ist die Ähnlichkeit hoch genug werden die neuen Objekte maschinell den vordefinierten Klassen zugeordnet. Instanzen können spezifische Kunden, Äpfel, eMails usw. sein. Das Ähnlichkeitsmaß wird über Regeln definiert und wird im „klassischen“ Sinne programmiert. – Die Regeln stellen eine äußerst einfache Form eines von außen (durch den Programmierer) vorgegebenen Modells dar. Das eigentliche Modellbasierte Lernen funktioniert jedoch völlig anders: Einem System werden Beispieldaten übergeben und das System entwickelt hieraus ein Modell und dieses Modell wird zur Vorhersage verwendet. Das Modellbasierte Lernen ist also dem wissenschaftlichen Vorgehen bei der Entwicklung von Erkenntnissen nicht unähnlich. Deep Learning lässt sich nach dem mehr oder weniger an Selbständigkeit beim AI-Lernen unterscheiden: Supervised Learning, Unsupervised Learning und Reinforcement Learning.

Zwischen Instanzbasiertem Lernen und Modellbasiertem Lernen liegt ein fundamentaler Unterschied. – Dies wird in dem Moment offensichtlich, wenn ich die Verbindung zum Management 4.0 und dem Lernen im einfachen oder komplizierten Kontext und dem Lernen im komplexen Kontext ziehe. Das Instanzbasierte Lernen ist das Lernen an Best Practice, also an Beispiel-Objekten wie einem Beispiel-Projekt oder an einem Beispiel-Verfahren. Das Ähnlichkeitsmaß ist in diesem Fall die Nähe zur eigenen Praxis: Der Lernende sucht nach einem Projekt, das möglichst zu seiner bisherigen Praxis passt. Dies kann heißen, dass Beispiele aus anderen Branchen nicht akzeptiert werden, dass nur dann das Beispiel passt, wenn der Lernende davon ausgeht, dass im Best Practice ein ähnliches Mindset vorliegt oder dass der WIP (Work-in-Progress) wie in der eigenen Organisation ähnlich groß ist, usw…. In jedem Fall wird der Projektkontext des Best Practices nur ungenügend abgebildet, es findet keine oder eine nur sehr geringe Abstraktionsleistung statt und die Übertragbarkeit ist deshalb mehr als fraglich.

Lernen im Management 4.0 ist Modellbasiertes Lernen. Instanzen sind nicht die Basis des Lernens, allenfalls um zu zeigen, dass man mit dem Modell sehr gut Probleme (Instanzen) lösen kann, die man vorher noch nie gesehen hat. – Falls das Modell jedoch nicht erfasst wird, erzeugt dies bei einem an Instanzbasiertes Lernen gewöhnten Menschen keine Erkenntnis: Da das Modell sich nicht erschließt, erschließt sich auch nicht die Lösung; Modell und Lösung sind unpraktisch.         

Mit dieser Erkenntnis sehr eng verbunden ist das sogenannte „Overfitting“ im ML: Man kann ein Neuronales Netz extrem gut mit einem gewaltig großen Datensatz (zum Beispiel Tier-Bildern) trainieren. – Die ermittelte Trefferrate ist fantastisch, so lange Bilder aus dem Trainingsdatensatz verwendet werden. – Trotzdem versagt das Netz bei einem bisher unbekannten Bild die Hundeart Spitz zu erkennen, und verortet den Spitz als Tyrannosaurus Rex. Der Kontext in dem der Spitz gezeigt wurde, war anders als bei den Trainingsdaten: Das AI-System konnte aufgrund der geringen Datenvariabiltät kein hinreichend abstraktes Modell ausbilden, um den Spitz in einem andersartigen Kontext zu erkennen. – Das Modell war sozusagen im Instanzbasierten Lernen hängen geblieben.

Beim Bogenschießen machte ich eine ähnliche Erfahrung im Selbsttraining: Ich stellte mich mit sehr vielen Schüssen (und ich meine hunderte, wenn nicht tausende Schüsse) auf einen bestimmten Kontext ein und die Trefferrate war sehr gut! – Eugen Herrigel beschreibt in seinem Buch wie er 4 Jahre aus einem Meter Distanz zum Ziel die Rituale des Zen-Bogenschießens einübt, um dann ad hoc mit einer 60 Meter Distanz konfrontiert zu werden, an der er über Monate kläglich scheiterte.

Bogenschießen unterliegt vielen, wahrscheinlich einigen hundert Parametern: Einer der offensichtlichen Kontext-Parameter ist die Entfernung zum Ziel. Änderte ich in der Anfangszeit die Entfernung ging meine Trefferrate deutlich runter. Ich hatte meine Intuition, mein Gehirn (d.h. mein neuronales Netzwerk), mittels Instanzbasiertem Lernen trainiert. Mit der Hinzunahme weiterer Entfernungen im 3D-Parcours wurde meine Trefferrate immer schlechter, um nicht zu sagen chaotischer. Mein Gehirn hat es aufgrund der vielen Parameter nicht geschafft, von allein eine Intuition, also ein mentales Modell, auszubilden, das mir zu einer besseren Trefferrate verhilft. Bei künstlichen Neuronalen Netzwerken hat man eine ähnliche Beobachtung gemacht: AI-Systeme können ebenfalls „Frustration“ ausbilden, sei es, dass sie in einem System-Zustand verharren oder „chaotische“ Reaktionen zeigen.  

Die Trefferrate wurde erst wieder deutlich besser als ich meiner Intuition auf die Sprünge half. Ich dachte mir ein einfaches Modell aus: Dieses Modell beruht auf der Erkenntnis, dass der Pfeilflug eine Wurfparabel beschreibt. Man spricht auch von ballistischem Schießen. Ist die Distanz gering (ca. 20 m) merkt man vielfach nichts von dieser Wurfparabel. – Vielfach bedeutet, dass die anderen Parameter, wie zum Beispiel Pfeilgewicht, Bogenstärke, usw. dies ermöglichen. Im Falle meines Bogens und meiner Pfeile wird die Wurfparabel ab 20 m immer stärker sichtbar. Das Modell lautet aktuell: Richte den Pfeil in einer geraden Linie auf das Ziel aus, auch wenn es 30 oder 40 Meter entfernt ist, schätze die Entfernung und hebe den Bogen in Abhängigkeit von der Entfernung leicht an. Leicht anheben bedeutet maximal 1-2 Winkelgrad. – Ein Winkelgrad kann durchaus im Ziel eine Abweichung von 50 cm oder mehr hervorrufen. – Also eine ziemliche Anforderung an Intuition und Motorik. Seit ich mit diesem Modell (das noch etwas umfangreicher ist, und weitere Parameter wie zum Beispiel das Pfeilgewicht berücksichtigt) schieße, hat sich die Trefferrate wieder deutlich verbessert und meine Adaptionsfähigkeit ist wesentlich gestiegen.      

Der Neurobiologe Henning Beck beschreibt in [7] wie unser Hang zur Ordnung im Lernen, also zum Instanzbasierten Block-Lernen uns „behindert“:

„Stellen Sie sich vor, Sie sind Lehrer an einer Kunstschule und wollen Ihren Kursteilnehmern den typischen Malstil von van Gogh, Monet und Cezanne vermitteln, wie gehen Sie vor? Oder umgedreht gefragt: Sie sollen für eine Prüfung lernen, was das Typische an den Bildern der drei Künstler ist, was würden Sie tun? Würden Sie sich Bilder der Maler anschauen? Ins Museum gehen, die Bilder vielleicht sogar nachmalen? …

…Eine Gruppe lernte genau nach obiger Blockabfertigung: Zunächst sah man sich eine Reihe von Bildern des ersten Künstlers an, machte dann eine kurze Pause, bevor die Bilder des Künstlers Nummer zwei folgten. Bei der anderen Gruppe machte man etwas anderes: Man zeigte die Bilder aller Künstler durcheinandergemischt, machte dann eine Pause und zeigte anschließend eine neue Runde durchmischter Bilder. Was für ein heilloses Durcheinander! So verliert man doch total den Überblick! …

…Das Ergebnis der Studie war jedoch erstaunlich: Ging es in dem anschließenden Test darum, ein zuvor gezeigtes Bild zu erkennen, dann schnitt die erste Gruppe, die blockweise gelernt hatte, besser ab. Ging es jedoch darum, ein neues, zuvor nicht gezeigtes Bild korrekt zuzuordnen, dann war Gruppe zwei mit den durchmischten Bildern besser. Denn diese Gruppe hatte die Bilder nicht nur auswendig gelernt, sondern auch das Typische der Malstile verstanden…

…Im obigen Malstilexperiment gaben drei Viertel der Teilnehmer an, das blockweise Lernen führe zu einem besseren Verständnis der Malstile – selbst nachdem man den finalen Test gemacht hatte, war die Mehrheit überzeugt, weiterhin blockweise lernen zu wollen.“

Ich habe Henning Beck hier so ausführlich zitiert, weil ich das „…Durchmischen von Lerninhalten, …das „Interleaving“…“ seit vielen Jahren in meinen Management 4.0 Trainings anwende und auch dort die Erfahrung mache, dass 50-75% der Teilnehmer das Block-Lernen bevorzugen. – Wie oben geschildert, geht blockweises Lernen mit dem Unvermögen einher, mentale Modelle zu erstellen, die sich auf neue Kontexte adaptiv einstellen. – Dies ist eine zentrale Fähigkeit um Komplexität zu meistern, also dem Handeln unter Unsicherheit und Unüberschaubarkeit.   

Meine Erfahrungen, sei es im Selbst-Training beim Bogenschießen, beim Erstellen von AI-Systemen oder in meinen Management 4.0 Trainings, zeigen, dass die Schnittmenge in diesen drei vordergründig disjunkten Bereichen keineswegs Null ist. – Die hier skizzierten Metabetrachtungen helfen, Einzel-Disziplinen besser zu verstehen, vernetzte Erkenntnisse zu gewinnen und Meta-Lernen anzuregen.

 

[1] Hörnchen D (2021) Die Bogenwerkstatt, https://www.die-bogenwerkstatt.de/, zugegriffen am 15.09.2021

[2] Wikipedia (2021) Traditionelles Bogenschießen, https://de.wikipedia.org/wiki/Traditionelles_Bogenschie%C3%9Fen, zugegriffen am 15.09.2021

[3] Herrigel E. (2010) Zen in der Kunst des Bogenschießens

[4] Zeigermann O (2021) Introduction Deep Learning to Deep Learning with Tensorflow 2, zeigermann.eu, embarc.de/oliver-zeigermann, ein Training der oose.de

[5] Nuhn H (2021) Organizing for temporality and supporting AI systems – a framework for applied AI and organization research, Lecture Notes in Informatics, GI e.V

[6] Géron A (2020) Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und Tesnorflow, O’Reilly, 2. Auflage

[7] Beck H (2021) Die Crux mit der Ordnung, in managerSeminare 276, März 2021, https://www.managerseminare.de/ms_Artikel/Schlauer-lernen-Die-Crux-mit-der-Ordnung,281117, zugegriffen am 15.09.2021

Management 4.0 und Megatrends: Konnektivität, New Work, Wissenskultur

Vor Kurzem haben sich die Fachgruppenleiter der GPM Deutschen Gesellschaft für Projektmanagement getroffen. Ein wesentlicher Arbeitsschwerpunkt war die Auswirkungen der Megatrends für das Projektmanagement. Von den vom Zukunftsinstitut definierten Megatrends [1] werden insbesondere die Megatrends Konnektivität, New Work und Wissenskultur als wichtig für das Projektmanagement wahrgenommen.

Das Zukunftsinstitut schreibt hierzu [1]:

„Konnektivität ist der wirkungsmächtigste Megatrend unserer Zeit. Das Prinzip der Vernetzung dominiert den gesellschaftlichen Wandel und eröffnet ein neues Kapitel in der Evolution der Gesellschaft. Digitale Kommunikationstechnologien verändern unser Leben grundlegend, reprogrammieren soziokulturelle Codes und lassen neue Lebensstile und Verhaltensmuster entstehen. Um diesen fundamentalen Umbruch erfolgreich zu begleiten, brauchen Unternehmen und Individuen neue Netzwerkkompetenzen und ein ganzheitlich-systemisches Verständnis des digitalen Wandels.

…New Work beschreibt einen epochalen Umbruch, der mit der Sinnfrage beginnt und die Arbeitswelt von Grund auf umformt. Das Zeitalter der Kreativökonomie ist angebrochen – und es gilt Abschied zu nehmen von der rationalen Leistungsgesellschaft. New Work stellt die Potenzialentfaltung eines jeden einzelnen Menschen in den Mittelpunkt…

Der Megatrend Wissenskultur wirkt ungebrochen. Insbesondere das Zusammenspiel mit dem Megatrend Konnektivität verändert unser Wissen über die Welt und die Art und Weise, wie wir mit Informationen umgehen. …Komplexere, unvorhersehbare Anforderungen auf dem Arbeitsmarkt und neue, kollaborative Formen der Wissensaneignung verlagern zudem den Fokus: hinzu lebenslangem Lernen…“

Zur Wissenskultur gehört das Thema Lernen und hier insbesondere die durch die Digitalisierung noch zu erwartenden Veränderungen. Ich war deshalb im Januar auf der LearnTec in Karlsruhe [2]. Schwerpunkt auf dieser Konferenz und Messe ist das Thema Digitalisierung des Lernens. Zu den digitalen Techniken gehören Lernmanagementsysteme, Augmented Reality, Virtual Reality, Diverse Chat Bot Techniken, Sprachübersetzungstechniken sowie Spiele, die Lernen unterstützen (Gamification). Die LearnTec Messe hatte dieses Jahr in Karlsruhe zwei große Hallen belegt und nächstes Jahr soll alleine für den Bereich Schule eine Halle neu hinzukommen.

Auf der Konferenz war Artifical Intelligence das dominante Thema. – Bei den Ausstellern auf der Messe war es noch nicht wirklich ein Thema. Verschiedene Vortragende waren sich einig, dass AI based learning in den nächsten Jahren kommen wird. – Hierzu zählen dann auch Training Bots und Coaching Bots. Für eine Zusammenstellung von Unternehmen, die hier an vorderster Front sind, verweise ich auf [3]. Das Thema Smart Learning Environment geht noch einen Schritt weiter: Lernräume werden mit Sensoren und Actoren ausgestattet, die das Lernen über von digitalen Systemen wahrgenommene Verhaltensweisen ( z.B. längeres Verweilen bei einem Satz oder (Fremd-) Wort, Augenbewegungen, Hautfärbung oder ähnliches) monitoren, den Lernenden auf dieser Basis individuell führen und dem Lehrer, Trainer oder Coach über People Analytics Informationen Eingriffsmöglichkeiten geben.

Bosch arbeitet an entsprechenden Lernumgebungen und von der TU Kaiserlautern wurde ein sehr beeindruckender Prototyp für das multimediale Lernen im Physikunterricht vorgestellt. – Je nachdem was die Sensoren mittels KI ermitteln, stellen Actoren die Lerninhalte ad hoc zusammen. Der Lehrer oder Trainer kann eingreifen, muss es aber nicht. Zusätzlich werden Informationen zu typischen Lernmustern aller Lernenden bereitgestellt.

Mittels „Leuchtürmen“, sogenannten Beacons oder Beacon-ähnlicher Technologie können Räume weiter smart gemacht werden. – Dies erlaubt u.a. die individuelle oder projektspezifische Bereitstellung von Informationen sobald Räume betreten oder verlassen werden [4].

Interaktionsräume für agile Projektteams könnten mit ähnlichen Techniken entsprechend weiter „aufgerüstet“ werden. – Ähnliche Ideen hierzu sind im Bereich People Analytics schon relativ alt (man siehe hierzu meinen Blog [5]), erfreuen sich aber in Datenschutz-orientierten Gesellschaft bisher (noch!) weniger Freunde.- Auch hier werden sich vermutlich Smart Working Environments oder Smart Project Environments etablieren. – Spätestens hier muss klar werden, dass Datenschutzgesetze alleine nicht ausreichen, sondern eine ganzheitliche Ethik gefordert ist, die nicht auf „Verliebtsein in Innovation, Erfolg und Geld“ ausgerichtet ist.

Der Jobfuturomat des Instituts für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit [6] weist für Projektleiter einen Digitalisierungsanteil von ca. 33 % aus, für Manager einen Anteil von 25%. Details der Analyse sind leider nicht transparent verfügbar. – So wird nicht wirklich klar, ob damit z.B. 33% der Projektleiteraktivitäten durch die Digitalisierung ersetzt wird oder 33% durch die Digitalisierung verändert wird. – Es ist von Automatisierung die Rede.
Mediatoren, Verhaltenstrainer/Kommunikationstrainer sollen hiernach einen Digitalisierungsgrad von 0% haben. – Die LearnTec lässt auch für diese letzte Berufsgruppe vermuten, dass sich das Berufsbild auch dieser Gruppe durch die Digitalisierung völlig verändern wird und enorme Möglichkeiten der Machtausübung damit verbunden sind.

Damit die Digitalisierung, wie Scobel sagt, nicht zu einer weiteren Entfremdung führt [7] oder wichtige Techniken der Selbstführung, wie diejenige der Achtsamkeit oder Meditation missbraucht werden [8], ist es notwendig, die Megatrends durch eine tiefgreifende Werteorientierung oder Ethik zu regulieren. Unreguliert führen sie zu vermeintlich schönen Hüllen: New Work ist nämlich nicht in erster Linie die Gestaltung von neuen mobilen, smarten oder work-life-balance Arbeitsumgebung, sondern wie wir im Management 4.0 sagen, eine an den menschlichen Grundbedürfnissen ausgerichtet Arbeit, bei der die Sinnfrage in jeder Hinsicht den nachhaltigen Bezugsrahmen setzt. – Im vorherigen Blog habe ich hierfür den Begriff Glück verwendet. – Unternehmen, die die Systemparameter des Unternehmens nicht so ausrichten, dass sie damit aktiv zum Glück der Mitarbeiter beitragen, praktizieren kein New Work [9,10].

Deshalb praktizieren Fluide Organisationen 4.0 Selbstorganisation und! wollen sich bewusst in Richtung einer Ethik mit türkisenen value-Memen entwickeln (d.h. insbesondere: ganzheitlich, nachhaltig, menschlich, naturverbunden). Man siehe hierzu meinem Blog [11] und auch den Beitrag „Interaction Patterns for the Digital Transformation“ in [9].

Schon Marx hat die Mechanismen der Selbstorganisation erkannt [12] und diagnostiziert, dass diese Mechanismen im 19ten Jahrhundert nicht an den menschlichen Grundbedürfnissen ausgerichtet waren. An verschiedenen Stellen im Blog habe ich darauf hingewiesen, dass die Selbstorganisation ein universelles Phänomen ist und damit nicht zwischen Gut oder Böse unterscheidet. Wie die Achtsamkeit auch, benötigt die Selbstorganisation eine Ethik.- Es ist also wichtig, zwischen der Selbstorganisation und einem ethischen Rahmen zu unterscheiden. Wenn wir von Selbstorganisation 4.0 sprechen, dann meinen wir eine Selbstorganisation, die auf den universellen Prinzipien beruht und die türkisenen value-Meme lebt. Diese Ethik wird umso wichtiger, als die Selbstorganisation mittels smarter Techniken unterstützt wird!

Wie ich im Blog über Davos [13] skizziert habe, sind meines Erachtens die Top-Führungskräfte der europäischen Unternehmen und Politik sowohl von dem Verständnis der Selbstorganisation als auch dem einer türkisenen Ethik sehr weit entfernt. Und damit schließt sich der Kreis wieder: Die Potentiale, die sich durch die Megatrends Konnektivität, New Work und Wissenskultur ergeben, können nicht gehoben werden. – Es besteht vielmehr das Risiko, dass die Megatrends unter diesen Bedingungen zur Gefahr für den gesellschaftlichen Zusammenhalt werden.   

 

[1] Zukunftsinstitut (2020) https://www.zukunftsinstitut.de/dossier/megatrends/, zugegriffen am 27.02.2020

[2] Leantec (2020) https://www.learntec.de/de/, zugegriffen am 27.02.2020

[3] AI in education (2020) https://builtin.com/artificial-intelligence/ai-in-education, zugegriffen am 27.02.2020

[4] Beacon (2020) https://de.ryte.com/wiki/Beacon, zugegriffen am 27.02.2020

[5] Oswald Alfred (2019) #PAFOWLondon – People Analytics & Future of Work – Deutschland, wo bist Du?, https://agilemanagement40.com/pafowlondon-people-analytics-future-of-work-deutschland-wo-bist-du

[6] Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (2020) https://job-futuromat.iab.de/, zugegriffen am 27.02.2020

[7] Scobel Gert (2020) Marx – wie sieht Entfremdung heute aus?, https://www.youtube.com/watch?v=FWhszTgMdec, zugegriffen am 27.02.2020

[8] Scobel Gert (2020) Achtsamkeit kann auch gefährlich sein, https://www.youtube.com/watch?v=QukUtDNeQ1I, zugegriffen am 27.02.2020

[9] Oswald A, Müller (Hrsg.) (2019) Management 4.0 – Handbook for Agile Practices, Release 3, BoD Verlag, Norderstedt

[10] Lutze Matthias, Schaller Philipp D., Wüthrich Hans A. (2019) New Work, Zurück in die Zukunft der Motivation, Zeitschrift Führung +Organisation 6/2019

[11] Oswald Alfred (2019) Projekte neu gedacht: Entwicklungsstufen, Selbstorganisation und Co-Evolution, https://agilemanagement40.com/projekte-neu-gedacht-entwicklungsstufen-selbstorganisation-und-co-evolution, zugegriffen am 27.02.2020

[12] Oswald Alfred (2018) Karl Marx und die Theorie der Selbstorganisation, https://agilemanagement40.com/karl-marx-und-die-theorie-der-selbstorganisation

[13] Oswald Alfred (2020) Vom Davos-Kindergarten der Führung, oder…Vom Systemwandel und der globalen Revolution der Führung!, https://agilemanagement40.com/vom-davos-kindergarten-der-fuehrung-odervom-systemwandel-und-der-globalen-revolution-der-fuehrung, zugegriffen am 27.02.2020