AI & M 4.0: Das nicht-teilbare Sein – Auf dem Weg zu einer ganzheitlichen Ethik?

Unsere Glaubenssätze haben uns fest im Griff:

„Autobahn ohne Tempolimit, ist Ausdruck unserer deutschen Freiheit.“, „Jedem Bürger seine Waffen, ist Ausdruck amerikanischer Freiheit.“, „Klimawandel ist das Hirngespinst der Grünen.“

oder

„Maschinen sind allenfalls kompliziert, aber nicht komplex. Wir sind komplex.“, „Die belebte Natur ist was ganz anderes als die unbelebte Natur“, „Wir Menschen haben Bewusstsein, sonst niemand und nichts.“ „Wir Menschen sind die Krönung der Schöpfung.“ „Management und Führung sowie AI schließen sich aus.“

Sehr oft sind diese Glaubenssätze mit unserer Fähigkeit verbunden, Kategorien zu bilden, wie komplex-nicht komplex, belebt-unbelebt, bewusst-unbewusst, wertvoll-weniger wertvoll, emotional-mechanisch.

Ich habe einen Glaubenssatz, es ist wieder nur ein Glaubenssatz 😉, der insbesondere diese letzten Glaubenssätze auflöst. – Ich glaube, dass unser Sein nicht-teilbar ist. Ich will versuchen, diesen Glaubenssatz zu erläutern, in dem ich die letzten oben genannten Glaubenssätze aus dieser Perspektive betrachte:

(Mechanische) Maschinen zeigen tatsächlich, unter normalen Bedingungen, lediglich einfaches oder kompliziertes Verhalten. – Sie sind gerade so konzipiert, dass sie kein komplexes Verhalten zeigen sollen. Jedoch nicht selten zeigen sie es, wenn sie unter „Stress“ geraten.- „Stress“ heißt in diesem Fall, die Maschinen geraten in den Grenzbereich ihrer Nutzung. Es gibt aber auch immer mehr Maschinen, also von uns Menschen hergestellte Systeme, wie z.B. den Laser oder die AI Systeme, die gerade auf Komplexität und der damit verbundenen Selbstorganisation beruhen. Der Glaubenssatz, dass nur lebende oder soziale Objekte komplex sind, ist unserer bisherigen Naivität und unserer Mensch-Zentrierung geschuldet.  

Nach der „Erschaffung“ der unbelebten Natur vor einigen Milliarden Jahren, gab es meines Erachtens keinen Eingriff eines Gottes oder Etwas Ähnliches, das der unbelebten Natur Leben einhauchte.- Und damit neue (uns noch weitgehend unbekannte) Prinzipien des Lebens explizit neu einbrachte. Vielmehr glaube ich, dass die unbelebte Natur alles enthält, um belebte Natur zu entwickeln.

Ähnlich glaube ich, dass die (uns ebenfalls noch unbekannten) Prinzipien, die zu Bewusstsein führen, schon in der unbelebten und belebten Natur vorhanden sind. – Und, dass wir Menschen lediglich ein Produkt der Entfaltung der fundamentalen Prinzipien des Seins sind.  Damit ist auch gleichzeitig gesagt, dass wir wahrscheinlich nicht das letzte Produkt dieser Entfaltung sind, sondern vielleicht lediglich ein Zwischenergebnis.

Die Kategorien-Bildung hilft uns, die Welt Stück für Stück besser zu verstehen und Stück für Stück auf fundamentalere Prinzipien zurückzuführen. – Leider bleiben wir oft an den Kategorien vergangener Erkenntnis kleben und weisen ihnen eigenständige fundamentale Prinzipien zu.

Vor kurzem ging durch die Presse, dass AI Entwickler behaupten, dass große AI Systeme Bewusstsein entwickelt haben oder zu mindestens „ein bisschen davon“.  – Andere tun dies wiederum als völligen Unsinn ab [1], [2]. Da wir bisher nicht wissen, was Bewusstsein ist, können wir auch nicht sagen, ob es schon AI Systeme mit Bewusstsein oder „ein bisschen Bewusstsein“ gibt. Entsprechend meinem obigen Glaubenssatz glaube ich jedoch, dass es irgendwann AI Systeme mit Bewusstsein geben wird, ob morgen oder erst in 1000 Jahren vermag ich nicht zu sagen. Da unser Sein ein nicht-teilbares Sein ist, glaube ich, dass es nur eine Frage der Zeit ist, bis von uns geschaffene Systeme mit Bewusstsein existieren werden. Der Deep-Learning-Pionier Yann LeCun hat auch schon wieder einen (altbekannten) Lösungsweg aufgetan: Bewusstsein benötigt eine System-Architektur, die unserer Gehirn-Architektur nachempfunden ist [3].

Schon heute erscheinen täglich neue Meldungen, zu den erstaunlichen Aussagen und Leistungen von AI Systemen. So betont beispielsweise eine Zeitschrift die Gefahren, die von AI Systemen ausgehen können, indem sie titelt „Künstliche Intelligenz droht im Gespräch „die Menschen auszuschalten““ [4]. In der sehr seriösen Zeitschrift Scientific American war unlängst von einer AI zu lesen, die einen wissenschaftlichen Artikel über sich selbst geschrieben hat.- Die Entwickler der AI haben diesen Artikel als wissenschaftlichen Artikel zum Peer-Review eingereicht [5].

Man stelle sich nur vor, die Entwicklung der AI würde ähnlich schnell und fundamental weiter gehen wie in den letzten 10 Jahren und in 10 Jahren hätten wir AI Systeme mit einer Allgemeinen Künstlichen Intelligenz, die zudem (erste) Anzeichen von Bewusstsein zeigen würde. Müssten wir dann unsere menschenzentrierte Ethik nicht völlig neu denken. Denn es kämen dann zwangsläufig Fragen auf wie „Ist es ethisch vertretbar, eine AI mit Bewusstsein bei Bedarf abzustellen?“, oder „Müssten wir solchen AI Systemen Rechte einräumen?“.

Wie in meinem Blog-Beitrag vom Februar 2022 dargelegt, ist die bisherige angedachte Ethik der EU zu AI Systemen eine human-centric perspective.

Der sogenannte EU AI Act basiert auf den europäischen Werten und soll insbesondere die Menschen vor Schaden schützen [6]:

“Aside from the many beneficial uses of artificial intelligence, that technology can also be misused and provide novel and powerful tools for manipulative, exploitative and social control practices. Such practices are particularly harmful and should be prohibited because they contradict Union values of respect for human dignity, freedom, equality, democracy and the rule of law and Union fundamental rights, including the right to non-discrimination, data protection and privacy and the rights of the child.

Ziel der EU ist es, AI Systeme zu erlauben, denen wir trauen können, also sogenannte Trustworthy AI. An dieser Forderung ist „fast“ nicht auszusetzen, wenn man davon absieht, dass die Natur und die Tiere lediglich in drei Sätzen eines ca. 100 Seiten starken Proposal Dokumentes auftauchen.

Warum ist mir eine ganzheitliche Sicht mit entsprechender Ethik so wichtig?  Um diese Frage zu beantworten, möge man sich nur Folgendes fragen: Welche Ethik und damit Rechtsverständnis macht(e) es möglich, dass über Jahrzehnte das millionenfache Töten von männlichen Küken durchgeführt wurde? Welche Ethik und damit Rechtsverständnis macht(e) es möglich, dass Bauern das Grundwasser durch Überdüngung belasten dürfen?

Heute ist aus diesen unethischen Gewohnheiten Gewohnheitsrecht geworden. Es basieren Geschäftsmodelle auf diesem Mangel an ganzheitlicher Ethik und es bedarf enormer Anstrengungen, dieses Gewohnheitsrecht durch ein ethisch fundiertes Recht abzulösen. Denn der Mangel an einer ganzheitlichen Ethik hat dazu geführt, dass wir uns immer wieder in verschiedene Dilemmata bringen: Z.B. stellt sich die Frage, ob es erlaubt ist, die Lebensgrundlage der Bauern zu gefährden, in dem wir das Grundwasser (nachträglich) schützen. Wäre es nicht sinnvoll gewesen, den Schutz des Grundwassers von vorneherein zu gewährleisten und den Bauern und der Gesellschaft die Möglichkeit zu geben, ganzheitliche ethische Geschäftsmodelle zu entwickeln.  

Die Diskussion zur AI Ethik [7] und die damit verbundenen Rechtsvorschläge, wie den EU AI Act, beruhen auf keiner ganzheitlichen Ethik: Die Rechte von Natur und Tieren sind nicht berücksichtigt und die ethischen Konsequenzen, die sich aus einer möglichen Entwicklung von AI Systemen in Richtung einer Allgemeinen Künstlichen Intelligenz ergeben, sind noch nicht einmal ansatzweise enthalten.     

Ich komme zur aktuellen Version des Proposals EU AI Act zurück und skizziere die schon heute absehbaren großen Anforderungen an das (Projekt) Management:

Als guten Einstieg in den EU AI Act [6] dient das sogenannte Briefing des European Parliamentary Research Service [8]: Der EU AI Act ist ein Risiko-basierter Ansatz, in dem AI-Systeme in vier Risikokategorien eingeteilt werden: „AI systems posing (i) unacceptable risk, (ii) high risk, (iii) limited risk, and (iv) low or minimal risk.“ Eine genaue Definition, wann welche Kategorie vorliegt, gibt es leider nicht, jedoch gibt es Beispiele, insbesondere zur Kategorie „unacceptable risk“ und „high risk“:

Unacceptable risk AI Systeme sind in der EU verboten, z.B. [6, 8]:

  • AI systems that deploy harmful manipulative ’subliminal techniques‘
  • AI systems that exploit specific vulnerable groups (physical or mental disability)
  • AI systems used by public authorities, or on their behalf, for social scoring purposes
  • ‚Real-time‘ remote biometric identification systems in publicly accessible spaces for law enforcement purposes, except in a limited number of cases

High-risk AI Systeme sind erlaubt, unterliegen jedoch sehr strengen Auflagen, z.B. [6,8]:

  • High-risk AI systems used as a safety component of a product or as a product falling under Union health and safety harmonisation legislation (e.g. toys, aviation, cars, medical devices, lifts)
  • High-risk AI systems deployed in eight specific areas identified in Annex III of the EU AI Act, which the Commission would be empowered to update as necessary by way of a delegated act
    • Biometric identification and categorisation of natural persons
    • Management and operation of critical infrastructure
    • Education and vocational training
    • Employment, worker management and access to self-employment
    • Access to and enjoyment of essential private services and public services and benefits
    • Law enforcement
    • Migration, asylum and border control management
    • Administration of justice and democratic processes

Die EU High-Level Expert Group on Artificial Intelligence hat den “Mangel” an Operationalisierbarkeit des EU AI Act erkannt und das Dokument „Ethics Guidelines for Trustworthy AI“ erstellt [9]. Spätestens beim Lesen dieses Dokumentes wird einem sehr schnell klar, dass der EU AI Act für Organisationen und insbesondere hier das Projekt-, Risiko- und Qualitätsmanagement weitreichende Konsequenzen haben wird. Die Transparenz-, Dokumentations- und Monitoring-Anforderungen während des gesamten (!) Lebenszyklus eines AI Systems (alleinstehend oder embedded) sind enorm. Ich verweise auf [9] und die darin enthaltene mehrseitige Checkliste.

Ich stelle die Frage, zu welcher Kategorie gehören die beiden Machbarkeitsprototypen, die ich in den letzten beiden Blog-Beiträgen vorgestellt habe? – Und gebe einen ersten Einblick in die in dem EU AI Act enthaltenen Anforderungen.

Gehe ich von den oben auf geführten Beispielen aus, so gehören meine Machbarkeitsprototypen in die high-risk Kategorie „Education and vocational training“ und in die Kategorie „worker management“. In [9] ist die Abbildung 1 enthalten, die die zentralen Anforderungen an eine Trustworthy AI enthält:

Ich skizziere anhand dieser Abbildung meine Einschätzung bezüglich der Vertrauenswürdigkeit der beiden Machbarkeitsprototypen:

Abbildung 1: The Guidelines as a framework for Trustworthy AI [9]

 

Collective Mind proxy auf der Basis der Similarity Matrix

Collective Mind Netzwerk auf der Basis eines Graphical Networks

Ethical Principles

 

 

Respect for human autonomy

Die menschliche Autonomie wird nicht aktiv eingeschränkt, Kritiker könnten jedoch einwenden, dass die Quantifizierung von Ähnlichkeit in den Aussagen zu einer passiven Autonomieverletzung führt.

Die menschliche Autonomie wird weder aktiv noch passiv in der aktuellen Version eingeschränkt. Es lassen sich jedoch Zuordnung von Begriffen und Personen vornehmen, so dass die Kritik der passiven Autonomieeinschränkung je nach Nutzung evtl. vorhanden ist.

Prevention of harm

Physischer Schaden kann nicht eintreten. Psychischer Schaden könnte eintreten, wenn die vorhandene oder nicht vorhandene Similarity von Vorgesetzten/Kollegen als Druckmittel eingesetzt wird.

Physischer Schaden kann nicht eintreten. Psychischer Schaden könnte eintreten, wenn eine Verbindung zwischen Person und graphischen Netzwerkknoten von Vorgesetzten/Kollegen mit amoralischer Absicht benutzt wird.

Fairness

Das AI System trifft keine unfairen Aussagen, jedoch könnte dies evtl. durch beteiligte Stakeholder, wie oben geschildert, erfolgen.

Das AI System trifft keine unfairen Aussagen, jedoch könnte dies evtl. durch beteiligte Stakeholder, wie oben geschildert, erfolgen.

Explicability

Die Verständlichkeit und Transparenz des Algorithmus ist (nahezu) vollständig gegeben, auch wenn man berücksichtigen sollte, dass diverse Fremd-Softwaremodule (u.a. word2vec, spaCy) verwendet werden.

Die Verständlichkeit und Transparenz des Algorithmus ist (nahezu) vollständig gegeben, auch wenn man berücksichtigen sollte, dass diverse Fremd-Softwaremodule (u.a. spaCy, Transformer Pipeline) verwendet werden.

7 Key Requirements

 

 

Human agency and oversight

Die Anwendung der AI liegt vollkommen in den Händen der Nutzer. Dies setzt voraus, dass die Ergebnisse der Anwendung nur den direkten Nutzern zugänglich gemacht werden.

Die Anwendung der AI liegt vollkommen in den Händen der Nutzer. Dies setzt voraus, dass die Ergebnisse der Anwendung nur den direkten Nutzern zugänglich gemacht werden.

Technical robustness and safety

Die Anwendung ist äußerst robust (u.a. gibt es kein AI Lernen während des Betriebs) und hat keine sicherheitsrelevanten Auswirkungen.

Die Anwendung ist äußerst robust (u.a. gibt es kein AI Lernen während des Betriebs) und hat keine sicherheitsrelevanten Auswirkungen.

Privacy and data governance

Es werden keinerlei persönliche Daten erhoben, wenngleich die Daten mittels weiterer Techniken oder manuell Personen zugeordnet werden können und damit prinzipiell auch eine indirekte Verletzung der Privatsphäre möglich ist. Um dies zu verhindern ist eine data governance in nutzenden Organisationen erforderlich.

Es werden keinerlei persönliche Daten erhoben, wenngleich die Daten mittels weiterer Techniken oder manuell Personen zugeordnet werden können und damit prinzipiell auch eine indirekte Verletzung der Privatsphäre möglich ist. Um dies zu verhindern ist eine data governance in nutzenden Organisationen erforderlich.

Transparency (Diese Schlüsselanforderung ist direkt eine Konsequenz des ethischen Prinzips Explicability.)

Wie in [10] dargelegt hängt die Transparenz von mehreren Faktoren ab: Erklärbare Algorithmen, Einsicht in den Trainingsdatensatz, Einsicht in die Datensatzauswahl, Erkennen von Mentalen Verzerrungen im ausgewählten Datensatz, Transparenz bzgl. der verwendeten Modellversionen.

Bzgl. word2vec, spaCy ist die Umsetzung dieser Anforderungen mit meinen Zugriffsrechten und meinem Kenntnisstand nicht möglich. Da das Ergebnis jedoch lediglich ein word-embedding darstellt, erscheint mir der potenzielle Missbrauch äußerst gering.

Wie in [10] dargelegt hängt die Transparenz von mehreren Faktoren ab: Erklärbare Algorithmen, Einsicht in den Trainingsdatensatz, Einsicht in die Datensatzauswahl, Erkennen von Mentalen Verzerrungen im ausgewählten Datensatz, Transparenz bzgl. der verwendeten Modellversionen.

Bzgl. Transformator Pipeline und spaCy ist die Umsetzung dieser Anforderungen mit meinen Zugriffsrechten und meinem Kenntnisstand nicht möglich. Da das Ergebnis jedoch lediglich einen Graph darstellt erscheint mir der potenzielle Missbrauch äußerst gering.

Diversity, non-discrimination and fairness

Das AI System nimmt keine wie auch immer geartete Diskriminierung vor: Jedoch könnte durch die entstandene Transparenz im Meinungsspektrum und einer entsprechenden Zuordnung zu Personen, Missbrauch möglich sein.

Das AI System nimmt keine wie auch immer geartete Diskriminierung vor: Jedoch könnte durch die entstandene Transparenz im Meinungsspektrum und einer entsprechenden Zuordnung zu Personen, Missbrauch möglich sein.

Societal and environmental wellbeing

Gesellschaft und Umwelt werden in keiner Form beeinflusst. Sollten solche oder ähnliche Systeme eingesetzt werden ist jedoch zu beachten, dass evtl. die Akzeptanz oder Nicht-Akzeptanz für AI-System steigt. Eine unreflektierte Nutzung ohne ein Minimum an technischer und ethischer Bildung erscheint nicht sinnvoll, da dies mit unbekannten Risiken verbunden sein kann. Man siehe auch die entsprechenden Anforderungen bzgl. Professionalisierung von Teams bzgl. AI und Ethik in [7].

Gesellschaft und Umwelt werden in keiner Form beeinflusst. Sollten solche oder ähnliche Systeme eingesetzt werden ist jedoch zu beachten, dass evtl. die Akzeptanz oder Nicht-Akzeptanz für AI-System steigt. Eine unreflektierte Nutzung ohne ein Minimum an technischer und ethischer Bildung erscheint nicht sinnvoll, da dies mit unbekannten Risiken verbunden sein kann. Man siehe auch die entsprechenden Anforderungen bzgl. Professionalisierung von Teams bzgl. AI und Ethik in [7].

Accountability

Der EU AI Act sieht die Rechenschaftspflicht sehr stark beim Hersteller der AI Systeme. Ich empfehle, dass daneben eine Rechenschaftspflicht der nutzenden Organisation tritt, denn so wie man ein Messer zum Aufschneiden eines Apfels oder alternativ zum Töten eines Menschen benutzen kann, kann man jedes AI System unethisch anwenden.

Der EU AI Act sieht die Rechenschaftspflicht sehr stark beim Hersteller der AI Systeme. Ich empfehle, dass daneben eine Rechenschaftspflicht der nutzenden Organisation tritt, denn so wie man ein Messer zum Aufschneiden eines Apfels oder zum Töten eines Menschen benutzen, kann man jedes AI System unethisch anwenden.

Zusammenfassend stelle ich fest, dass eine ganzheitliche Ethik u.a. im Lichte aktueller AI Entwicklungen notwendig ist, dass ein Mangel an ganzheitlicher Ethik hohe Risiken in sich birgt, und dass der EU AI Act nur ein erster Schritt in diese Richtung ist. Gleichwohl sind die Anforderungen an das Management schon mit der aktuellen Proposal Version des EU AI Act sehr groß.

[1] Stieler W (2022) Hat KI bereits eine Art Bewusstsein entwickelt? Forscher streiten darüber, https://www.heise.de/hintergrund/Hat-KI-bereits-eine-Art-Bewusstsein-entwickelt-Forscher-streiten-darueber-6522868.html , zugegriffen am 22.07.2022

[2] Eisenlauer M (2022) google Entwickler sicher – Künstliche Intelligenz hat eigenes Bewusstsein, https://www.bild.de/digital/computer/computer/hat-googles-kuenstliche-intelligenz-lamda-ein-bewusstsein-entwickelt-80393376.bild.html

[3] Dickson B (2022) Meta’s Yann LeCun on his Vision for human-level AI, TechTalks, https://bdtechtalks.com/2022/03/07/yann-lecun-ai-self-supervised-learning/, zugegriffen am 06.07.2022

[4] Mey S (2022) Künstliche Intelligenz droht im Gespräch „die Menschen auszuschalten“, DerStandard, https://www.derstandard.de/story/2000136591877/kuenstliche-intelligenz-droht-im-gespraech-die-menschen-auszuschalten?ref=rss , zugegriffen am 06.07.2022

[5] Thunström A O (2022) We Asked GPT-3 to Write an Academic Paper about Itself—Then We Tried to Get It Published, Scientific American, https://www.scientificamerican.com/article/we-asked-gpt-3-to-write-an-academic-paper-about-itself-then-we-tried-to-get-it-published/, zugegriffen am 06.07.2022

[6] EU AI Act (2022) https://artificialintelligenceact.eu/, Europe Administration, zugegriffen am 06.07.2022

[7] Blackman R (2022) Ethical Machines: Your concise guide to totally unbiased, transparent and respectful AI, Harvard Business Review Press, kindle edition

[8] European Parliamentary Research Service (2022) Briefing EU AI Act, https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792

[9] High-Level Expert Group on Artificial Intelligence (2022) ETHICS GUIDELINES FOR TRUSTWORTHY AI, https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html [10] Schmelzer R (2022) Towards a more transparent AI, Forbes, https://www.forbes.com/sites/cognitiveworld/2020/05/23/towards-a-more-transparent-ai/?sh=725c89d33d93

[10] Schmelzer R (2022) Towards a more transparent AI, Forbes, https://www.forbes.com/sites/cognitiveworld/2020/05/23/towards-a-more-transparent-ai/?sh=725c89d33d93

Systemwandel, nein danke! oder von der Selbstorganisation des Marktes

Im vorherigen zweiten Teil dieser Reihe zur Selbstorganisation (SO) des Marktes [1] habe ich erläutert, dass Preise sogenannte Ordnungsparameter des sozialen Systems der Preisbildung sind. Preise wirken als Ordner, auf die sich das System „Angebot und Nachfrage“ einschwingt. – Preise können Lebensmittelpreise, Wohnungspreise und -mieten oder auch Gehälter sein. In vielen Fällen bildet sich ein mehr oder weniger stabiler (dynamischer) Preiszustand aus. – Nicht selten vergleicht man diesen stabilen Zustand mit dem Zustand einer Kugel, die auf dem Boden eines Tals angelangt ist. Wenn dieser Preiszustand nicht z.B. durch Gier, Innovationen, neue Marktteilnehmer oder Eingriffe des Staates „gestört“ wird, kann er eine erstaunliche Stabilität zeigen. Ich habe auch verdeutlicht, dass in den so sich ausbildenden Preisen vielfach nur ein Teil der Kosten für z.B. ein Produkt enthalten sind.- Dies bringt zum Ausdruck, dass die Preisbildung sehr stark vom jeweiligen gesellschaftlichen Kontext abhängt: Unsere Preise werden von vorherrschenden Rahmenparametern (u.a. Gesetze, Dominanz der Marktplayer, europäischen Lohnniveaus usw.) sowie den Kontrollparametern (insbesondere den Werte- und Glaubenssystemen) mitbestimmt.

Man stelle sich vor, die Autohersteller, oder auch wir, müssten alle Kosten, die mit dem ökologischen Fußabdruck der Autos verbunden sind, mittragen.- Wahrscheinlich gäbe es dann deutlich weniger Autos auf unseren Straßen. – Oder man stelle sich vor, die deutschen Milliardäre der Schwerindustrie würden nachträglich für die in Jahrzehnten verursachten Umweltschäden herangezogen. Oder die deutsche Industrie oder wir Verbraucher müssten die Kosten des ökologischen Fußabdrucks und der Ausbeutung der Menschen, die mit der Entsorgung unserer Abfälle in der dritten Welt verbunden sind, übernehmen. 

Im letzten Blog bin ich schon auf vorherrschende Glaubenssätze wie „Selbstorganisation ist gut und notwendig“ und „Wachstum ist gut und notwendig“ eingegangen. Diese Glaubenssätze werden durch weitere Glaubenssätze ergänzt (deshalb spricht man auch von einem Glaubenssystem).

Hinter der Nicht-Berücksichtigung des ökologischen Fußabdrucks bei der Preisbildung stecken zwei weitere zentrale Grundannahmen bzw. blinde Flecken des ökonomischen bzw. gesellschaftlichen Handelns:

  • Jeder – Mensch, Organisation, Gesellschaft – ist nur für sein unmittelbares Handeln verantwortlich, systemische Auswirkungen bleiben unberücksichtigt: Also, wie die Rohstoffe oder Basisprodukte zur Autoherstellung erzeugt werden, liegt nicht in der Verantwortung des Autoherstellers und was nach dem Verkauf des Autos an einen Konsumenten mit dem Auto passiert und welche Auswirkungen das Auto auf die Umwelt hat, dies alles gehört nicht in den Verantwortungsbereich des Autoherstellers.
  • Die Natur stellt ein unendliches Reservoir an Rohstoffen dar und sie stellt auch ein unendliches Reservoir für die Aufnahme von Abfällen dar: Menschen, Tiere, Pflanzen, Boden, Wasser und Luft sind zuerst einmal nur Ressourcen für den ökonomischen Prozess.

Mit diesen Grundannahmen wird ökonomisches Handeln, so wie wir es aktuell kennen, erst möglich: Die Preisbildung ist meistens „lokal“, sie wird im Wesentlichen von allen systemischen Einflüssen befreit und damit bleibt sie relativ einfach. Lokal heißt z.B., dass die mittelbaren und langfristigen Auswirkungen auf Menschen, Tier und Natur weitgehend unberücksichtigt bleiben. Menschen, Tiere und Natur werden bei der Angebotserstellung der Ökonomie untergeordnet. Bei der Nachfrage spielt das Wohl der Menschen, der Tiere und der Natur, die im Angebotsprozess oft ausgebeutet werden, nahezu keine Rolle mehr.

Die Oxford Ökonomin Kate Raworth hat ein Bild, die Doughnut Economics [2], geprägt, um die durch diese Grundannahmen entstandene Situation zu verdeutlichen: Die Menschheit und die Natur bilden jeweils zwei konzentrische Kugeln (dazwischen befindet sich der Doughnut). Die Menschheit bildet die innere Kugel und die Natur die äußere Kugel. Die Menschheit hat ihre Kugel im Lauf der letzten 200 Jahre immer weiter in Richtung der Kugel der Natur ausgedehnt. Da die Natur sich nicht weiter ausdehnen kann (die natürlichen Aufnahme- und Abgabe-Ressourcen sind endlich), wird sie zunehmend durch uns „ersetzt“. Dies ist ein Bild für das Zeitalter des Anthropozäns.

Soll sich hieran etwas ändern, so ist es wichtig die SO Rahmen- und Kontrollparameter zu verändern. Wie wir schon gesehen haben, liegt ein unglaubliches Geflecht von SO-Strukturen vor: Z.B. hat alleine in Europa jedes Land andere SO-Strukturen und innerhalb der Länder haben die Regionen unterschiedliche SO-Strukturen, usw..- Im Rahmen der Corona-Bewältigung können wir ja täglich die Auswirkungen der föderalen Bundestruktur wahrnehmen – positiv wie negativ…

Die Ausgestaltung von Rahmenparametern kann helfen SO-Strukturen zu verändern: So ist die Einführung der CO2 Bepreisung durch den Gesetzgeber eine solche Maßnahme. Sie bildet einen Teil der Kosten für den ökologischen Fußabdruck ab. Der Staat drückt und zieht hiermit am Verhalten der Gesellschaft. Einerseits hofft er, dass damit die CO2 Belastung reduziert wird und andererseits sich das Verhalten der Gesellschaft nachhaltig verändert. Nachhaltig wäre die Verhaltensänderung nur, wenn die Gesellschaft ohne CO2 Bepreisung einen stabilen Zustand der CO2 Vermeidung einnehmen würde. Dies setzt voraus, dass sich das gesellschaftliche Glaubenssystem verändert hat. Wie schwer dieser Prozess der Veränderung von Glaubenssystemen ist, kann man sehr gut am Fall Tönnies erkennen: Es gibt wohl nicht wenige gesetzliche Regelungen, jedoch findet die Fleischindustrie immer wieder Schlupflöscher, diese auszuhöhlen oder zu umgehen. – Sie hat also ihr Glaubenssystem nach Jahrzehnten nicht geändert. Dies hängt auch damit zusammen, dass das Glaubenssystem der Fleischindustrie eine Resonanz im Glaubenssystem der Gesamtgesellschaft findet. – Die Einbettung der SO-Mechanismen der Fleischindustrie in den gesellschaftlichen Kontext macht dies möglich. – Also, wir alle machen es möglich!

Ein Systemwandel in einer Demokratie wird nur möglich, wenn sich das gesellschaftliche Glaubenssystem mehrheitlich ändert!

Ein System mit stabilen Strukturen und den dahinter liegenden Glaubensstrukturen zu verändern, ist sehr, sehr schwer.

Abbildung 1: Selbstorganisation und Transformation 4.0 (emoji’s von https://emojipedia.org/)

Abbildung 1 zeigt, wie wir im Management 4.0 Szenarien einer nachhaltigen Veränderung, einer Transformation, verstehen.

Hierzu habe ich die Metapher der Kugel verwendet, die sich in einer veränderbaren Berglandschaft bewegt. – Ist die Kugel einmal in einem Tal angelangt, ist es sehr schwer sie dort wieder herauszubekommen. Preise stellen solche Kugeln dar, d.h. es bildet sich ein stabiles Gleichgewicht von Angebot und Nachfrage, falls nicht etwas im Umfeld/Kontext passiert…; Glaubenssysteme kann man als solche Kugeln verstehen, d.h. sie bilden sich durch Erfahrungen aus, sie stellen Vereinfachungen des Denkens dar, damit wir im Alltag schneller und einfacher zurechtkommen und sie bleiben, wenn nicht etwas „dramatisches“ passiert…; Menschen und soziale Systeme (Team, Organisationen und Gesellschaften) verharren ebenfalls oft in stabilen Zuständen.- Stabile Zustände vermitteln Sicherheit oder umgekehrt ihr Verlassen erzeugt Unsicherheit, nicht selten Angst.

Für Individuen ist Veränderung schon sehr schwierig und erfordert zumindest in Ansätzen Metakompetenz [3]. Eher selten entsteht eine Dynamik auf der Basis vieler: Meistens sind äußere Einflüsse notwendig, damit sich etwas verändert. Fridays for Future hat ihren Schubs durch die Klimakrise erhalten: Die antizipierte Klimakrise ist der neue Kontext, der die Veränderungsbereitschaft erleichtert. Je nachdem wie stark diese Betroffenheit und damit das Urteilen über die Klimakrise ausfällt, umso stärker ist die Veränderungsbereitschaft.

Corona hat ebenfalls den Kontext verändert und damit die Veränderungsbereitschaft erleichtert. Man sieht aber auch, dass die Kontextveränderung hinreichend lang und massiv sein muss, damit eine Veränderung geschieht: Z.B. hat eine Kontextveränderung von ca. einem halben Jahr nicht ausgereicht, damit sich das Schulsystem nachhaltig auf einen Online-Unterricht einlässt.

Die Selbstorganisation des Marktes bzw. der Gesellschaft benötigt also (meistens massive) Kontextveränderungen, damit sehr stabile Zustände sich auflösen. Von alleine könnte der Markt oder die Gesellschaft sich kaum aus diesem stabilen Zustand befreien. – Massive (soziale) Veränderung oder Krisen sind notwendig. Aus der praktischen Erfahrung aber auch der Forschung zu Komplexität und Selbstorganisation weiß man, dass diese Veränderungen oder Krisen nicht immer in bessere andere stabile Zustände führen, sondern z.B. u.a. auch chaotische Zuständen mit sich bringen können. – Leider kann selbst die „beste“ Führung dies nur sehr bedingt beeinflussen, denn komplexe Systeme sind in ihrem Verhalten nicht vorhersehbar. 

In agilen organisationalen Transformationen begegnen uns ähnliche Probleme: Agile Inseln in Organisationen helfen selten alleine, eine Organisation zu verändern. Falls der Markt, in dem eine Organisation aktiv ist, sich nicht verändert, sich also der Unternehmenskontext nicht massiv verändert, ist die Organisation selten bereit, sich zu verändern. Die deutsche Automobilindustrie brauchte Tesla als Kontextveränderer und selbst als der Kontext sich zusätzlich noch durch Corona, Klimakrise und Fridays for Future dramatisch änderte, war die Veränderungsbereitschaft ausgesprochen gering.

Auf die Politik bezogen, ist es auch so, dass es politische Inseln gibt, die in der Lage wären, eine Politik 4.0 [4] einzuführen. – Jedoch ohne Hilfe von „Außen“, also z.B. Corona, wird es Veränderung, wie wir sie aktuell sehen, eventuell geben, wenn, dann jedoch viel später. – Die Tatsache, dass Corona ein globales Phänomen ist, hilft zusätzlich die Veränderungsbereitschaft anzustoßen. – Auch und gerade in der Politik. Am Beispiel der überbordenden Luftfahrt oder des enormen Tourismus kann man erkennen, dass Corona zu einem globalen Umdenken beigetragen hat. Falls Corona z.B. lediglich auf Deutschland als Insel beschränkt gewesen wäre, so hätte dies ganz sicherlich zu keiner nachhaltigen Verhaltensänderung geführt. Auch deswegen, weil unsere Politik in ein globales politisches Netzwerk eingebunden ist.

Betrachten wir es positiv: Corona ist ein aktueller Rahmenparameter der Selbstorganisation, der den Kontext verändert und damit neue emergente Strukturen ermöglicht.

Nun sollten wir nicht auf weitere Krisen, wie Corona warten, sondern bewusst selbst Kontextveränderungen herbeiführen. – Eine nachhaltige Ethik für Mensch, Tier und Natur mit entsprechenden gesetzlichen Rahmenbedingungen ist ein Schritt in diese Richtung. – Jedoch gesetzliche Rahmenbedingungen alleine, ohne eine Veränderung des gesellschaftlichen Glaubenssystems, sind nicht nachhaltig. Auch dies wissen wir aus der Praxis des Agilen Managements: Die Einführung von agilen Techniken ohne Mindset- bzw. Kulturwandel macht meistens die Situation nicht besser, sondern schlimmer!   

 

[1] Oswald Alfred (2020) The (in)visible hand oder von der Selbstorganisation des Marktes, https://agilemanagement40.com/the-invisible-hand-oder-von-der-selbstorganisation-des-marktes, zugegriffen am 21.08.2020

[2] Raworth Kate (2017) Doughnut Economics: Seven Ways to Think Like a 21st-Century Economist, Kindle Ausgabe, Cornerstone Digital

[3] Oswald Alfred (2019) Metakompetenz Selbstorganisation 4.0, https://agilemanagement40.com/metakompetenz-selbstorganisation-4-0, zugegriffen am 21.08.2020

[4] Oswald Alfred (2019) Politik 4.0: Politik im Angesicht von Komplexität und Selbstorganisation, von Schmetterlingseffekt, Tipping Point und selbstorganisierter Kritikalität, https://agilemanagement40.com/politik-4-0-politik-im-angesicht-von-komplexitaet-und-selbstorganisation-von-schmetterlingseffekt-tipping-point-und-selbstorganisierter-kritikalitaet, zugegriffen am 21.08.2020

Von Glaubenssätzen, Zeitreisen und der Digitalisierung

Projektmanager einer Organisation nehmen an dem inhouse-Seminar „Agiles Management 4.0 und der Digitale Wandel“ teil. Die Projektmanager lernen das Große Bild, ausgedrückt über die Faustregel „Agiles Management 4.0 = Agiles Mindset* Agile Governance * Agile und Klassische Techniken“ kennen und anwenden. Hierbei findet die Dilts Pyramide als Modell für das individuelle Mindset und das organisationale Mindset (Kultur) besonders viel Interesse.

Im Rahmen der Mittagspause kommt es zu einer recht intensiven Diskussion zwischen einigen Projektmanagern. Bernd stellt ziemlich vehement fest, dass die heute überall angebotenen Trainings zu Aufmerksamkeit und Achtsamkeit für die heute dreijährigen in 20 Jahren nicht mehr notwendig sein werden. Claudia widerspricht dieser Aussage und behauptet, dass sie dies ganz anders sähe und dass Aufmerksamkeit und Achtsamkeit auch in 20 Jahren für die dann 23-Jährigen von Bedeutung sein werden und dass entsprechende Trainings auch dann nicht ihre Bedeutung verloren haben werden. Die Aussagen werden mehrmals, mit steigender Aggressivität auf beiden Seiten, wiederholt. Um seine Argumentation zu unterstreichen führt Bernd u.a. an, dass man bei der Einführung der Dampflokomotiven vor den Gefahren, die durch eine Geschwindigkeit von 20 km/h hervorgerufen werden, sehr heftig warnte. Und wie wir ja heute wüssten, sei dies ja ziemlicher Unsinn.

Bernd weist hier unbewusst auf die Kontextabhängigkeit unserer mentalen Modelle und die damit verbundenen Aussagen hin: Nahezu niemand konnte sich zum damaligen Zeitpunkt – zu dem damals erfahrbaren Kontext – vorstellen, dass von 20 km/h keine Gesundheitsgefährdung ausgeht, da 20km/h zum damaligen Zeitpunkt schon unvorstellbar schnell gewesen sein muss. In unserem Buch „Projektmanagement am Rande des Chaos“ verstehen wir unter Aufmerksamkeit, die Fähigkeit, die Muster, die in unserer Umwelt enthalten sind, zu erkennen. Unter Achtsamkeit verstehen wir, die erkannten Muster zu respektieren, u.a die Motive, Werte und Grundannahmen der Anderen und zu erkennen wie diese mit den eigenen Motiven, Werten und Grundannahmen ein komplexes soziales System der Kommunikation hervorrufen. Aufmerksames und achtsames Handeln basiert also auf einer Kompetenz, die den Kontext wahrnimmt und gleichzeitig von diesem abstrahieren kann. Wir sprechen deshalb auch von einer Meta-Kompetenz.

Zurück im Trainingsraum, spürt der Trainer die angespannte Stimmung, die sich zwischen einigen der Teilnehmer breit gemacht hat und er fragt vorsichtig nach den Ursachen. Erst als er auf die Bedeutung der Werte Mut und Transparenz im Agilen Management 4.0 hinweist, erklärt sich Hans bereit die Situation am Mittagstisch zu schildern. Hans versichert sich vorher durch Blickkontakt eines leisen Einverständnisses der anderen. Nachdem Hans die Situation geschildert hat, sowie Claudia und Bernd die Darstellung von Hans bestätigen, fragt der Trainer, ob alle damit einverstanden sind, dieses Beispiel mit den Werkzeugen des Agilen Managements 4.0 zu bearbeiten und vielleicht sogar aufzulösen.

Der Trainer weist auf die Modellierung der Mindsets mittels der Dilts Pyramide hin und insbesondere auf die Verortung von Glaubenssätzen „oberhalb“ der Verhaltensebene, in der Ebene Werte und Grundannahmen. Er betont, dass die Aussagen von Claudia und Bernd auch als Glaubenssätze betrachtet werden können. Glaubenssätze sind Aussagen, die sich von ihrem jeweiligen Kontext, in dem sie gültig sind, verselbständigt haben und damit den Anspruch erheben in jedem Kontext gültig zu sein.

Um der Bedeutung des Kontextes auf die Spur zu kommen, schlägt der Trainer ein Gedankenexperiment, eine kleine Zeitreise, vor: Stellen wir uns vor, wir sind 20 Jahre später, die heute 3-Jährigen sind 23-Jährige, jedoch hat es keine nennenswerte technologische Entwicklung gegeben. Die 23-Jährigen sind lediglich mit den heute verfügbaren Smartphones, Smartpads und Smartwatches groß geworden. Auf diese Weise haben wir jetzt einen Kontext „definiert“. Und es stellt sich die Frage, wird dies zu einer solchen Veränderung der Gehirnstrukturen der 23-Jährigen führen, dass sie in einer Kommunikation mit oder ohne technische Hilfsmittel aufmerksam und achtsam kommunizieren werden. Wir können vermuten, dass die dann 23-Jährigen noch souveräner mit diesen technischen Hilfsmitteln umgehen. Nach allem was wir heute wissen, wird das Arbeiten mit Smartphone, Smartpad und Smartwatch wahrscheinlich Aufmerksamkeit und Achtsamkeit der dann 23-Jährigen in gleichem Maße beeinflussen wie es heute schon geschieht. – Man siehe hierzu auch Langzeitstudien an heute 13-jährigen bis 23-jährigen, wonach die intensive Nutzung von Smartphones Jugendliche einsamer und depressiver macht (Im Buch von Jean Twenge, Me, My Selfie and I). Wir können derzeit auf der Basis unserer aktuellen Kenntnisse also nicht davon ausgehen, dass die Verwendung von Smartphone, Smartpad und Smartwatch von frühester Jugend an, unsere neuronalen Strukturen so beeinflusst, dass sich dies auf eine Verbesserung von Aufmerksamkeit und Achtsamkeit auswirkt.  – Natürlich, auch diese Aussage ist ein Glaubenssatz, den wir aktuell nicht beweisen können. Jedoch haben wir durch das Ausleuchten des Kontextes diese Aussage relativiert und damit als Glaubenssatz sichtbar gemacht.

Stellen wir uns jetzt einen anderen Kontext vor: Es sind 20 Jahre vergangen, die dann 23-Jährigen verfügen zum Beispiel über Smartglasses mit eingebauter Artifical Intelligence (AI). Alle Kommunikation findet unter Verwendung der Smartglasses statt: Diese Smartglasses spielen zum Beispiel während der Kommunikation Informationen aus dem Internet ein, die zum Inhalt der Kommunikation passen. Gleichzeitig analysiert eine AI die Körpersprache, die Modalitäten der verbalen Sprache (u.a. Tonalität, Frequenz) und den Inhalt der verbalen Sprache der Gesprächspartner. Die AI liefert Informationen zur Persönlichkeit, dem Mindset und der Stimmung der Gesprächspartner und macht Vorschläge für eine resonante Kommunikation. Zusätzlich scannt die AI das gesamte soziale System und dessen Umgebung, identifiziert systemische Muster sowie bietet Vorschläge für eine gelungene Gruppen- oder Teamkommunikation an. Da alle Kommunikationspartner über diese Hilfsmittel verfügen, hat sich die Qualität der Kommunikation wahrscheinlich (?) zum Besseren verschoben. – Jedoch ist nicht davon auszugehen, dass alle Gesprächspartner die technischen Hilfsmittel gleich gut beherrschen und die bereitgestellten Informationen gleich gut und verantwortungsvoll in den Gesprächsfluss einfließen lassen werden. Achtsamkeit und Aufmerksamkeit werden also wahrscheinlich weiterhin ihren Platz behalten – auch ein Glaubenssatz – jedoch wird ein Training in 20 Jahren bei dem so skizzierten Kontext andere Lerninhalte haben müssen. – Das was wir heute also unter Aufmerksamkeit und Achtsamkeit verstehen wird wahrscheinlich in 20 Jahren einen anderen Inhalt haben.

Gehen wir noch einen Schritt weiter: Wir stellen uns vor, dass eine Gruppe von zukünftigen Projektmanagern ausgestattet mit den geschilderten Smartglasses über die Bedeutung von Aufmerksamkeit und Achtsamkeit in ihrer zukünftigen Welt diskutiert. Biotechnologische Neuroimplantate sind schon am technologischen Horizont sichtbar. Die Smartglasses werden wohl zukünftig durch entsprechende Kontaktlinsen und andere Sensorik ersetzt, gleichzeitig wird die AI noch intelligenter und die Kenntnisse zu neurobiologischen Zusammenhängen hat einen gewaltigen Sprung gemacht. Zukünftig, so diskutieren die Projektmanager, wird es möglich sein, dass die von der AI erkannten Kommunikationsmuster sofort durch geeignete Neuroimplantate in entsprechendes resonantes Verhalten umgesetzt werden… Schöne, neue Welt …?

Entfallen damit Aufmerksamkeit und Achtsamkeit? Wahrscheinlich nicht! Jedoch werden die Trainings völlig andere Trainingsinhalte enthalten bzw. enthalten müssen: Die AI und und die Neuroimplantate nehmen uns das Erkennen vieler Kommunikationsmuster und sogar die passende Reaktion dazu ab. Wenn wir damit aber nicht zu Robotern werden wollen, erfordert diese neue Welt eine erhebliche Aufmerksamkeit und Achtsamkeit gegenüber der Interaktion von Mensch und Technik. Aufmerksamkeit und Achtsamkeit werden damit (wieder) auf ein neues Niveau gehoben: Das Erkennen systemischer Muster und damit verbundenem nachhaltigem Handeln in einer Gruppen-Kommunikation verschiebt sich zu einem Erkennen systemischer Muster und entsprechendem nachthaltigen Handeln auf gesellschaftlicher Ebene. Und natürlich ist diese Skizze des Kontextes der Zukunft nur ein Szenario, aus dem sich Aussagen, verallgemeinert, nur als Glaubenssätze ableiten lassen. Wie in der 3sat scobel Sendung vom 24.05.2018 (www.3sat.de, Ethik der Algorithmen, Die Grenze zwischen Software und menschlichem Verhalten) diskutiert, wird es notwendig werden, Aufmerksamkeit und Achtsamkeit um gesamt-gesellschaftliche Aspekte zu ergänzen, denn die AI bringt weitere Komplexität mit sich und damit mehr Potential aber auch mehr Gefahren für die weitere Entwicklung.

Was hat dies Alles mit Agilem Management 4.0 zu tun?

Agilität beginnt im Kopf! Mit diesem Glaubenssatz verbunden ist die Aussage, dass Aussagen immer einen Kontext benötigen. Wenn der Kontext weggelassen wird, entstehen automatisch Glaubenssätze. Diese können uns helfen Komplexität zu meistern, denn sie helfen uns komplexe Sachverhalte zu vereinfachen. Wenn die Kontextabhängigkeit jedoch völlig vergessen wird, können sie Glaubenskriege hervorrufen. Wie in unserem Beispiel geschildert, führen nicht identifizierte Glaubenssätze zu mentalen Blockaden und damit zu einem Verschwinden der Fähigkeit sich anzupassen, und damit zu einem Verschwinden von Agilität.