AI & M 4.0: Hybrid Collective Intelligence in Organisation und Gesellschaft

Dieser Blogbeitrag ergänzt meinen vorherigen Blogbeitrag, insbesondere die dort gelisteten Kernaussagen des Buches „The Age of AI: And Our Human Future“ des ehemaligen amerikanische Außenminister Kissinger sowie des ehemaligen google CEO Schmidt und des MIT Professor Huttenlocher [1].

Hybrid (Collective) Intelligence liegt vor, wenn unsere menschliche (kollektive) Intelligenz durch die (kollektive) Intelligenz von Artificial Intelligence ergänzt wird und sich damit eine Erweiterung der Wahrnehmung unserer Realität ergibt, so dass wir komplexe Fragestellungen beantworten können, die wir ohne AI nicht oder nur mit deutlich größerem Aufwand beantworten könnten. Diese Definition lehnt sich an diejenige in [2] an.

Hybrid (Collective) Intelligence führt insbesondere für das Projekt Management zu drei zentralen Veränderungen:

  • Der Innovationsprozess wird sich substanziell verändern, da ein oder mehrere AI Systeme den F&E Suchraum allein oder in Zusammenarbeit mit Menschen erheblich erweitern und verändern werden [3].
  • Das (Projekt) Management hat zu berücksichtigen, dass Aufgaben zwischen Mensch und AI, alleine oder zusammen, zu verteilen sind. – Entscheidungsprozesse werden sich in dieser Zusammensetzung erheblich verändern [4]. – Man siehe hierzu auch die Liste an AI/ML Erweiterungen im letzten Blog-Beitrag.
  • AI Systeme werden in nahezu alle Projektlösungen einfließen und damit wird AI zur Kernkompetenz in der Projektarbeit. Gleichzeit sind die Auswirkungen der AI Projektlösungen für die Stakeholder, die Gesellschaft und die Natur zu berücksichtigen.

Ich verwende als Definition von Intelligenz eine recht unübliche Definition, die meines Erachtens aber umso treffender ist. Diese Definition wurde wohl erstmals von Alex Wissner-Gross vorgeschlagen [5, 6]: “Intelligence is the ability to maximize future options in order to accomplish complex tasks.” – Diese Definition lässt sich u.a. in eine mathematische Gleichung übersetzen und ist universell auf alle Objekte (belebte, unbelebte, soziale) anwendbar. Im Kontext von AI bedeutet dies zum Beispiel, dass eine AI zur Natural Language Processing (NLP) nicht nur die trainierten Texte oder recht ähnliche in Frage-Antwort Situationen wiedererkennt, sondern die Flexibilität besitzt auch Fragen zu beantworten, die nicht genau den trainierten Fragen entsprechen. Neben der neuronalen Architektur des Neuronalen Netzwerkes wird dies vor allem durch die vielen Parameter-Freiheitsgrade erreicht. – Die Freiheitsgrade von State-of-The-Art AI NLP Systemen umfassen aktuell mehrere 100 Million Parameter.

Die Fähigkeit zukünftige Optionen zu maximieren, ist also die Fähigkeit Freiheit bzw. freies Handeln unter antizipierten zukünftigen Randbedingungen zu maximieren. Falls wir nicht wollen, dass die AI „ihre Freiheit“ (in Zukunft) auf Kosten unserer Freiheit maximiert, ist es notwendig, Randbedingungen für sie zu setzen. Dies bedeutet die Einführung einer Governance für Hybride (Collective) Intelligence (kurz HCI Governance), die zudem adaptiv, also in einem PDCA-Zyklus, in die Zukunft fortzuschreiben ist.
Die Einführung einer HCI Governance wird umso notwendiger, je mehr sich die AI von einer schwachen AI zu einer starken (und allgemeinen) AI oder Superintelligenz entwickelt [7, 8]. – Die genaue Verortung des aktuellen Intelligenzgrades der AI-Systeme und deren zukünftiger Entwicklung ist jedoch nicht wesentlich, denn wir wissen heute schon, dass eine HCI Governance Not tut, da neben den Segnungen der Realitätserweiterungen durch AI auch schon Freiheitseinschränkungen (u.a. Diskriminierungen, fake news, Beeinflussung von demokratischen Wahlen) durch AI aufgetreten sind.

Peeters et al. haben unlängst in ihrem sehr lesenswerten Artikel „Hybrid Collective Intelligence in a Human-AI Society“ drei verschiedene Basis-Haltungen zum Umgang mit AI identifiziert [9]:

  • Technology-centric perspective
  • Human-centric perspective
  • Collective-Intelligence perspective

Das Bemerkenswerte ihrer Analyse, die durch das niederländische Verteidigungsministerium gesponsort wurde, ist, dass sie für jede dieser Haltungen (im Artikel sprechen sie von „perspectives“) Glaubenssysteme und dazugehörige Kontexte identifiziert haben. – Also ganz im Sinne von Management 4.0.

Ich nenne hier, als Beispiel, nur jeweils einen Glaubenssatz pro Haltung:

  • Technology-centric perspective: “When sufficiently developed, AI technology can applied to solve any problem.”
  • Human-centric perspective: “Artificial intelligence only exhibits part of human cognition and is therefore insufficient for many real-world problems.”
  • Collective-intelligence perspective: “Intelligence should not be studied at the level of individual humans or AI-machines, but at the group level of humans and AI-machines working together.”

In [10] werden die EU-Haltung und die USA-Haltung miteinander verglichen: Die EU-(Administrations-)Haltung ist tendenziell eine human-centric perspective und die USA-Haltung ist tendenziell eine technology-centric perspective. – Hieraus erklären sich u.a. die diversen Bestrebungen der EU-Administration amerikanische AI-Konzerne wie google, meta/facebook, apple und amazon durch Gesetze und Strafen zu regulieren.  

Mit Hilfe dieser drei Basis-Haltungen bzw. -Perspektiven zur AI lässt sich auch die Grundhaltung in [1] beschreiben: Sie ist tendenziell eine human-centric perspective ergänzt um die technology-centric perspectice und die collective-intelligence perspective. Im Wissen um diese, aber insbesondere auch wegen der in den USA vorherrschenden technology-centric perspective, fordern die Autoren eine Regulation der AI, also die Einführung einer Governance für AI Systeme. Dies ist umso wichtiger, da auf der Basis der technology-centric perspective schon heute weltweit AI gestützte Waffensysteme entwickelt und genutzt werden.

Berühmte Vertreter der technology-centric perspective in den USA sind Peter Kurzweil [11] und die mit ihm verbundene Singularity University [12]. – Ein Kennzeichen dieser Haltung ist der Glaube, dass in absehbarer Zukunft, im Jahre 2045, die Fähigkeiten der AI diejenigen der Menschheit übersteigen werden.

In [9] wird betont, dass keine der obigen Basis-Haltungen richtiger oder besser ist, sondern dass der Kontext die Basis-Haltung bestimmen sollte. – Was leider nur selten geschieht. – In [13] wird die zentrale Bedeutung der Reflexion und der kritischen Auseinandersetzung mit dem sozialen Kontext, also den aktiven Werten, Glaubensätzen und Prinzipien für das Design, die Implementierung und die Operationalisierung von AI Systemen diskutiert. Falls die Metakompetenz für diese (Selbst-) Reflexion und kritische Auseinandersetzung nicht vorhanden ist, wird eine AI Ethik nicht angenommen und damit auch nicht verantwortungsvoll umgesetzt. In [14] habe ich die “Forderung” aufgestellt, dass Projekte mit hoher Komplexität, eine türkis/teal Kultur benötigen: “Ideally, this requires a mindset of all key stakeholders that also contains red, blue and orange value meme components (red means power orientation, blue means control and order orientation, and orange means entrepreneurship and linear-scientific-thinking orientation), but is mainly shaped by the transformational value meme components, namely green (compassion), yellow (nonlinear networked system thinking) and teal (holistic-transcendental orientation).” Alle Teammitglieder und insbesondere der Projektleiter sollten über die Metakompetenz verfügen, ihre eigenen Werte und Glaubenssätze im jeweiligen Kontext kritisch zu hinterfragen, um bewusst AI Systeme ethisch verantwortungsvoll zu designen, zu implementieren und zu operationalisieren.  

Meine persönlich präferierte Basis-Haltung ist die collective-intelligence perspective. Wenn ich AI Systeme erstelle liegt meine Haltung hingegen eher auf der technology-centric perspective und im Schreiben dieses Blog-Beitrages eher auf der human-centric perspective.    

Schaut man sich die Definitionen für AI der großen AI-Konzerne an, so lassen diese eine recht eindeutige AI-Haltung der jeweiligen Autoren erkennen:

IBM: “Artificial intelligence leverages computers and machines to mimic the problem-solving and decision-making capabilities of the human mind.” [15]: technology-centric perspective

Microsoft (deutsch): „Unter künstlicher Intelligenz (AI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“ [16]: collective-intelligence perspective

Microsoft (amerikanisch): “Artificial intelligence (AI) is the capability of a computer to imitate intelligent human behavior. Through AI, machines can analyze images, comprehend speech, interact in natural ways, and make predictions using data.” [17]: technology-centric perspective. – Die Microsoft AI Internetseite [18] „AI for Good“ zeigt hingegen eine eher human-centric oder collective-intelligence perspective.

Google CEO: “At its heart, AI is computer programming that learns and adapts. It can’t solve every problem, but its potential to improve our lives is profound. At Google, we use AI to make products more useful—from email that’s spam-free and easier to compose, to a digital assistant you can speak to naturally, to photos that pop the fun stuff out for you to enjoy.” [19]: collective-intelligence perspective

Die Internetseite von google [20] und diejenige von meta/facebook [21] lassen eine Mischung aus technology-centric- und collective-intelligence-perspective erkennen.

Die OECD hat im Jahre 2019 ihr Dokument „Artificial Intelligence in Society“ vorgelegt, und definiert dort ihre human-centric perspective, die sie auch so nennt [22]: Hiernach müssen AI Systeme u.a. Menschenwürde und -rechte sowie die Demokratie gewährleisten, indem sie u.a. transparent, nachvollziehbar, vertrauenswürdig, sicher und steuerbar sind und bleiben. – Eine gestaltende Auseinandersetzung mit dem sozio-technischen System Mensch-Künstliche Intelligenz, im Sinne des Designs einer Governance, findet jedoch nicht statt.

Eine ähnliche Aussage ergibt sich für Deutschland: In [23] werden unter dem Titel „The making of AI Society: AI futures frames in German political and media discourses” die sogenannten „AI future frames“ für Deutschland untersucht. – AI future frames sind mentale Rahmen, in denen die AI Zukunft gesetzt wird. Das Ergebnis ist eher ernüchternd: „By mirroring the past in the future, alternative future visions are excluded, and past and current assumptions, beliefs, and biases are maintained. Despite the allegedly disruptive potential of emerging AI.” Hiernach denkt die deutsche Politik die neoliberale Politik der letzten Jahrzehnte unter dem Label „AI Made in Germany“ oder AI German einfach fort: „successful innovation = welfare generating future = political stability“. Die Lippenbekenntnisse der deutschen politischen Administration bis zur Wahl 2021 sind human-centric; im Tun überlassen sie die AI Governance dem Markt und eine AI Ethik explizit den deutschen Industrieunternehmen. – Eine entsprechende politische Governance, die den zentralen Aussagen in [1] Rechnung trägt, gibt es nicht. – Eine Einbettung in eine europäische AI Strategie fehlt völlig!

Die EU Kommission hat letztes Jahr in [24] einen Vorschlag für ein Regulationspapier erstellt, das in erster Linie als harmonisierende Referenz für die EU Administration dienen soll: Ein seitenstarkes Papier mit vielen Details; ich vermisse mal wieder ein Großes Bild, das zu einem Collective Mind in der EU (Administration) führen könnte. 

Wie könnten die Eckpfeiler eines Großen Bildes einer AI bzw. HCI Governance aussehen? Hier ein Vorschlag:

Rahmenparameter:

Landesspezifische AI Governance Systeme sind in eine europäische AI Governance eingebettet. – Die Strukturen der AI Governance sind auf allen europäischen Ebenen ähnlich. – Die (europäische) AI Governance folgt in ihrer Struktur einer Ziel-Hierachie: Vom Großen Bild zum Detail. Der transformative Charakter der AI Governance ist in die Governance einer ökologisch-ökonomischen Transformation (u.a. Nachhaltigkeit für Natur, Tier und Mensch, hin zu einer an sozialer Gerechtigkeit und Gleichheit orientierten Ökonomie, die Wachstum nicht als Allheilmittel verkauft) eingebettet

Kontrollparameter:

Die Kontrollparameter orientieren sich an den zentralen Aussagen aus [1]: Eine europäische AI Ethik und Gesetzgebung sorgt für eine Regulation der AI Freiheiten. Die AI Ethik und Gesetzgebung wird von der Politik gestaltet. Z.B. heißt dies, dass der Wert AI Transparenz politisch definiert wird und gesetzlich verankert wird.- Dies könnte zum Beispiel heißen, dass AI Systeme in Europa vor staatlichen Organen nach Bedarf offengelegt werden müssen.

Da AI Systeme unsere Welt transformieren, ist es notwendig dafür zu sorgen, dass die Schere zwischen AI-Wissenden und AI-Nichtwissenden nicht zu einer Verschärfung von Ungleichheit führt. Ein entsprechendes Bildungskonzept ist notwendig: AI gehört als Pflichtfach in die Schulen und AI gehört in die Curricula aller universitären Disziplinen.

Ordnungsparameter:             

Als Großes Bild für den Ordnungsparameter schlage ich vor „European Ecosystem for Hybrid Collective Intelligence“. Die Ausgestaltung dieses Großen Bildes heißt u.a. dass neben einer gemeinsamen europäischen AI Governance eine gemeinsame AI Infrastruktur aufgebaut wird. – Es werden Mechanismen bereitgestellt, die das Silo-Denken und -Handeln von Industrie und politischen Administrationen auflösen. U.a. wird eine „AI für Jedermann“ aufgebaut und die die obigen drei Sichten human-centric, technology-centric und collective intelligence integriert: Die sozio-technische HCI Integration wird also bewusst europäisch gestaltet.  

 

[1] Kissinger H A, Schmidt E, Huttenlocher D (2021) The Age of AI: And Our Human Future, kindle edition
[2] Dominik Dellermann, Adrian Calma, Nikolaus Lipusch, Thorsten Weber, Sascha Weigel, Philipp Ebel (2021) The future of human-AI collaboration: a taxonomy of design knowledge for hybrid intelligence systems, arXiv.org > cs > arXiv:2105.03354
[3] Dragos‑Cristian Vasilescu, Michael Filzmoser (2021) Machine invention systems: a (r)evolution of the invention process?, Journal AI & Society, January 2021
[4] Phanish Puranam (2021) Human–AI collaborative decision‑making as an organization design Problem, Journal of Organization Design (2021) 10:75–80
[5] Alex Wissner-Gross (2022) A new equation for intelligence, https://www.youtube.com/watch?v=auT-pA5_O_A, march 2020, zugegriffen am 07.02.2022
[6] Ron Schmelzer (2022) https://www.forbes.com/sites/cognitiveworld/2020/02/27/cant-define-ai-try-defining-intelligence/?sh=6f658a955279, Forbes Blog February 2020, zugegriffen am 07.02.2022
[7] Bernard Marr (2022) The Key Definitions Of Artificial Intelligence (AI) That Explain Its Importance, Forbes Blog February 2018, https://www.forbes.com/sites/bernardmarr/2018/02/14/the-key-definitions-of-artificial-intelligence-ai-that-explain-its-importance/?sh=219cbb1f4f5d , zugegriffen am 07.01.2022
[8] Wikipedia (2022) Artificial Intelligence, https://en.wikipedia.org/wiki/Artificial_intelligence, zugegriffen am 07.02.2022
[9] Peeters M M M, van Diggelen J, van den Bosch K, Bronhorst A, Neerinex M A, Schraagen J M, Raaijmakers S (2021) Hybrid Collective Intelligence in a Human-AI Society, in AI & Society Journal, March 2021
[10] Roberts H, Cowls J, Hine E, Mazzi E, Tsamados A, Taddeo M, Floridi L (2021) Achieving a ‘Good AI Society’: Coparing the Aims and Progress of the EU and the US, SSRN Journal, January 2021
[11] Kurzweil R (2022) https://www.kurzweilai.net/, zugegriffen am 07.02.2022
[12] Singularity University (2022) https://www.su.org/ , zugegriffen am 07.02.2022
[13] Krijger J (2021) Enter the metrics: critical theory and organizational operationalization of AI ethics, Journal AI & Society, September 2021
[14] Oswald A (2022) The Whole – More than the Sum of Its Parts! Self-Organization – The Universal Principle! in Ding R, Wagner R, Bodea CN (editors) Research on Project, Programme and Portfolio Management – Projects as an Arena for Self-Organizing, Lecture Notes in Management and Industrial Engineering, Springer Nature
[15] IBM (2022) Artificial Intelligence, https://www.ibm.com/cloud/learn/what-is-artificial-intelligence, zugegriffen am 07.02.2022
[16] Microsoft (2022) Künstliche Intelligenz, https://news.microsoft.com/de-at/microsoft-erklart-was-ist-kunstliche-intelligenz-definition-funktionen-von-ki/, zugegriffen am 07.02.2022
[17] Microsoft (2022) Artificial Intelligence Architecture, https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/ai-overview, zugegriffen am 07.02.2022
[18] Microsoft (2022) AI for Good, https://www.microsoft.com/en-us/ai/ai-for-good, zugegriffen am 07.02.2022
[19] Sundar Pichai (2022) AI at Google: our principles, https://www.blog.google/technology/ai/ai-principles/, Blog of CEO google, june 2018, zugegriffen am 07.02.2022
[20] Google (2022) Google AI: Advancing AI for everyone, https://ai.google/, zugegriffen am 07.02.2022
[21] Meta AI (Facebook) (2022) Bringing the world closer together by advancing AI, https://ai.facebook.com/, zugegriffen am 07.02.2022
[22] OECD (2019) Artificial Intelligence in Society, Online Version, https://www.oecd-ilibrary.org/sites/eedfee77-en/index.html?itemId=/content/publication/eedfee77-en&_csp_=5c39a73676a331d76fa56f36ff0d4aca&itemIGO=oecd&itemContentType=book
[23] Köstler L, Ossewaarde R (2020) The making of AI Society: AI futures frames in German political and media discourses, in AI & Society Journal, February 2021, Springer Nature
[24] Europäische Kommission (2021) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52021PC0206, zugegriffen am 07.02.2022