AI & M 4.0: Hybride Collective Intelligence (CI) – Verarbeitungspipeline: Vom Business Plan über die Ziel-Hierarchie zum Projekt Plan – Ergänzungen

In diesem Blog-Beitrag ergänze ich den vorherigen Blog-Beitrag zur hybriden Collective Intelligence: Vom Business Plan über die Ziel-Hierarchie zum Projekt Plan.

Ich behandle drei Ergänzungen:

Textueller Projektstrukturplan: Ein Projekt Management Kollege hat sich ebenfalls unlängst in dem IPMA Blog [1] mit der Frage beschäftigt, ob eine KI einen Projektmanager bei der Erstellung eines Projektplans unterstützen kann. Seine Prompts hat er im Blog gelistet, jedoch nicht die von chatGPT erzeugten Ergebnisse. Ich kann auch nicht entnehmen, ob er chatGPT oder chatGPTplus verwendet hat. Die Ergebnisse sind nach seinen Aussagen durchweg positiv: Es wurde ein Gantt-Diagramm erzeugt. Da meine Ergebnisse im letzten Blog-Beitrag jedoch keineswegs so positiv waren, möchte ich dies nochmals überprüfen.

Big Picture mittels Bildgeneratoren: Die Ziel-Hierarchie als Ausgangspunkt für den Projektstrukturplan und damit für einen Projektplan stellt in der Selbstorganisation gemäß Management 4.0 den zentralen Ordnungsparameter dar. Dieser Ordnungsparameter wird auf der obersten Ebene, der Vision, im Idealfall durch ein Big Picture geankert. Also möchte ich die textuelle Vision, durch Bildgeneratoren wie DALL.E 2 [2] und Stable Diffusion [3], in eine Bilddarstellung umsetzen. – Midjourney wollte ich ebenfalls verwenden. – Jedoch habe ich darauf verzichtet, da Midjourney inzwischen kostenpflichtig ist. – Die neue Version DALL.E 3 ist zum Zeitpunkt der Blog-Erstellung noch nicht verfügbar.

Google Bard: Google hat gerade den chatBot Bard veröffentlich. Ich möchte die im letzten Blog-Beitrag aufgezeigte Collective Intelligence -Verarbeitungspipeline mit Bard überprüfen.

    

Textueller Projektstrukturplan:
Das erste Ergebnis hat mich überrascht: Weist man chatGPTplus an, auf der Basis der Ziel-Hierarchie des letzten Blog-Beitrages einen textuellen Projektstrukturplan zu erstellen, liefert chatGPTplus sogar mit den dort verwendeten Ressourcen und den Vorgangsabhängigkeiten (Vorgängern) einen sauberen Projektstrukturplan als Tabelle im Standard-Output-Format von chatGPTplus. Ein Gantt-Diagramm wird in einem Fenster, wie es für die Python-Code-Generierung verwendet wird, ausgegeben. In meinem Fall ist das Gantt-Diagramm horizontal und vertikal abgeschnitten, da offensichtlich zu viele Einträge vorliegen. Die Darstellung erinnert an die ehemalige Darstellung von Tabellen im MS-DOS Format. Da die Einträge zu lang sind, ist Alles durcheinander gewirbelt. – Also kein wirklich gutes Ergebnis. Da chatGPTplus in textueller Form einen perfekten Projektstrukturplan erzeugt hat, bitte ich das System um einen entsprechenden Python-Code für die Erzeugung einer CSV-Datei zum Import in MS Project. Leider war das System auch auf dieser Basis nicht in der Lage das textuelle Wissen in Code Wissen umzusetzen. – Es tauchten wieder die schon im vorherigen Blog geschilderten Unzulänglichkeiten auf. – Zwischen den beiden word embeddings (Text und Code) scheint es offensichtlich keine Brücke in chatGPTplus zu geben. Leider ist der textuelle Projektstrukturplan auch nicht in eine CSV-Datei kopierbar, so dass meines Erachtens der so gewonnene Nutzen überschaubar bleibt.

Big Picture mittels Bildgeneratoren:
Wie schon in den vorherigen Blog-Beiträgen angesprochen, halte ich von dem sogenannten Prompt-Engineering nichts: Es ist das menschliche Abtasten des word embeddings in dem AI System: In den meisten Fällen genügt es jedoch als Experte die Prompts zu formulieren und das AI-System reagiert entsprechend gut. Falls nicht, ist es nicht die Aufgabe des Menschen, sich auf das word embedding des AI-Systems einzustellen, sondern umgekehrt. – Openai trägt dieser Anforderung mit DALL.E 3 Rechnung.

In den Bildgeneratoren DALL.E 2 und Stable Diffusion führt die Prompt-Eingabe der Küchenmanufaktur Vision zu nicht vorzeigbaren Ergebnissen. Meistens war noch nicht einmal irgendetwas von einer Küche zu sehen. Ich greife etwas voraus, denn ich habe google Bard gebeten, ein Bild zu erzeugen. Und tatsächlich erzeugt Bard eine textuelle Bild-Beschreibung, die die Vision des Unternehmens Küchenmanufaktur wiedergibt. Die Bild-Beschreibung ist umfangreich und erstaunlich kreativ. Einen Teil dieser Bild-Beschreibung habe ich den Bildgeneratoren als Prompt eingegeben – nur einen Teil, da die Anzahl der Zeichen für die Prompt-Eingabe begrenzt ist. Hier die Prompt-Eingabe in Englisch (das Bard Original ist in Deutsch):

Create an image for the following description:

In a modern kitchen studio, a family is sitting at the dining table enjoying a meal together. The kitchen is packed with smart kitchen appliances from KüchenManufaktur.
The refrigerator automatically detects what food is missing and orders it from an online retailer. The stove can be controlled by voice, so mom can concentrate fully on cooking. The dishwasher cleans itself after the meal.
The family is happy and satisfied with their smart kitchen appliances. They are grateful for the time saved, the convenience and the additional functions.
The mother sits at the stove and cooks a delicious dish. She smiles and is relaxed. The father is sitting at the dining table talking to the kids. The children are laughing and playing.
The refrigerator opens automatically and puts the needed ingredients on the stove. The stove starts to cook. The dishwasher cleans itself independently after the meal.

Die Ergebnisse der beiden Bildgeneratoren ist ernüchternd und gleichzeitig zum herzhaften Lachen: Abbildung 1 zeigt zwei ausgewählte Bilder, andere Bilder hatten oft Garnichts mit dem Thema zu tun oder glichen vorwiegend eher langweiligen Bildern aus Möbelhäusern der Jahre 1950-2000.

Man beachte im ersten Bild die Gemüseschüssel auf dem Boden – ohne Tisch, ohne Personen – generiert von Stable Diffusion und im zweiten Bild die verzerrten Gesichter und das Loch oben im Kühlschrank generiert von DALL.E 2.

Wenn Teams in Management 4.0 Trainings aufgefordert werden, das Ergebnis ihres KüchenManfuktur-Projektes zu skizzieren, zeichnen sie auch manchmal einen Kühlschrank, der an einer äußeren Hausmauer steht. Und, die Hausmauer und der Kühlschrank haben eine kleine Öffnung, durch die ein Lebensmittellieferdienst den Kühlschrank von außen befüllen kann, entsprechend der Anforderung, der Kühlschrank füllt sich von alleine :-).

Abbildung 1: Linkes Bild generiert von Stable Diffusion [2], rechtes Bild generiert von DALL.E 2 [3]

Nach meinen bisherigen guten Erfahrungen mit Bildgeneratoren ein enttäuschendes Ergebnis.

Google Bard:
Google hat gerade sein neuestes Generatives Neuronales Netzwerk, genannt Bard, veröffentlicht [4]. Ich möchte herausfinden, ob Bard in der Lage ist, einen Projektstrukturplan als CSV-Input für MS Project zu erzeugen: Ich durchlaufe die Verarbeitungspipeline, ähnlich wie für chatGPTplus, und lasse ein Business Model Canvas und eine Ziel-Hierarchie erzeugen. Das Business Model Canvas und die Ziel-Hierarchie sind meines Erachtens nicht ganz so geeignet, wie diejenigen von chatGPTplus. Bard liefert dafür, wie weiter oben schon verwendet, eine sehr gute Bild-Beschreibung der KüchenManufaktur Vision.

Ich bitte um die Erstellung eines textuellen Projektstrukturplans auf der Basis des unten angegebenen Prompts [5]. Abbildung 2 zeigt einen Auszug des erstaunlich guten Ergebnisses: Bard hat das Konzept der Sammelvorgänge recht gut verstanden, wenngleich noch Probleme bei der Dauer-Aggregation vorliegen und die geforderte Vorgänger-Logik nicht vorhanden ist.

Abbildung 2: Screen-Shot der Bard Web-Oberfläche mit einem Auszug des textuellen Projektstrukturplans.

Bard bietet an, diesen textuellen Projektstrukturplan als google sheet zu exportieren. Leider funktioniert dies nicht, das Sheet ist leer.

Bei der Erzeugung eines Python-Programmes für einen CSV-Import des Projektstrukturplans in MS-Project scheitert Bard schon bei der korrekten Erstellung der CSV-Datei. – Rückgemeldete Fehler werden als behoben gemeldet, jedoch sind sie nicht behoben. – Hier ist chatGPTplus deutlich besser!

Zusammenfassend stelle ich fest, dass sowohl chatGPTplus als auch Bard noch erhebliche ‚Kinderkrankheiten‘ haben und derzeit ein Einsatz im Projekt Management noch mit recht vielen Hürden und Unzulänglichkeiten verbunden ist.

[1] Ram J (2023) Role Prompting and Creation of a Project Management Plan – How ChatGPT could help in the creation of information that can be used for writing a project management plan?, https://ipma.world/role-prompting-and-creation-of-a-project-management-plan/, veröffentlicht am 21.08.2023, zugegriffen am 21.09.2023

[2] Stable Diffusion (2023) https://stablediffusionweb.com/#demo, zugegriffen am 21.09.2023

[3] DALL.E 2 (2023) https://openai.com/dall-e-2, zugegriffen am 21.09.2023

[4] Bard (2023) bard.google.com, zugegriffen am 21.09.2023

[5] Prompt für google Bard zur Erzeugung eines Projektstrukturplans:
Weiter oben hast Du einen Vorschlag für eine Ziel-Hierarchie gemacht, wir nehmen diese Ziel-Hierarchie und wollen hieraus einen Projektstrukturplan erstellen. Der Projektstrukturplan soll die Spalten Vorgang, Dauer, Ressource und Vorgänger enthalten. Vorgänge sind die Sub-Ziele. Die übergeordneten Ziele in der Ziel-Hierarchie sind spezielle Vorgänge, sogenannte Sammelvorgänge. Bitte mache selbst für die Dauer der Vorgänge geeignete Vorschläge zu jedem Sub-Ziel. Als Ressourcen nehmen wir fünf Team-Mitglieder, die wir Peter, Claudia, Sonja, Thomas und Mechthild nennen. Bitte verteile die Ressourcen auf die Vorgänge. Falls eine Ressource mehreren Vorgängen zugeordnet wird, so berücksichtige, dass eine Ressource zu einem Zeitraum nur einen Vorgang bearbeiten soll. In der Spalte Vorgänger soll angegeben werden welcher Vorgang welchem anderen Vorgang vorausgeht, um sicherzustellen, dass eine Ressource nur einen Vorgang zu einem Zeitraum bearbeitet. Behalte die Nummerierung der Ziel-Hierarchie für den Projektstrukturplan bei und verwende in der Spalte Vorgänger diese Nummern, um den Vorgänger zu kennzeichnen.

AI & M 4.0: Hybrid Collective Intelligence in Organisation und Gesellschaft

Dieser Blogbeitrag ergänzt meinen vorherigen Blogbeitrag, insbesondere die dort gelisteten Kernaussagen des Buches „The Age of AI: And Our Human Future“ des ehemaligen amerikanische Außenminister Kissinger sowie des ehemaligen google CEO Schmidt und des MIT Professor Huttenlocher [1].

Hybrid (Collective) Intelligence liegt vor, wenn unsere menschliche (kollektive) Intelligenz durch die (kollektive) Intelligenz von Artificial Intelligence ergänzt wird und sich damit eine Erweiterung der Wahrnehmung unserer Realität ergibt, so dass wir komplexe Fragestellungen beantworten können, die wir ohne AI nicht oder nur mit deutlich größerem Aufwand beantworten könnten. Diese Definition lehnt sich an diejenige in [2] an.

Hybrid (Collective) Intelligence führt insbesondere für das Projekt Management zu drei zentralen Veränderungen:

  • Der Innovationsprozess wird sich substanziell verändern, da ein oder mehrere AI Systeme den F&E Suchraum allein oder in Zusammenarbeit mit Menschen erheblich erweitern und verändern werden [3].
  • Das (Projekt) Management hat zu berücksichtigen, dass Aufgaben zwischen Mensch und AI, alleine oder zusammen, zu verteilen sind. – Entscheidungsprozesse werden sich in dieser Zusammensetzung erheblich verändern [4]. – Man siehe hierzu auch die Liste an AI/ML Erweiterungen im letzten Blog-Beitrag.
  • AI Systeme werden in nahezu alle Projektlösungen einfließen und damit wird AI zur Kernkompetenz in der Projektarbeit. Gleichzeit sind die Auswirkungen der AI Projektlösungen für die Stakeholder, die Gesellschaft und die Natur zu berücksichtigen.

Ich verwende als Definition von Intelligenz eine recht unübliche Definition, die meines Erachtens aber umso treffender ist. Diese Definition wurde wohl erstmals von Alex Wissner-Gross vorgeschlagen [5, 6]: “Intelligence is the ability to maximize future options in order to accomplish complex tasks.” – Diese Definition lässt sich u.a. in eine mathematische Gleichung übersetzen und ist universell auf alle Objekte (belebte, unbelebte, soziale) anwendbar. Im Kontext von AI bedeutet dies zum Beispiel, dass eine AI zur Natural Language Processing (NLP) nicht nur die trainierten Texte oder recht ähnliche in Frage-Antwort Situationen wiedererkennt, sondern die Flexibilität besitzt auch Fragen zu beantworten, die nicht genau den trainierten Fragen entsprechen. Neben der neuronalen Architektur des Neuronalen Netzwerkes wird dies vor allem durch die vielen Parameter-Freiheitsgrade erreicht. – Die Freiheitsgrade von State-of-The-Art AI NLP Systemen umfassen aktuell mehrere 100 Million Parameter.

Die Fähigkeit zukünftige Optionen zu maximieren, ist also die Fähigkeit Freiheit bzw. freies Handeln unter antizipierten zukünftigen Randbedingungen zu maximieren. Falls wir nicht wollen, dass die AI „ihre Freiheit“ (in Zukunft) auf Kosten unserer Freiheit maximiert, ist es notwendig, Randbedingungen für sie zu setzen. Dies bedeutet die Einführung einer Governance für Hybride (Collective) Intelligence (kurz HCI Governance), die zudem adaptiv, also in einem PDCA-Zyklus, in die Zukunft fortzuschreiben ist.
Die Einführung einer HCI Governance wird umso notwendiger, je mehr sich die AI von einer schwachen AI zu einer starken (und allgemeinen) AI oder Superintelligenz entwickelt [7, 8]. – Die genaue Verortung des aktuellen Intelligenzgrades der AI-Systeme und deren zukünftiger Entwicklung ist jedoch nicht wesentlich, denn wir wissen heute schon, dass eine HCI Governance Not tut, da neben den Segnungen der Realitätserweiterungen durch AI auch schon Freiheitseinschränkungen (u.a. Diskriminierungen, fake news, Beeinflussung von demokratischen Wahlen) durch AI aufgetreten sind.

Peeters et al. haben unlängst in ihrem sehr lesenswerten Artikel „Hybrid Collective Intelligence in a Human-AI Society“ drei verschiedene Basis-Haltungen zum Umgang mit AI identifiziert [9]:

  • Technology-centric perspective
  • Human-centric perspective
  • Collective-Intelligence perspective

Das Bemerkenswerte ihrer Analyse, die durch das niederländische Verteidigungsministerium gesponsort wurde, ist, dass sie für jede dieser Haltungen (im Artikel sprechen sie von „perspectives“) Glaubenssysteme und dazugehörige Kontexte identifiziert haben. – Also ganz im Sinne von Management 4.0.

Ich nenne hier, als Beispiel, nur jeweils einen Glaubenssatz pro Haltung:

  • Technology-centric perspective: “When sufficiently developed, AI technology can applied to solve any problem.”
  • Human-centric perspective: “Artificial intelligence only exhibits part of human cognition and is therefore insufficient for many real-world problems.”
  • Collective-intelligence perspective: “Intelligence should not be studied at the level of individual humans or AI-machines, but at the group level of humans and AI-machines working together.”

In [10] werden die EU-Haltung und die USA-Haltung miteinander verglichen: Die EU-(Administrations-)Haltung ist tendenziell eine human-centric perspective und die USA-Haltung ist tendenziell eine technology-centric perspective. – Hieraus erklären sich u.a. die diversen Bestrebungen der EU-Administration amerikanische AI-Konzerne wie google, meta/facebook, apple und amazon durch Gesetze und Strafen zu regulieren.  

Mit Hilfe dieser drei Basis-Haltungen bzw. -Perspektiven zur AI lässt sich auch die Grundhaltung in [1] beschreiben: Sie ist tendenziell eine human-centric perspective ergänzt um die technology-centric perspectice und die collective-intelligence perspective. Im Wissen um diese, aber insbesondere auch wegen der in den USA vorherrschenden technology-centric perspective, fordern die Autoren eine Regulation der AI, also die Einführung einer Governance für AI Systeme. Dies ist umso wichtiger, da auf der Basis der technology-centric perspective schon heute weltweit AI gestützte Waffensysteme entwickelt und genutzt werden.

Berühmte Vertreter der technology-centric perspective in den USA sind Peter Kurzweil [11] und die mit ihm verbundene Singularity University [12]. – Ein Kennzeichen dieser Haltung ist der Glaube, dass in absehbarer Zukunft, im Jahre 2045, die Fähigkeiten der AI diejenigen der Menschheit übersteigen werden.

In [9] wird betont, dass keine der obigen Basis-Haltungen richtiger oder besser ist, sondern dass der Kontext die Basis-Haltung bestimmen sollte. – Was leider nur selten geschieht. – In [13] wird die zentrale Bedeutung der Reflexion und der kritischen Auseinandersetzung mit dem sozialen Kontext, also den aktiven Werten, Glaubensätzen und Prinzipien für das Design, die Implementierung und die Operationalisierung von AI Systemen diskutiert. Falls die Metakompetenz für diese (Selbst-) Reflexion und kritische Auseinandersetzung nicht vorhanden ist, wird eine AI Ethik nicht angenommen und damit auch nicht verantwortungsvoll umgesetzt. In [14] habe ich die “Forderung” aufgestellt, dass Projekte mit hoher Komplexität, eine türkis/teal Kultur benötigen: “Ideally, this requires a mindset of all key stakeholders that also contains red, blue and orange value meme components (red means power orientation, blue means control and order orientation, and orange means entrepreneurship and linear-scientific-thinking orientation), but is mainly shaped by the transformational value meme components, namely green (compassion), yellow (nonlinear networked system thinking) and teal (holistic-transcendental orientation).” Alle Teammitglieder und insbesondere der Projektleiter sollten über die Metakompetenz verfügen, ihre eigenen Werte und Glaubenssätze im jeweiligen Kontext kritisch zu hinterfragen, um bewusst AI Systeme ethisch verantwortungsvoll zu designen, zu implementieren und zu operationalisieren.  

Meine persönlich präferierte Basis-Haltung ist die collective-intelligence perspective. Wenn ich AI Systeme erstelle liegt meine Haltung hingegen eher auf der technology-centric perspective und im Schreiben dieses Blog-Beitrages eher auf der human-centric perspective.    

Schaut man sich die Definitionen für AI der großen AI-Konzerne an, so lassen diese eine recht eindeutige AI-Haltung der jeweiligen Autoren erkennen:

IBM: “Artificial intelligence leverages computers and machines to mimic the problem-solving and decision-making capabilities of the human mind.” [15]: technology-centric perspective

Microsoft (deutsch): „Unter künstlicher Intelligenz (AI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“ [16]: collective-intelligence perspective

Microsoft (amerikanisch): “Artificial intelligence (AI) is the capability of a computer to imitate intelligent human behavior. Through AI, machines can analyze images, comprehend speech, interact in natural ways, and make predictions using data.” [17]: technology-centric perspective. – Die Microsoft AI Internetseite [18] „AI for Good“ zeigt hingegen eine eher human-centric oder collective-intelligence perspective.

Google CEO: “At its heart, AI is computer programming that learns and adapts. It can’t solve every problem, but its potential to improve our lives is profound. At Google, we use AI to make products more useful—from email that’s spam-free and easier to compose, to a digital assistant you can speak to naturally, to photos that pop the fun stuff out for you to enjoy.” [19]: collective-intelligence perspective

Die Internetseite von google [20] und diejenige von meta/facebook [21] lassen eine Mischung aus technology-centric- und collective-intelligence-perspective erkennen.

Die OECD hat im Jahre 2019 ihr Dokument „Artificial Intelligence in Society“ vorgelegt, und definiert dort ihre human-centric perspective, die sie auch so nennt [22]: Hiernach müssen AI Systeme u.a. Menschenwürde und -rechte sowie die Demokratie gewährleisten, indem sie u.a. transparent, nachvollziehbar, vertrauenswürdig, sicher und steuerbar sind und bleiben. – Eine gestaltende Auseinandersetzung mit dem sozio-technischen System Mensch-Künstliche Intelligenz, im Sinne des Designs einer Governance, findet jedoch nicht statt.

Eine ähnliche Aussage ergibt sich für Deutschland: In [23] werden unter dem Titel „The making of AI Society: AI futures frames in German political and media discourses” die sogenannten „AI future frames“ für Deutschland untersucht. – AI future frames sind mentale Rahmen, in denen die AI Zukunft gesetzt wird. Das Ergebnis ist eher ernüchternd: „By mirroring the past in the future, alternative future visions are excluded, and past and current assumptions, beliefs, and biases are maintained. Despite the allegedly disruptive potential of emerging AI.” Hiernach denkt die deutsche Politik die neoliberale Politik der letzten Jahrzehnte unter dem Label „AI Made in Germany“ oder AI German einfach fort: „successful innovation = welfare generating future = political stability“. Die Lippenbekenntnisse der deutschen politischen Administration bis zur Wahl 2021 sind human-centric; im Tun überlassen sie die AI Governance dem Markt und eine AI Ethik explizit den deutschen Industrieunternehmen. – Eine entsprechende politische Governance, die den zentralen Aussagen in [1] Rechnung trägt, gibt es nicht. – Eine Einbettung in eine europäische AI Strategie fehlt völlig!

Die EU Kommission hat letztes Jahr in [24] einen Vorschlag für ein Regulationspapier erstellt, das in erster Linie als harmonisierende Referenz für die EU Administration dienen soll: Ein seitenstarkes Papier mit vielen Details; ich vermisse mal wieder ein Großes Bild, das zu einem Collective Mind in der EU (Administration) führen könnte. 

Wie könnten die Eckpfeiler eines Großen Bildes einer AI bzw. HCI Governance aussehen? Hier ein Vorschlag:

Rahmenparameter:

Landesspezifische AI Governance Systeme sind in eine europäische AI Governance eingebettet. – Die Strukturen der AI Governance sind auf allen europäischen Ebenen ähnlich. – Die (europäische) AI Governance folgt in ihrer Struktur einer Ziel-Hierachie: Vom Großen Bild zum Detail. Der transformative Charakter der AI Governance ist in die Governance einer ökologisch-ökonomischen Transformation (u.a. Nachhaltigkeit für Natur, Tier und Mensch, hin zu einer an sozialer Gerechtigkeit und Gleichheit orientierten Ökonomie, die Wachstum nicht als Allheilmittel verkauft) eingebettet

Kontrollparameter:

Die Kontrollparameter orientieren sich an den zentralen Aussagen aus [1]: Eine europäische AI Ethik und Gesetzgebung sorgt für eine Regulation der AI Freiheiten. Die AI Ethik und Gesetzgebung wird von der Politik gestaltet. Z.B. heißt dies, dass der Wert AI Transparenz politisch definiert wird und gesetzlich verankert wird.- Dies könnte zum Beispiel heißen, dass AI Systeme in Europa vor staatlichen Organen nach Bedarf offengelegt werden müssen.

Da AI Systeme unsere Welt transformieren, ist es notwendig dafür zu sorgen, dass die Schere zwischen AI-Wissenden und AI-Nichtwissenden nicht zu einer Verschärfung von Ungleichheit führt. Ein entsprechendes Bildungskonzept ist notwendig: AI gehört als Pflichtfach in die Schulen und AI gehört in die Curricula aller universitären Disziplinen.

Ordnungsparameter:             

Als Großes Bild für den Ordnungsparameter schlage ich vor „European Ecosystem for Hybrid Collective Intelligence“. Die Ausgestaltung dieses Großen Bildes heißt u.a. dass neben einer gemeinsamen europäischen AI Governance eine gemeinsame AI Infrastruktur aufgebaut wird. – Es werden Mechanismen bereitgestellt, die das Silo-Denken und -Handeln von Industrie und politischen Administrationen auflösen. U.a. wird eine „AI für Jedermann“ aufgebaut und die die obigen drei Sichten human-centric, technology-centric und collective intelligence integriert: Die sozio-technische HCI Integration wird also bewusst europäisch gestaltet.  

 

[1] Kissinger H A, Schmidt E, Huttenlocher D (2021) The Age of AI: And Our Human Future, kindle edition
[2] Dominik Dellermann, Adrian Calma, Nikolaus Lipusch, Thorsten Weber, Sascha Weigel, Philipp Ebel (2021) The future of human-AI collaboration: a taxonomy of design knowledge for hybrid intelligence systems, arXiv.org > cs > arXiv:2105.03354
[3] Dragos‑Cristian Vasilescu, Michael Filzmoser (2021) Machine invention systems: a (r)evolution of the invention process?, Journal AI & Society, January 2021
[4] Phanish Puranam (2021) Human–AI collaborative decision‑making as an organization design Problem, Journal of Organization Design (2021) 10:75–80
[5] Alex Wissner-Gross (2022) A new equation for intelligence, https://www.youtube.com/watch?v=auT-pA5_O_A, march 2020, zugegriffen am 07.02.2022
[6] Ron Schmelzer (2022) https://www.forbes.com/sites/cognitiveworld/2020/02/27/cant-define-ai-try-defining-intelligence/?sh=6f658a955279, Forbes Blog February 2020, zugegriffen am 07.02.2022
[7] Bernard Marr (2022) The Key Definitions Of Artificial Intelligence (AI) That Explain Its Importance, Forbes Blog February 2018, https://www.forbes.com/sites/bernardmarr/2018/02/14/the-key-definitions-of-artificial-intelligence-ai-that-explain-its-importance/?sh=219cbb1f4f5d , zugegriffen am 07.01.2022
[8] Wikipedia (2022) Artificial Intelligence, https://en.wikipedia.org/wiki/Artificial_intelligence, zugegriffen am 07.02.2022
[9] Peeters M M M, van Diggelen J, van den Bosch K, Bronhorst A, Neerinex M A, Schraagen J M, Raaijmakers S (2021) Hybrid Collective Intelligence in a Human-AI Society, in AI & Society Journal, March 2021
[10] Roberts H, Cowls J, Hine E, Mazzi E, Tsamados A, Taddeo M, Floridi L (2021) Achieving a ‘Good AI Society’: Coparing the Aims and Progress of the EU and the US, SSRN Journal, January 2021
[11] Kurzweil R (2022) https://www.kurzweilai.net/, zugegriffen am 07.02.2022
[12] Singularity University (2022) https://www.su.org/ , zugegriffen am 07.02.2022
[13] Krijger J (2021) Enter the metrics: critical theory and organizational operationalization of AI ethics, Journal AI & Society, September 2021
[14] Oswald A (2022) The Whole – More than the Sum of Its Parts! Self-Organization – The Universal Principle! in Ding R, Wagner R, Bodea CN (editors) Research on Project, Programme and Portfolio Management – Projects as an Arena for Self-Organizing, Lecture Notes in Management and Industrial Engineering, Springer Nature
[15] IBM (2022) Artificial Intelligence, https://www.ibm.com/cloud/learn/what-is-artificial-intelligence, zugegriffen am 07.02.2022
[16] Microsoft (2022) Künstliche Intelligenz, https://news.microsoft.com/de-at/microsoft-erklart-was-ist-kunstliche-intelligenz-definition-funktionen-von-ki/, zugegriffen am 07.02.2022
[17] Microsoft (2022) Artificial Intelligence Architecture, https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/ai-overview, zugegriffen am 07.02.2022
[18] Microsoft (2022) AI for Good, https://www.microsoft.com/en-us/ai/ai-for-good, zugegriffen am 07.02.2022
[19] Sundar Pichai (2022) AI at Google: our principles, https://www.blog.google/technology/ai/ai-principles/, Blog of CEO google, june 2018, zugegriffen am 07.02.2022
[20] Google (2022) Google AI: Advancing AI for everyone, https://ai.google/, zugegriffen am 07.02.2022
[21] Meta AI (Facebook) (2022) Bringing the world closer together by advancing AI, https://ai.facebook.com/, zugegriffen am 07.02.2022
[22] OECD (2019) Artificial Intelligence in Society, Online Version, https://www.oecd-ilibrary.org/sites/eedfee77-en/index.html?itemId=/content/publication/eedfee77-en&_csp_=5c39a73676a331d76fa56f36ff0d4aca&itemIGO=oecd&itemContentType=book
[23] Köstler L, Ossewaarde R (2020) The making of AI Society: AI futures frames in German political and media discourses, in AI & Society Journal, February 2021, Springer Nature
[24] Europäische Kommission (2021) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52021PC0206, zugegriffen am 07.02.2022