Transformatives Bogenschießen: Von ‚agilen‘ Überzeugungen oder „von den Türen, die wir heute aufmachen, durch die wir morgen gehen [1]“

Im letzten Blogbeitrag habe ich mein neues Seminar Transformatives Bogenschießen erstmalig vorgestellt.

In diesem Blog-Beitrag skizziere ich die Wirkweise von Transformativem Bogenschießen.

Transformatives Bogenschießen (TB) kann eine Ressource sein oder als Katalysator für die individuelle Veränderungsarbeit, d.h. für die mentale Problembehandlung, eingesetzt werden.

TB als Ressource bedeutet, dass dem Menschen wichtige Aspekte, wie die Gesundheit, die Kraft, die Ruhe oder die Intuition, gestärkt werden. Ich skizziere hierzu zwei Beispielen aus meiner TB-Selbsterfahrung – Gesundheit sowie Ruhe und Intuition:

Gesundheit: Nach ca. zwei Stunden Bildschirmarbeit, habe ich Probleme, meine Augen auf den Bildschirm zu fokussieren. Dies wird zunehmend von einem Gefühl von Unwohlsein und Stress begleitet. – Wahrscheinlich wurde dies durch die Bildschirmarbeit, während der langen virtuellen Meetings in der Coronazeit ausgelöst oder beschleunigt. Ich nutze Bogenschießen für meine Gesundheit, indem ich in meinem Garten schieße: Beim Fokussieren auf größere Distanzen werden meine Augen entlastet und dies beseitigt schon nach kurzer Zeit das Unwohlsein.

Ruhe und Intuition: Beim intuitiven Bogenschießen wird nicht explizit gezielt, sondern man vertraut sich und den Schuss dem Körpergefühl an. Gehen dem Bogenschießen keine stressigen Stunden voraus, bin ich mit meinem Trefferbereich zufrieden. – Körpergefühl und mentale Ausrichtung sind im Einklang. Im Falle von vorausgehenden stressigen Stunden, u.a. durch zu viel Bildschirmarbeit, ist der Trefferbereich wesentlich schlechter. Die erforderliche Ruhe und die Intuition bilden sich jedoch durch TB nach einer gewissen Zeit wieder erfolgreich aus. Der Trefferbereich wird deutlich besser: Körper und Geist entspannen sich und geraten wieder in Einklang. – Sehr wesentlich ist, dass sich im Bogenschießen das Gefühl für Zeit ändert. Die Intuition verbindet in dem Zeitraum des Loslassens der Sehne die Fäden der Vergangenheit und Gegenwart zu einem Faden der Zukunft. – Insbesondere für Menschen, die unter Zeit die Uhrzeit verstehen, ist dies eine besondere Erfahrung von Zeit [1].
TB ist kein körperliches Auspowern wie bei vielen anderen Sportarten, sondern sorgt, wie in diesem Beispiel, für eine ruhige Pflege der Intuition. Transformatives Bogenschießen als Ressource für Ruhe und Intuition entspricht im Wesentlichen dem Meditativen Bogenschießen [2].

Bogenschießen als Ressource entwickelt sich nur, wenn man bereit ist, das im Seminar Gelernte regelmäßig anzuwenden. – Denn die Ressource wird sich erst nach einigen Wochen des Übens entfalten.

Nach dem Erlernen der Techniken des Bogenschießens und dem Erfahren des Bogenschießens als Ressource, ist die individuelle Veränderungsarbeit der dritte Teil des Seminars. Hierbei ist zu beachten, dass der Durchgang durch das sogenannte ‚Transformative Tor‘ in die Veränderungsarbeit nur sinnvoll ist, wenn die Teilnehmer die Technik des Bogenschießens gut (genug) beherrschen. Falls die Teilnehmer die Technik des Bogenschießens kennen, aber wiederholt nicht umsetzen können, ist dies ein starkes Indiz für ein mentales Problem, gemäß der Erfahrung „Bogenschießen wirkt wie ein Spiegel der Seele“. Die mentale Ausrichtung, erworben in der Vergangenheit, „verzerrt“ die Schieß- und Ziel-Technik. Die Teilnehmer nehmen diese „Verzerrung“ meistens selbst wahr und ziehen auch sehr oft eine Verbindung zu ihrem Alltag. Lediglich in einigen Fällen ist es angebracht, dass der Trainer „anstupsend“ hilft. Selbstverständlich sind diese Erkenntnisse zuerst einmal nur Hypothesen. Der Trainer unterstützt die Teilnehmer bei der nachfolgenden Analyse und dem Auflösen des Problems sowie dem Transfer in den jeweiligen individuellen Alltag.

In dem Video [2] kann man erkennen, dass die Technik der Teilnehmer nicht gut ausgebildet ist: Entweder wurde vom Trainer nicht auf eine gute Technik geachtet oder das erkennbare, nicht gut Ankern ist ein Indiz für ein mentales Problem. Gutes Ankern bedeutet, dass die Sehne vollständig ausgezogen wird und die Hand mit der ausgezogenen Sehne und dem Pfeil an der Wange angelegt wird, also geankert, wird. Nehmen wir zur Illustration hier an, dass das schlechte Ankern im Video ein Indiz für ein mentales Problem sei. Möglich Probleme könnten zum Beispiel sein: Berührungsangst, zu große Aggressionshemmung oder fehlende Durchsetzungskraft. Die Identifikation des Problems erfolgt im Schießen, indem die Teilnehmer:in die ‚Unsauberkeit‘ in der Technik selbst wahrnimmt und dieser eine Bedeutung zuschreibt. Dies geschieht oft durch Metaphern, z.B. für das obige Beispiel Berührungsangst könnte die Metapher heißen „Ich kann die Kluft nicht überbrücken“. Ist die Metapher da und wurde durch die Teilnehmer:in die Verbindung zum Alltag hergestellt, wird das Problem im Bogenschießen aufgelöst: Es wird zum Beispiel erfolgreich über eine Kluft geschossen. Der abschließende Transfer in den Alltag wird besiegelt. – Die Erfahrung zeigt, dass diese Form der transformativen Veränderungsarbeit sehr erfolgreich ist, d.h. die Veränderung setzt tatsächlich ein.    

Dieser Teil des TB-Seminars ist auf das Seminar beschränkt, da hierfür im Normalfall eine professionelle Begleitung durch einen Trainer oder einen Coach für Transformatives Bogenschießen notwendig ist.

Die oben geschilderten Problembeispiele aber auch die in einer Organisation vorliegenden Widerstände für die erfolgreiche Umsetzung von Transformationen, also grundlegende Veränderungen, beruhen auf Überzeugungen. Im Management 4.0 verwenden wir die Dilts Pyramide [3], um die enorme Bedeutung von Überzeugungen (Glaubenssätzen, Grundannahmen, Prinzipien) für die Veränderung sichtbar zu machen. Die Dilts Pyramide visualisiert, dass Überzeugungen Abstraktionen sind, die aus der Erfahrung in einem jeweiligen Kontext abgeleitet werden. Die individuelle Persönlichkeit stellt eine Disposition für Überzeugungen dar oder anders ausgedrückt, Überzeugungen spiegeln nicht wider, was man weiß, sondern, drücken aus, wer man ist [4].



Abbildung 1: Vier Bilder erzeugt von der Künstlichen Intelligenz DALL-E 2 [5] mit dem Prompt ‚A painting in the style of Chagall: Transformative archery opens doors‘

Kommen wir zu einer Erklärung, warum TB wirkt!

Ich verwende hierzu die Theorie des Predictive Processing wie sie von Philipp Sterzer in [4] skizziert wird. Sterzer ist Psychiater und Neurowissenschaftler. Er zeigt auf der Basis von wissenschaftlichen Fakten, dass die fundamentalen Mechanismen von Überzeugungen für sogenannte ‚normale‘ Überzeugungen, Verschwörungsüberzeugungen, wahnhafte Vorstellungen und schizophrenen Wahn gleich sind.

Nach der Predictive Processing Theorie, also der Theorie der vorhersagenden Verarbeitung, arbeitet unser Gehirn mit einem hypothetischen Modell der Welt. Dieses Modell wird im Idealfall fortwährend an die Weltdaten angepasst, um so neue Vorhersagen zu erzeugen. Überzeugungen sind Teil jenes inneren Modells der Welt, das unser Gehirn für Vorhersagen nutzt.  Überzeugungen sind „Hypothesen über allgemeine und zeitlich stabile Gesetzmäßigkeiten“, die wir in der Welt wahrgenommen haben. Unser Gehirn folgt einem Plan-Do-Check-Act Zyklus: Es werden Hypothesen gebildet, auf der Basis von Hypothesen wird gehandelt, das Handeln wird überprüft und dann ggf. angepasst. Es gibt eine Hierarchie von Vorhersagen, eine Hierarchie vom kognitiven Abstraktem zum sinnlich Konkreten, die es ermöglich Komplexität zu regulieren und Unsicherheit abzubauen. – Ich verweise auch hier auf die Zielhierarchie (vom Big Picture zum Detail) im Management 4.0, die genau diese Funktion hat [6].
Hinzu kommt, dass Vorhersage und Sinnesdaten nach ihrer Präzision, ihrer beigemessenen Wahrscheinlichkeit, gewichtet werden. Nach der Predictive Processing Theorie erzeugen wir Vorhersagen auf der Basis der Differenz von Vorhersage- und Sinnesdaten-Präzision. Die Größere der beiden Präzisionen leitet unsere Vorhersagen und unser Handeln. Der Neuromodulator Dopamin ist von großer Bedeutung für die Balance der beiden Präzisionen. Dopamin wird nicht nur bei Sport und Freude ausgeschüttet, sondern auch bei Stress. Dopamin verändert die Sinnes-Wahrnehmung und übergewichtet die Sinnesdaten-Präzision. Dies kann auch zu Halluzinationen oder Wahnvorstellungen führen: „Die empirischen Befunde …. sprechen für ein (Präzisions-) Ungleichgewicht zwischen Vorhersagen und Sinnesdaten als Grundlage für die Entstehung von Psychosen. Die Folge des Dopaminüberschusses ist somit, dass Sinnesreize, die sonst keine Beachtung fänden, als bedeutsam registriert werden. Man spricht von aberranter Salienz, was so viel heißt wie fehlgeleitete Auffälligkeit.“ Fehlgeleitete Auffälligkeiten erzeugen Angst, und erfordern eine Korrektur des Weltbildes. Und dieses Weltbild muss so konstruiert sein, dass es die fehlgeleitete Auffälligkeit erklärt, also Komplexität reguliert [4].

Das Übergewichten der Vorhersage-Präzision der Überzeugungen kann zur Irrationalität führen, die allerdings adaptiv ist und einen evolutionären Vorteil bringt. Ein Beispiel [4]:

Ein Spaziergänger identifiziert im Dunkeln eine auf dem Boden erkennbare Schlangenform als Schlange. Es gibt keine Evidenz wonach dies tatsächlich eine Schlange ist, jedoch sind die Kosten dieser Erkenntnis eventuell geringer als der Biss einer Schlange, wenn sich die Schlangenform dann wirklich leider als Schlange herausstellen sollte. – Auch wenn sich bei vorsichtigem Annähern herausstellen sollte, dass es nur ein Ast in Schlangenform ist. In diesem Sinn können irrationale Überzeugungen adaptiv sein und stellen evolutionär einen Vorteil dar.

In diesem Beispiel ist die sogenannte Sinnesdaten-Präzision gering. Der Vergleich von Vorhersage-Präzision und Sinnesdaten-Präzision fällt zu Gunsten der Vorhersage-Präzision aus: Die Überzeugung erhält Vorrang. Das Gehirn ist also genau genommen eine „Präzisionsgewichtungsmaschine“ [4].

Im ‚Idealfall‘ sollten Vorhersage-Präzision und Sinnesdaten-Präzision nahe beieinander liegen. – In diesem Fall stellt sich Agilität ein, deshalb habe ich auch im Titel des Blogs von ‚agilen‘ Überzeugungen gesprochen. Problematisch wird es, wenn eine der Präzisionen dominiert. Würde im unserem Beispiel der Schlangenform, die Vorhersage-Präzision stark dominieren, wird im schlimmsten Fall keine Überprüfung in der Wirklichkeit mehr stattfinden. Die Schlangenform wäre dann definitiv eine Schlange. Würde im Beispiel die Sinnesdaten-Präzision überwiegen, wird eine potenzielle Gefahr nicht mehr wahrgenommen, erst dann, wenn es schon zu spät ist.       

Die Wirkung von TB lässt sich auf der Basis der Predictive Processing Theorie wie folgt erklären:

  • Falls Bogenschießen mit Freude erfolgt – insbesondere, wenn Bogenschießen als Ressource empfunden wird – wird die Dopaminausschüttung angeregt.
  • Die Sinnesdaten-Präzision bekommt eine größere Bedeutung, ggf. wird sie übergewichtet.
  • Die Wahrnehmung öffnet sich für das Erkennen einer ‚(kleinen) Unsauberkeit‘ in der Ziel- und Schiesstechnik.
  • Diese Offenheit ermöglicht das Erfahren von Problem-Zusammenhängen im Schießen und im Alltag. Die bisherige Überzeugung wird hinterfragt, die blockierende Vorhersage-Präzision untergewichtet.
  • Die Ausbildung von Metaphern und das Auflösen des Problems im Schießen schlägt die Brücke zum Alltag.
  • Eine neue Überzeugung wird neben die alte Überzeugung gesetzt. Die neue Überzeugung ist im Alltag zu stabilisieren, damit die neu Vorhersage-Präzision groß genug werden kann.

Überzeugungen sichtbar zu machen, in Frage zu stellen und ggf. durch neue Überzeugungen zu ersetzen, dies ist adaptiv, ist agil! – Überzeugungen sollten immer nur Hypothesen sein, die sich ggf. als falsch herausstellen.

Man könnte annehmen, dass ähnliche Sportarten (u.a. Speerwerfen, DART, Golf, …) wie Bogenschießen transformativ eingesetzt werden können. Dies mag sein, jedoch gebe ich zwei Aspekte zu bedenken: Bogenschießen knüpft sehr stark an unsere archaischen Wurzeln an, damit könnte u.a. ein hoher Dopamin-Ausstoß verbunden sein. Was aber viel wichtiger ist, dass die archaischen Wurzeln durch sehr viele Metaphern – wie ‚keinen Pfeil mehr im Köcher haben‘ oder ‚ins Schwarze getroffen haben‘ – in unserem Denken verwurzelt sind und diese Verbindungen mittels Jahrzehnten kreativer therapeutischer Veränderungsarbeit [7] gehoben worden sind.

Transformatives Bogenschießen dient dazu, zu lernen, Überzeugungen in Frage zu stellen. Damit werden Überzeugungen adaptiv und öffnen uns die Türen, durch die wir gehen (können).

Weitere Informationen zu den TB-Seminaren finden Sie unter https://www.socialtechnologies.de/training.

 

[1] Lesch H und Forstner U (202119) Zeit – Ein Physiker und eine Philosophin spielen mit der Zeit, Patmos Verlag, kindle Ausgabe

[2] Bayrischer Rundfunk (2022) Meditatives Bogenschießen https://www.youtube.com/watch?v=wY1NF3zguKc

[3] Oswald A, Müller W (2019) Management 4.0 – Handbook for Agile Practices, Release 3, BoD Verlag, Norderstedt Management 4.0

[4] Sterzer P (2022) Die Illusion der Vernunft – Warum wir von unseren Überzeugungen nicht zu überzeugt sein sollten, Ullstein Buchverlage GmbH, Berlin, kindle Ausgabe

[5] DALL-E 2 (2023) https://openai.com/dall-e-2/, zugegriffen am 04.01.2023

[6] Oswald A, Köhler J, Schmitt R (2016) Projektmanagement am Rande des Chaos, Springer, Heidelberg

[7] Schäfer K-H (2018) Therapeutisches Bogenschießen, 2. Auflage, Ernst Reinhardt Verlag München

Transformatives Bogenschießen – Erfahrungsorientierte Veränderungsarbeit für Projektleiter und Projektteams – Ein Seminar Angebot

Im September diesen Jahres habe ich an der psychosomatischen Klinik Wollmarshöhe [1] meine Prüfung zum Therapeutischen Bogenschießen abgelegt und bin damit für Therapeutisches Bogenschießen zertifiziert:

„Durch eine Prüfung wurde der Nachweis der Befähigung zur selbständigen Durchführung des Therapeutischen Bogenschießens erbracht. Die notwendigen technischen, sicherheitsrelevanten und kommunikations- bzw. beziehungsrelevanten Kenntnisse und Fähigkeiten zum Einsatz des Bogenschießens im therapeutischen Zusammenhang und mit therapeutischer Zielsetzung sind vorhanden.“ [2]

Mein Trainer und Prüfer war Karl-Heinz Schäfer, einer der profiliertesten Psychotherapeuten für Erfahrungsorientierte Therapie [3] und im deutschsprachigen Raum die erste Adresse für Therapeutisches Bogenschießen. Er hat seine Erfahrungen zum Therapeutischen Bogenschießen in seinem Buch mit gleichem Titel festgehalten [4].   

Da ich seit vielen Jahren im Projekt-Coaching und der organisationalen Veränderungsarbeit tätig bin und die Wirkung des Bogenschießens als Werkzeug der erfahrungsorientierten Veränderungsarbeit kennenlernte, biete ich ab 2023 das Seminar Transformatives Bogenschießen (TB) an. Dieses zweitägige TB-Seminar, mit maximal drei Teilnehmern, richtet sich vor allem an Projektleiter und andere agile Führungskräfte, die sich selbst erfahren möchten und lernen möchten, sich selbst (besser) zu führen. Gemäß Management 4.0 ist Selbstführung die Basis einer guten Führung.
Projektteams mit bis zu 6 Teilnehmern können auch in der Teambildung und in der Festigung des Teamgeistes von dem TB-Seminar profitieren. 

Was ist Transformatives Bogenschießen (TB)?

Transformatives Bogenschießen beruht auf den Prinzipien und Verfahren des Therapeutischen Bogenschießens, verändert und ergänzt diese soweit notwendig für den beruflichen Kontext des Projektmanagements und der Projektarbeit.

Das zweitägige TB-Seminar besteht aus drei Teilen:

  • dem Erlernen und Erfahren des Intuitiven Bogenschießens als Quelle für Achtsamkeit
  • dem Erfahren des Intuitiven Bogenschießens als Ressource für individuelle Resilienz
  • dem Erfahren des Intuitiven Bogenschießens als Katalysator für Veränderungsarbeit

Im Transformativen Bogenschießen „geht es nicht um (sportliche) Leistung, Perfektion, Erfolg, sondern um Erleben, Selbsterfahrung, Selbstausdruck und persönliche Entwicklung“ [4]. Im ersten Teil des Seminars werden alle Grundlagen des Guten Bogenschießens erlernt, also die Schuss- und die Ziel-Technik. Hierzu gehört die Standtechnik, das richtige Spannen und Ankern verbundenen mit einem guten Öffnen und Atmen. Einem entspannten Anspannen des gesamten Körpers, insbesondere der Rückenmuskulatur, verbunden mit einer ruhigen Lockerheit. Es geht um das Erlernen und Erleben einer ruhigen, kraftvollen Zielorientierung. Zielen heißt im Therapeutischen Bogenschießen Intuitives Zielen. Das Zielen erfolgt, nicht wie beim Schießen mit einem Gewehr, in dem über Kimme und Korn zum Ziel eine gedachte Linie gebildet wird, sondern in dem der Blick geweitet auf das Ziel gerichtet wird und dem Körper völlig vertraut wird. Dies gelingt nur, wenn der Schütze ganz bei sich ist, im Hier und Jetzt ist, also achtsam ist. Mit dem Fördern der Intuition ist ein ganzheitliches Entwickeln des Vertrauens in Sich verbunden. Intuitives Bogenschießen gehört zum traditionellen Bogenschießen. Es wird mit einem traditionellen Bogen ohne Zielvorrichtung und ohne weitere technische Hilfsmittel geschossen.

Abbildung 1: Intuitives Bogenschießen, erzeugt von der Künstlichen Intelligenz DALL-E 2 [5] mit dem Prompt ‚A painting in the van Gogh style with a beautiful landscape in which an archer with a wide view calmly and powerfully aims at a target.‘

Bogenschießen erzeugt bei den meisten Menschen eine positive Resonanz. Transformatives Bogenschießen knüpft bewusst an archaische Gefühle der Jagd an. Das positive Erleben der Kraft und die damit erlebte Selbstwirksamkeit, die achtsame Ruhe und die intuitive Zielorientierung, dies sind Ressourcen, die die mentale und körperliche Selbstheilung fördern. Das Erleben von Resilienz und Gesundheit ist oft verbunden mit einer aufrechteren Körperhaltung, einem lockeren körperlichen und mentalen Spannen und Entspannen, einem Sich-größer-Fühlen oder einem Fühlen von Befreiung. Bei regelmäßiger Anwendung hilft Transformatives Bogenschießen bei Rückenschmerzen, bei Bluthochdruck, Atembeschwerden und chronischen Schmerzen.

Transformatives Bogenschießen ist also in erster Linie kein Erlebnis, sondern eine Erfahrung: „Ein Erlebnis intensiviert das Leben. Eine Erfahrung verändert die Person.“ und „Jeder Pfeil ist eine Erfahrung.“ [4]
Transformatives Bogenschießen wirkt wie „ein Spiegel der Seele“ [4], der die mit der innere Haltung verbundenen Probleme sichtbar macht. Da die TeilnehmerInnen diese Probleme im Bogenschießen selbst erfahren, wirkt das TB wie ein Katalysator für die Veränderungsarbeit. Zum Beispiel werden Probleme – in der Zielorientierung, im Loslassen, einer fehlenden Gelassenheit, im Sich-Öffnen oder im Standpunkt einnehmen – für die TeilnehmerInnen direkt oder indirekt über Metaphern sichtbar und erfahrbar. Das Auflösen dieser Probleme im Bogenschießen, ermöglicht und beschleunigt die Veränderungsarbeit und führt zu einer Transformation im alltäglichen Leben.

Ziel dieses Seminars ist es, über Selbsterfahrung, die Selbstführung zu stärken und damit die Führungsqualität.

Das Seminar findet bei nahezu jedem Wetter in der Natur statt. Entsprechende Kleidung und Schuhe sind erforderlich. Weitere Informationen wie Termine, Ort und Teilnahmegebühren finden Sie auf der IFST-Internetseite unter Training [6]. 

  

[1] Klinik Wollmarshöhe (2022) https://www.wollmarshoehe.de, zugegriffen am 20.11.2022

[2] infer (2022), Institut für Erfahrungslernen, https://www.infer-institut.de/, zugegriffen am 20.11.2022

[3] Mehl K (2017) Erfahrungsorientierte Therapie, Integrative Psychotherapie und moderne Psychosomatik, Springer

[4] Schäfer K-H (2018) Therapeutisches Bogenschießen, 2. Auflage, Ernst Reinhardt Verlag München

[5] DALL-E 2 (2022) https://openai.com/dall-e-2/, zugegriffen am 26.11.2022

[6] Seminar Transformatives Bogenschießen (2022) https://www.socialtechnologies.de/training, zugegriffen am 26.11.2022

Vom „Grundrecht auf eine analoge Existenz“ oder von der Digitalität

Vor Kurzem bin ich auf den Spiegelartikel „Wir brauchen das Grundrecht auf eine analoge Existenz“ von Alexander Grau gestoßen [1], [2]. Dieser Artikel hat diesem Blog-Beitrag einen Teil des Titels gegeben.

Alexander Grau geht von folgender Grundannahme aus: „Digitalisierung ist längst keine Technologie mehr, sondern eine Ideologie…. Die Digitalisierung ist der Fetisch unserer Zeit… Allenfalls von ein paar Datenschützern oder Entwicklungspsychologen sind hin und wieder kritische Töne zu hören.“

Ist das so?

Andererseits gibt es AutorInnen wie Andrea Gadeib, die zwar eine optimistische Zukunft auf der Basis der Digitalen Transformation haben, gleichzeitig titelt ihr Buch „Die Zukunft ist menschlich: Manifest für einen intelligenten Umgang mit dem digitalen Wandel in unserer Gesellschaft.“ Der Titel manifestiert ihre statistische Erhebung, wonach im Jahre 2018 80% der deutschen Bevölkerung Angst vor der (unmenschlichen) Digitalisierung haben.

Das Recht auf eine analog Existenz – wie darf man dies verstehen? Heißt dies, dass das Recht auf eine analoge Existenz im Grundgesetz festgeschrieben wird und dass im Jahre 2050 jeder noch das Recht hat, mit Bargeld zu bezahlen, oder dass die Steuererklärung auch dann noch per Papier abgegeben werden darf, oder dass die Deutsche Bahn auch dann noch Schalter zur Verfügung stellen muss, an denen der Verkauf eines Papiertickets möglich ist, …oder, dass wir dann noch Autos oder Waschmaschinen haben werden bzw. haben müssen, die keine Chips enthalten, …oder…oder…oder…

Die Digitalisierung kann sicherlich Angst machen: Wenn sie einen überfordert oder wenn man glaubt, dass sie einem die Arbeit wegnimmt und man verarmt. Oder wenn man glaubt, dass Künstliche Intelligenzen uns beherrschen werden, oder dass Roboter die menschliche Interaktion ersetzen …oder…oder…, oder dass KI uns eines Tages auslöschen wird.

Alexander Grau zitiert den Politologe Patrick J. Deneen „Wir seien, so der Wissenschaftler, »autonom und frei, und doch genau den Technologien unterworfen, die uns das Gefühl von Unabhängigkeit vermitteln«.“.

Genau diese Aussage kann ich sehr gut nachvollziehen.- Sie ist vielleicht eine neue Erkenntnis, die Basis, auf der sie beruht, ist jedoch keineswegs so neu.

Wir ‚entscheiden uns ständig‘, Facebock, Twitter, LinkedIn und wie sie alle heißen zu nutzen, Influencern oder auch besonders rührigen Kollegen zu folgen und entsprechende Like‘s einzugeben. – Wir verlassen uns auf die Kaufempfehlungen von Amazon und Co., die wir selbst erzeugen. – Wir like‘n die ideologischen Empfehlungen verschiedener Politiker und trage damit zu deren Popularität bei….

Oder wir machen es mal ganz anders: Wir reagieren einfach mal mehrere Stunden oder Tage auf keine eMail oder Whats App Nachricht. Wir like‘n nicht jede Nachricht, die uns angeboten wird, und lesen mal ein Buch, das zwar mehr Fokus erfordert, statt den Kurzinfos diverser Kollegen oder Politiker zu folgen.

Diese letzte Form von Freiheit hat viel mit Bildung und Kompetenz, insbesondere Digitaler Bildung, und einer entsprechenden selbstreflektierenden Kompetenz zu tun. – Diese selbstreflektierende Kompetenz, die ich schon des Öfteren als Metakompetenz bezeichnet habe, wird umso wichtiger, je komplexer unser Leben wird. Digitale Kompetenz ist der Schlüssel, damit wir unsere Freiheit in der Digitalität (Digitalität = Digitale Realität) wahrnehmen können.

Mehrere Schritte zurück in die rein analoge Welt auf der Basis eines Grundrechtes nach einer analogen Existenz macht keinen Sinn. Diese Forderung ist naiv und mutet mich sogar dumm an. Es zeigt meines Erachtens auch ein Fehlen von Metakompetenz an. So schreibt Alexander Grau:

„Natürlich griffen schon Dampfmaschine, Elektrizität oder Verbrennungsmotor massiv in die Gesellschaft, unsere Arbeitswelt und unser Wertesystem ein. …Aber sie manipulierten nicht unser Denken. Anders die digitalen Technologien. Sie steuern unsere Gedanken und entwerfen unsere Träume. … Diese Entwicklung unterminiert die Basis liberaler Demokratien. … Nur der Mensch, der die Möglichkeit hat, ein analoges Leben zu führen, ist im eigentlichen Sinne frei. …Diese Freiheit zu schützen wäre die wichtigste und dringlichste Aufgabe des Staates. Doch der Staat schützt sie nicht. Stattdessen opfert er sie lieber wirtschaftlichen und technologischen Interessen, die als Notwendigkeiten deklariert werden. …“

Wer sich mit Auto-Enthusiasten unterhält, wird schnell feststellen, wie das Auto mit oder ohne Verbrennungsmotor und seine emotionale Aufladung als Freiheitssymbol über Jahrzehnte unser Denken manipuliert hat. Oder wie möge man erklären, dass über Jahrzehnte Landschaften auf dieser Basis gestaltet wurden und gerade heute die sogenannten nachhaltigen E-Autos immer dicker und umweltschädlicher werden. Unser individuelles und gesellschaftliches Denken ist massiv und großflächig von dieser Technologie manipuliert. – Es wird nicht so gesehen, weil es längst zum allgemeinen Gedankengut geworden ist.

Die Degrowth Bewegung [4] steht für eine Abkehr von jeglicher Technologie, da die ständige Weiterentwicklung der Technologie die Basis eines Wachstums ist, das uns mehr schädigt als es uns nützt.

Technologie ist per se nicht gut oder böse oder ideologisch, wir sind es. Was wir benötigen, ist ein Umgang mit der Technologie, der unser individuelles und gesellschaftliches Handeln in seinen örtlichen und zeitlichen Konsequenzen mit einpreist. Und genau das haben wir meines Wissens bei keiner Technologie bisher getan, beim Auto nicht und bei der Digitalisierung bisher auch nicht.

Man möge sich die Frage stellen, was gewesen wäre, wenn ehemals zu Gutenbergs Zeiten gefordert worden wäre ‚Jeder hat das Recht sich Schrift und Buch zu entziehen, das ist eine Technologie, die in unsere Freiheit eingreift, weil sie uns die Gedanken anderer, die uns manipulieren, dauerhaft zum Nach-Denken gibt.‘

Vor ein paar Wochen wurde mir das Buch ‚Walden‘ von Henry David Thoreau geschenkt [5], [6], [7]. Thoreau beschreibt in diesem Buch aus dem Jahre 1854 (!) seinen zweijährigen Aufenthalt in einer Waldhütte in Nordamerika. Ein Buch voller Metakompetenz. Mahatma Gandhi und Martin Luther King sollen von ihm beeinflusst worden sein, sowie die Naturbewegung und die Degrowth Bewegung. Ich möchte nur ein Zitat hier anführen, das viel mit unserer digitalen Like-Kultur zu tun hat: „Macht einer nach dem Essen ein halbstündiges Schläfchen. So reckt er, kaum ist er erwacht, den Hals und fragt: „Was gibt’s Neues?“ – als hätten die anderen unterdessen für ihn Posten gestanden. Manch einer lässt sich zu diesem Zweck alle dreißig Minuten wecken und erzählt einem dann zum Entgelt, wovon er geträumt hat. Am Morgen sind ihm die Nachrichten so unentbehrlich wie das Frühstück…Für den Philosophen sind alle sogenannten Nachrichten nur Klatsch, und wer dergleichen druckt oder liest, ist eine Klatschbase. Dabei sind nicht wenige auf diesen Klatsch versessen.“

Für mich liest sich dies wie eine Vorwegnahme unserer Like-Kultur, es zeigt aber auch, dass dazugehörige Muster schon sehr lange existieren!

Wer möchte schon in einer zukünftigen Welt leben, in der, mit Hilfe unseres eigenen unreflektierten Handelns, Bedeutungszuweisungen durch Like‘s zu gigantischen Bedeutungsattraktoren in sozialen Medien werden, denen sich dann nur noch wenige entziehen können. Und hier hat Alexander Grau sicherlich recht: Wir sind auf dem besten Weg, dass wir unsere Unfreiheit in einem Maße global und dynamisch selbst erschaffen, wie es in der Zeit vor der Jahrtausendwende nicht möglich gewesen ist. – Einige wenige analoge Enthusiasten werden dies jedoch keinesfalls aufhalten, selbst wenn die analoge Existenz im Grundrecht verbrieft sein sollte.

Es gibt derzeit (noch) keine ganzheitliche Ethik, die u.a. der Digitalisierung Zügel anlegt. – Die Zügel einer ganzheitlichen vorausschauenden Ethik hätten wir in der Vergangenheit schon des Öftern benötigt, ob es die extensive, noch anhaltende Nutzung des Autos ist, die rein betriebswirtschaftliche Ausrichtung von Landwirtschaft und Tierhaltung, die nicht-nachhaltige Ausrichtung der Energiewirtschaft …oder …oder …

In Kombination mit den damit verbundenen heraufdämmernden Katastrophen kann die unreflektierte Digitalisierung wie ein Brandbeschleuniger wirken. So könnten Millionen oder Milliarden armer Menschen ihre Digitalität dazu verwenden, um sich zusammen zu tun, um sich gegen die reichen Nationen des Nordens zu wenden. Populisten könnten die Digitalität dazu verwenden, um rechte oder linke Ideologien oder Verschwörungsideologien als Bedeutungsattraktoren einzuführen.

Deshalb ist es um so wichtiger, dass man die Digitale Realität in ihren grundlegenden Mustern versteht.

Felix Stalder definiert Digitalität als „jenes Set von Relationen, das heute auf der Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie in der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird“ [8].

Diese Relationen erzeugen zusätzliche Verbindungen in unserem Leben, die „drei Formen des Ordnens“ hervorrufen, „die dieser Kultur ihren spezifischen, einheitlichen Charakter verleihen: Referentialität, Gemeinschaftlichkeit und Algorithmizität“ [9], [10], [11].

Referentialität bedeutet die Menge an Bedeutungszuweisungen, die wir mit unseren Klicks, Likes oder anderen Formen der Bedeutungszuweisungen Dingen, Meinungen, Nachrichten und Ähnlichem zuschreiben.

Gemeinschaftlichkeit bedeutet, dass diese Bedeutungszuweisungen in einer gemeinschaftlichen Formation erfolgt, d.h. in einer Gruppe, einem digitalen Mopp, einer wissenschaftlichen, politischen, modischen, oder anderen Interessensgruppe.

Algorithmizität bezeichnet jene Aspekte der kulturellen Prozesse, die von Maschinen (vor-) geordnet werden.

Aus meiner Sicht sind diese drei Dimensionen wichtig und vorhanden, sie treffen jedoch auch für eine Dorfgemeinschaft zu. – Man siehe die zitierte Aussage von Thoreau weiter oben. –  Auch dort schreiben Menschen u.a. über Smalltalk Dingen, Meinungen und Nachrichten Bedeutung zu. Auch dort bildet sich über eine gemeinschaftliche Formation eine gemeinschaftliche Ordnung heraus. In der Sprache von Komplexität und Selbstorganisation sind dies Attraktoren, Bedeutungsattraktoren, die sich auf einem Bedeutungsmarkt ausbilden. Selbst die Algorithmizität gibt es meines Erachtens schon recht lange.- Es sind dann vielleicht keine Maschinen im eigentlichen Sinne, jedoch folgt man Kafka, dann übernehmen Bürokratien die Rolle intransparenter Algorithmen.

Meines Erachtens gibt es lediglich einen entscheidenden Unterschied, die Skalierung, die den Bedeutungsmärkten in der Digitalität eine neue Qualität verleiht:

Die Bedeutungszuweisungen werden von einzelnen Menschen in digitalen Plattformen vorgenommen. Diese Plattformen sind „beliebig“ skalierbar, d.h. „unendlich“ viele Menschen können hier ihre Bedeutungszuweisungen vornehmen. D.h. es können über individuelle Referenzialität auf sehr dynamische Weise gigantisch große gemeinschaftlich Bedeutungszuweisungen entstehen. Diese gemeinschaftlichen Bedeutungszuweisungen erzeugen ihre eigne Sogwirkung, sie werden zu Bedeutungsattraktoren, sie entziehen uns unsere Freiheit. – Leider haben wir sie selbst erzeugt. Digitale Algorithmen können die Ausbildung von Bedeutungsattraktoren dämpfen, verstärken oder beschleunigen.   

Auf den skalierbaren Plattformen bilden sich unter Umständen viele Bedeutungsmärkte (Bedeutungsmarktplätze) aus: Diese Bedeutungsmärkte können sich auf materielle und immaterielle Objekte beziehen. Bedeutungsattraktoren können Moderichtungen sein, politische Meinungen, Ideologien, Verschwörungsideologien, Hasstiraden, aber (auch ideologisch verbrämte) wissenschaftliche Ansichten. Diese Bedeutungsmärkte überschneiden sich recht oft auch mit den wirtschaftlichen Märkten, nämlich dann, wenn zum Beispiel bei Amazon zu einem Produkt Bewertungen abgegeben werden und diese Bewertungen das Kaufverhalten beeinflussen.

Skalierbarkeit und Bedeutungsmärkte können enormen räumlichen und zeitlichen Dynamiken unterliegen: Die Zusammensetzung der Agenten (Personen, Algorithmen) kann sich dynamisch in Qualität und Quantität ändern, so dass in kurzer Zeit Bedeutungen auf oder abgebaut werden. Diese Formen des Ordnens können auch zu exponentiellem organisationalem Wachstumsformen führen. Amazon, google und Co. sind Ergebnisse dieser neuen Dynamiken.     

Skalierbarkeit und Bedeutungsmärkte zeigen dann ihr ganzes negatives Potential, wenn die Agenten (Menschen oder Algorithmen) intransparent und ohne digitale Metakompetenz wirken.

Deshalb benötigen wir, wie im Blog-Beitrag vom August 2022 angesprochen, eine ganzheitliche Ethik und eine Veränderung des Bildungssystems, das eine ganzheitliche Kultur der Digitalisierung vermittelt.

[1] Grau A (2022) Alexander Grau, http://alexandergrau.de/index.html, zugegriffen am 17.09.2022

[2] Grau A (2022) Wir brauchen das Grundrecht auf eine analoge Existenz, https://www.spiegel.de/netzwelt/web/totaldigitalisierung-wir-brauchen-das-grundrecht-auf-eine-analoge-existenz-a-8db3e557-144d-490f-8570-5c3980392a0b?context=issue&sara_ecid=soci_upd_KsBF0AFjflf0DZCxpPYDCQgO1dEMph, zugegriffen am 17.09.2022

[3] Gadeib A (2019) Die Zukunft ist menschlich: Manifest für einen intelligenten Umgang mit dem digitalen Wandel in unserer Gesellschaft (Dein Business), GABAL Verlag GmbH, Kindle Ausgabe

[4] Wikipedia (2022) Degrowth, https://en.wikipedia.org/wiki/Degrowth

[5] Thoreau H D (1847) Walden, Reclam Taschenbuch, Deutsche Übersetzung aus dem Jahre 1972

[6] Wikipedia (2022), Henry David Thoreau, https://de.wikipedia.org/wiki/Henry_David_Thoreau, zugegriffen am 18.09.2022

[7] Wikipedia (2022), Transzendentialismus, https://de.wikipedia.org/wiki/Transzendentalismus, zugegriffen am 18.09.2022

[8] Stalder F (2016) Kultur der Digitalität, edition suhrkamp, Kindle Ausgabe

[9] Stalder F (2022) Grundformen der Digitalität, https://agora42.de/grundformen-der-digitalitaet-felix-stalder/

[10] Wikipedia (2022), Digitalität, https://de.wikipedia.org/wiki/Digitalit%C3%A4t#:~:text=Digitalit%C3%A4t%20bezeichnet%20die%20auf%20digital%20codierten%20Medien%20und,Menschen%2C%20zwischen%20Menschen%20und%20Objekten%20und%20zwischen%20Objekten, zugegriffen am 17.09.2022

[11] Hauck-Thum U, Noller J (Herausgeber) Was ist Digitalität?: Philosophische und pädagogische Perspektiven, Verlag J.B. Metzler, Kindle Ausgabe

AI & M 4.0: „Ein Bogenschütze mit einem fantastisch schönen Bogen und goldenen Pfeilen“ – Oder: Auf dem Weg zur Künstlichen Allgemeinen Intelligenz?

Im diesem Blogartikel beschäftige ich mich mit der Erstellung von Text-Zusammenfassungen und Bild-Metaphern. Dies sind wichtige Bereiche jeglicher Informations- und Wissens-Verarbeitung, insbesondere auch im Management und Projektmanagement. – Man siehe hierzu auch meinen Blog-Beitrag vom Dezember 2021.

Ich beschreibe im Folgenden die Benutzung der verwendeten AI-Werkzeuge etwas genauer. – Vielleicht mag der ein oder andere meine Erfahrungen weiterentwickeln.

Da die verwendeten AI-Werkzeuge mehrere Abstraktionsebenen über den in den letzten Blog-Beiträgen verwendeten AI-Werkzeugen liegen und jene über eine recht einfache Benutzerschnittstelle angesprochen werden können, spreche ich von Black-Box AI-Werkzeugen

Für die Erzeugungen von Bild-Metaphern verwende ich die KI midjourney und für die Erzeugung von Text-Zusammenfassungen die KI GPT-3.

Auf die KI midjourney wurde ich über den Artikel „Kunst per Künstlicher Intelligenz“ von Patrick Hannemann aufmerksam [1]. Er stellt dort die Kommunikationsplattform discord.com [2] vor, die die KI midjourney über einen Bot integriert enthält [3].

Ich widme mich zuerst den Bild-Metaphern: Bild-Metaphern können zum Beispiel bei der Ausbildung eines Collective Minds in Teams eine sehr große Rolle spielen. – Sie dienen u.a. der Teamausrichtung und -fokussierung.

Also habe ich ausprobiert, inwieweit sich midjourney für die Kreation von Bild-Metaphern eignet. – Ich starte mit einem Thema zu meinem Bogenschieß-Hobby und gebe dem Bot über den Prompt ‚/imagine…‘ folgende Aufgabe: Kreiere ein Bild zu der Aussage „Ein Bogenschütze mit einem fantastisch schönen Bogen und goldenen Pfeilen“.

Der Bot liefert mehrere Bilder als Vorschläge zurück. Abbildung 1 zeigt das von mir ausgewählte Bild:

Abbildung 1: Erzeugt von der AI midjourney mit der Aussage „Ein Bogenschütze mit einem fantastisch schönen Bogen und goldenen Pfeilen“ [3].

Für mich ist das Ergebnis beeindruckend kreativ und schön!

Ich habe daraufhin getestet, welche Bilder die AI aus der Kurzdefinition von Management 4.0 erzeugt. Abbildung 2 zeigt einen Screenshot-Auszug der vier generierten Bildvorschläge:

Abbildung 2: Screenshot-Auszug der vier Bildvorschläge zur Management 4.0 Definition (im Screenshot enthalten) [3].

Das war wohl etwas abstrakt, die generierten Bilder sind recht nichtssagend 😉.

Eine Kürzung auf die wesentlichen, in der Definition enthaltenen Themen erzeugt jedoch innerhalb von wenigen Sekunden vier recht gute Bild-Metapher Vorschläge:

Abbildung 3: Screenshot-Auszug der vier Bildvorschläge zur Aussage „leader, organization, mindset, self-organization“ (siehe obigen Screenshot) [3].

Ich habe das erste Bild für die weitere Generierung von Versionen ausgewählt und mich schließlich für folgende Bild-Metapher entschieden:

Abbildung 4: Von mir ausgewähltes Bild zur Aussage „leader, organization, mindset, self-organization“ [3].

Dies ist ein Ergebnis, generiert nach ca. 5 Minuten Interaktion mit dem AI-Bot. Wie ich finde: beeindruckend!

Für den Bereich Bild-Metaphern fasse ich zusammen: Selbst öffentlich verfügbare AI-Systeme liefern beeindruckende Bild-Metaphern auf der Basis von Themen (Topics). Topics können aus von AI-Systemen generierten Wissens-Netzwerken (man siehe den Juni 2022 Blog-Beitrag) entnommen werden oder über spezifische Topic AI-Systeme [4], [5] generiert werden.

Legt man folgende Definition für eine Künstliche Allgemeine Intelligenz zugrunde, “Artificial general intelligence (AGI) is the ability of an intelligent agent to understand or learn any intellectual task that a human being can.“ [6], so ist der AI-Bot midjourney vermutlich noch weit von einer AGI entfernt.

Gleichwohl stelle ich für mich selbst fest, dass ich wohl kaum in der Lage bin, mit ähnlicher Kreativität wie diese AI, die oben gezeigten Bilder zu erzeugen.

Überträgt man die Messung des Intelligenzquotienten für Menschen auf AI-Systeme, so dürfte eine Zusammenschaltung von mehreren AI-Systemen schon heute fantastisch hohe Intelligenzquotienten ergeben. Die AI-Systeme, die im Jahre 2019 verfügbar waren, liefern IQ-Werte die bei ca. 25%-50% eines mittleren menschlichen IQ von 100 liegen. – Ein IQ von 50 entspricht in etwa dem IQ eines 6-jährigen Kindes [7], [8], [9]. Sehr große AI-Systeme wie GPT-3, das ich weiter unten verwende, waren in diesen Untersuchungen noch nicht berücksichtigt. – Für GPT-3 dürfte der IQ schon deutlich näher bei 100 liegen.   

Sollte die AGI eines Tages Realität sein, so nehme ich an, dass keine 9 Milliarden AI-Systeme erforderlich sind, um das (kognitive) Intelligenzspektrum von 9 Milliarden Menschen abzubilden. – Wahrscheinlicher ist, dass einige wenige AI-Systeme das kognitive Intelligenzspektrum von Milliarden von Menschen abdecken werden, und dies mit wesentlich höheren IQ-Werten als wir Menschen im besten Fall haben.

Die Ergebnisse der Forschungsarbeit der GPM Fachgruppe Agile Management zum Thema NLP-Verarbeitung (Natural Language Processing Verarbeitung) von Projektmanagement Fragestellungen mittels AI-Systemen zeigen in diese Richtung.

Wir haben verschiedenen AI-Systemen PM Know-How Fragen gestellt, wie sie in einer Prüfung für das IPMA Level D vorkommen könnten. Das Ergebnis ist ziemlich beeindruckend: „Kleinere“ AI-Systeme liefern keine befriedigenden Ergebnisse, meistens sogar mangelhafte Ergebnisse. Jedoch liefert das große System GPT-3 von openai.com in allen! Fragen sehr gute oder gute Ergebnisse: GPT-3 hat hiernach das IPMA Level D Zertifikat mit gut bestanden! – Diese Ergebnisse haben wir auf der diesjährigen IPMA Research Konferenz vorgestellt [10], [11].

Ich widme mich jetzt den Text-Zusammenfassungen mittels GPT-3 [12], [13].

Ich nehme das Gesamtergebnis vorweg: Mein! Versuch mittels GPT-3 sinnvolle Zusammenfassungen von Texten zu erzeugen liefert (bisher) keine wirklich überzeugenden Ergebnisse. Es gibt also aktuell auch noch Wermutstropfen in dieser „schönen neuen AI-Welt“😉.

Ich habe dem AI-System GPT-3 die Aufgabe gestellt, für einen meiner Blog-Artikel eine Zusammenfassung zu erstellen. Ich habe den Beitrag vom September 2021 „Metabetrachtungen: Zur Schnittmenge von Intuitivem Bogenschießen, Künstlicher Intelligenz und Management 4.0“ ausgewählt. Er hat einen Bezug zur obigen Bild-Metapher Abbildung 1 und stellt verschiedene Themen (Bogenschießen, AI und M 4.0) in einen eventuell ungewöhnlichen Zusammenhang und ist damit ein Text, den man wahrscheinlich sonst nirgendwo im Internet finden kann. Die AI kennt also mit ziemlicher Sicherheit keine ähnlichen Texte.

Ich greife auf GPT-3 als Black-Box AI-System zu und nicht wie für andere AI & M 4.0 Blog-Beiträge auf verschiedene AI/ML Bibliotheken. Wie bei der Unterhaltung mit dem AI-Bot midjourney ist auch hier das Abstraktionsniveau der „Ansprache“ sehr hoch.

Um Zugriff auf GPT-3 zu erhalten [13], ist es notwendig, sich bei openai.com zu registrieren. Solange man GPT-3 nicht für produktive Zwecke nutzen will, wird ein budgetierter Zugang von $18 als Geschenk freigegeben. Openai.com orientiert sich für die Freigabe an einer Risiko-Bewertung: Forschungsaktivitäten, wie ich sie hier durchgeführt habe, werden als sandbox-Aktivitäten behandelt und unterliegen keinen Restriktionen. – Dies ist sehr ähnlich den Anforderungen, die im EU AI Act zu finden sind. – Man siehe hierzu meinen Blogbeitrag vom August 2022.

Eine Möglichkeit auf GPT-3 zuzugreifen, ist der Zugriff über das User Interface ‚Playground‘ (man siehe Abbildung 5).

In ersten Versuchen habe ich die sogenannten Presets verwendet (man siehe Abbildung 5, und dort die rot eingefassten Bereiche). – Dies sind vorkonfektionierte Aufgabentypen, u.a. auch für die Erstellung von Zusammenfassungen. Die Ergebnisse waren richtig schlecht und recht oft unsinnig: Teilweise wurden Texte abgerufen, in denen wohl ein Bogenschütze auf die Jagd geht oder der deutsche Text, der zusammenzufassen war (man kann also auch nicht-englischen Text eingeben), wurde „einfach“ übersetzt.

Abbildung 5: GPT-3 playground [14]

Wie ich heute weiss, habe ich mit den presets das Potential von GPT-3 überhaupt nicht angesprochen. – Man kann nämlich über die Prompteingabe mit GPT-3 „reden“, d.h. der AI in Satzform sagen, was sie machen soll. Die Aufgabe „Write a summary in English for the following text using the following topics, Management 4.0, self-organization, instance-based learning, model-based learning:” (siehe Abbildung 5 erster Satz im Eingabefeld) brachte bisher das beste Zusammenfassungs-Ergebnis:

“The article discusses the intersection of intuitive archery, artificial intelligence, and management 4.0. It argues that learning is the key element to align the human system, the technical system neural network, and the social system team or organization to the environment. The article distinguishes between instance-based learning and model-based learning. It argues that learning in management 4.0 is model-based learning, and that instance-based learning is insufficient for learning in a complex context.”

An diesem Ergebnis kann man erkennen, dass GPT-3 in der Lage ist, explorative und abstrahierende Zusammenfassungen zu erstellen. Explorative Zusammenfassungen enthalten lediglich Sätze aus dem Original, die als wichtig erkannt werden. Abstrahierende Zusammenfassungen enthalten neue Sätze, die so nicht im Original enthalten sind.- Die abstrahierende Zusammenfassung ist u.a. an Sätzen wie „The article distinguishes…“ zu erkennen.

Ich habe dieses Ergebnis als bestes ausgewählt, weil dies das einzige Beispiel ist, in dem der Satz „It argues that learning in management 4.0 is model-based learning, and that instance-based learning is insufficient for learning in a complex context.” enthalten ist. Dieser Satz ist eine zentrale Erkenntnis des Blog-Beitrages. Leider sind nicht alle Erkenntnisse enthalten; z.B. wird das Thema Selbstorganisation als zentrales verbindendes Element der drei Bereich, Management 4.0, AI und Bogenschießen, nicht erkannt. Deshalb gebe ich GPT-3 in diesem Fall auch nur die Schulnote ausreichend.

Im Playground können nur Texte eingegeben werden, deren Anzahl an Tokens (ungefähr gleich der Anzahl an Worten), addiert mit der Anzahl an Tokens für die Zusammenfassung, 4000 Tokens nicht überschreiten. Ich habe für die Zusammenfassung 507 Tokens vorgegeben und habe damit noch ca. 3500 Tokens für den eigentlichen zusammenzufassenden Text zur Verfügung. Falls der Text in einer Fremdsprache eingegeben wird, halbiert sich der verfügbare Raum für den Text auf etwa die Hälfte an Tokens: GPT-3 benötigt Raum für die Übersetzung. – Die „Muttersprache“ von GPT-3 ist Englisch! Aus diesem Grund konnte ich auch nur einen Auszug des Blogs verwenden. Aus Gründen der Vergleichbarkeit habe ich für die deutschen und die englischen Texte den Auszug gleich beibehalten und jeweils ca. 1400 Wörtern verwendet. In allen Tests habe ich die von opneai.com empfohlene Stop sequence <|endoftext|> am Ende des Textes eingesetzt.  – Das Verwenden einer Stop sequence zum Anzeigen des Textendes hat einen recht großen Einfluss auf das Zusammenfassungsergebnis.

Statt GPT-3, verwende ich den google-Übersetzer [15] und den Übersetzer deepl.com [17], um einen englischen Text für meinen Blog-Beitrag zu erzeugen. Die Übersetzungen sind sehr ähnlich, wobei meines Erachtens bei genauerer Betrachtung doch manchmal recht große Unterschiede auffallen. So übersetzt zum Beispiel deepl.com „Meta-Betrachtungen“ mit „Meta-observations“ und der google-Übersetzer mit „Meta considerations“. – Dies scheint mir ein nicht unerheblicher Unterschied zu sein.

Google verändert auch in erheblichem Maße die Syntax. So wurde wie hier zu sehen, u.a. der Bindestrich zwischen Meta und consideration einfach entfernt. Groß- und Kleinschreibung und Satzzeichen wurden verändert, so dass selten – aber immerhin geschah es – sich ein vollständig anderer Sinn ergeben hat. Mehrmals wurden ganze Satzteile einfach weggelassen. – Ein schwerwiegender Fehler.

Bei deepl.com ist dies im vorliegenden Beispiel einmal vorgekommen bei google dreimal. Der google-Übersetzer liefert auch leicht andere Ergebnisse, je nachdem, ob man ihn mit einer zu übersetzenden Internetseite füttert oder einer Worddatei, die den Inhalt der Internetseite enthält.

Ich betone dies, weil beide Übersetzer mit AI betrieben werden. Es ist nicht auszuschließen, dass die AI sauber funktioniert, jedoch die Aufbereitung der Daten, also der Texte, nicht fehlerfrei ist. – Versteckte Satzzeichen oder Abschnittszeichen werden unterschiedlich interpretiert. Die AI-Systeme benötigen trotz ihrer „Intelligenz“ Daten in einer wohldefinierten Form. – Es gibt keinen Spielraum für „intelligentes Ausbessern“ wie in der menschlichen Kommunikation. Das macht das Arbeiten mit AI-Systemen nicht selten zu einem Geduldsspiel. Die korrekte Dateneingabe wurde, nach meiner bisherigen Erfahrung, von AI-Erstellern nicht gut dokumentiert.

Um die Restriktion bezüglich des Textumfanges zu umgehen, kann man GPT-3 auch über ein Jupyter Notebook [17] in der Colab-Umgebung [18] ansprechen. – Man beachte, GPT-3 ist in der Colab-Umgebung aufrufbar, obwohl google und openai im Wettbewerb stehen. – Bemerkenswert erfreulich!

Ich habe den Code von [19] verwendet und für meine Aufgabenstellung angepasst. Für den vollständigen Text in Deutsch erzeugt GPT-3 eine deutlich größere explorative Zusammenfassung in Englisch, obwohl ich GPT-3 um eine deutsche Zusammenfassung gebeten habe.

Den mittels deepl.com ins Englische übersetzten Blog-Artikel habe ich einmal als .pdf Datei Seite für Seite eingelesen und alternativ direkt als Text in die Colab-Umgebung eingebracht. In beiden Fällen wurde eine abstrahierende Zusammenfassung erstellt. Die erste Zusammenfassung entspricht der schon bekannten besten Zusammenfassung, die zweite Zusammenfassung ist eine andere:

“The article discusses the intersections of intuitive archery, artificial intelligence, and Management 4.0. Intuitive archery is a form of archery that does not rely on aiming technique, and is used for therapeutic archery in clinics. The author argues that the ability to focus, adapt, and intuition are central elements of Intuitive Archery, which are also important for Management 4.0. The author describes their experience with a Deep Learning course using Tensorflow, and how it has helped them understand the potential for artificial intelligence in project management.”

Ich konnte also an meiner Aufgabenstellung nicht erkennen, dass GPT-3 mit jedem Aufgabendurchlauf dazu lernt. – Eine Aussage, die andere schon getroffen haben [12].

Zusammenfassung: Meine Untersuchungen zu Text-Zusammenfassungen mittels GPT-3 und Bild-Metaphern mittels midjourney zeigen schon recht gute Ergebnisse, jedoch ist Vorsicht geboten, wenn man die Werkzeuge (schon) im produktiven Betrieb benutzen möchte. Jedoch ist schon heute auf einfachen Wegen selbst erfahrbar, dass der Weg in Richtung einer Künstlichen Allgemeinen Intelligenz eingeschlagen wurde.     

 

[1] Hannemann P (2022) Kunst per künstlicher Intelligenz: Mit diesen Tools können Sie das selbst ausprobieren, https://www.chip.de/news/Kunst-per-kuenstlicher-Intelligenz-Mit-diesen-Tools-koennen-Sie-das-selbst-ausprobieren_184386657.html, zugegriffen am 06.09.2022

[2] Discord (2022) Discord.com, Innovative Kommunikationsplattform, zugegriffen am 06.09.2022

[3] midjourney(2022) Forschungsprojekt zu AI, https://www.midjourney.com/home/, zugegriffen am 06.09.2022, zugegriffen am 06.09.2022

[4] Keita Z (2022) Meet BERTopic— BERT’s Cousin For Advanced Topic Modeling, https://towardsdatascience.com/meet-bertopic-berts-cousin-for-advanced-topic-modeling-ea5bf0b7faa3, zugegriffen am 09.04.2022

[5] Dwivedi P (2022) NLP: Extracting the main topics from your dataset using LDA in minutes, https://towardsdatascience.com/nlp-extracting-the-main-topics-from-your-dataset-using-lda-in-minutes-21486f5aa925, zugegriffen am 09.04.2022

[6] Wikipedia (2022) Artificial General Intelligence, https://en.wikipedia.org/wiki/Artificial_general_intelligence, zugegriffen am 06.09.2022

[7] Liu Y, He F, Zhang H, Rao G, Feng Z and Zhou Y (2019) How Well Do Machines Perform on IQ tests: a Comparison Study on a Large-Scale Dataset, Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI-19)

[8] Tschopp M, Ruef M (2019) An Interdisciplinary Approach to Artificial Intelligence Testing: Developing an Artificial Intelligence Quotient (A-IQ) for Conversational AI, siehe researchgate.net

[9] Liu F, Liu Y, Shi Y (2020) Three IQs of AI systems and their testing methods, https://ietresearch.onlinelibrary.wiley.com/doi/10.1049/joe.2019.1135, zugegriffen am 05.09.2022

[10] Nuhn H, Oswald A, Flore A, Lang R, (2022) AI-supported Natural Language Processing in project management – capabilities and research agenda, IPMA Research Conference 2022, www.ipma-research-conference.world

[11] Lang R (2022) Kann Künstliche Intelligenz (KI) das Projektmanagement unterstützen? https://www.linkedin.com/feed/update/urn:li:activity:6970285127754997760/,  zugegriffen am 09.09.2022

[12] Romero A (2022) A Complete Overview of GPT-3 — The Largest Neural Network Ever Created, https://towardsdatascience.com/gpt-3-a-complete-overview-190232eb25fd, zugegriffen am 09.08.2022

[13] Willison S (2022) How to play with the GPT-3 language model, https://simonwillison.net/2022/Jun/5/play-with-gpt3/, zugegriffen am 09.08.2022

[14] GPT-3 playground (2022) openai.com, zugegriffen am 09.09.2022

[15] google Übersetzer (2022) https://translate.google.de/?hl=de&tab=rT, zugegriffen am 09.09.2022

[16] Deepl (2022) https://www.deepl.com/translator, zugegriffen am 09.09.2022, verwendet für diesen Blog-Beitrag in der kostenpflichtigen Version deepl Pro

[17] Jupyter Notebooks (2021) https://jupyter.org/, zugegriffen am 02.12.2022

[18] Colab (2021) https://colab.research.google.com/

[19] Soares L (2022) Summarizing Papers With Python and GPT-3, https://medium.com/p/2c718bc3bc88, zugegriffen am 22.07.2022

AI & M 4.0: Das nicht-teilbare Sein – Auf dem Weg zu einer ganzheitlichen Ethik?

Unsere Glaubenssätze haben uns fest im Griff:

„Autobahn ohne Tempolimit, ist Ausdruck unserer deutschen Freiheit.“, „Jedem Bürger seine Waffen, ist Ausdruck amerikanischer Freiheit.“, „Klimawandel ist das Hirngespinst der Grünen.“

oder

„Maschinen sind allenfalls kompliziert, aber nicht komplex. Wir sind komplex.“, „Die belebte Natur ist was ganz anderes als die unbelebte Natur“, „Wir Menschen haben Bewusstsein, sonst niemand und nichts.“ „Wir Menschen sind die Krönung der Schöpfung.“ „Management und Führung sowie AI schließen sich aus.“

Sehr oft sind diese Glaubenssätze mit unserer Fähigkeit verbunden, Kategorien zu bilden, wie komplex-nicht komplex, belebt-unbelebt, bewusst-unbewusst, wertvoll-weniger wertvoll, emotional-mechanisch.

Ich habe einen Glaubenssatz, es ist wieder nur ein Glaubenssatz 😉, der insbesondere diese letzten Glaubenssätze auflöst. – Ich glaube, dass unser Sein nicht-teilbar ist. Ich will versuchen, diesen Glaubenssatz zu erläutern, in dem ich die letzten oben genannten Glaubenssätze aus dieser Perspektive betrachte:

(Mechanische) Maschinen zeigen tatsächlich, unter normalen Bedingungen, lediglich einfaches oder kompliziertes Verhalten. – Sie sind gerade so konzipiert, dass sie kein komplexes Verhalten zeigen sollen. Jedoch nicht selten zeigen sie es, wenn sie unter „Stress“ geraten.- „Stress“ heißt in diesem Fall, die Maschinen geraten in den Grenzbereich ihrer Nutzung. Es gibt aber auch immer mehr Maschinen, also von uns Menschen hergestellte Systeme, wie z.B. den Laser oder die AI Systeme, die gerade auf Komplexität und der damit verbundenen Selbstorganisation beruhen. Der Glaubenssatz, dass nur lebende oder soziale Objekte komplex sind, ist unserer bisherigen Naivität und unserer Mensch-Zentrierung geschuldet.  

Nach der „Erschaffung“ der unbelebten Natur vor einigen Milliarden Jahren, gab es meines Erachtens keinen Eingriff eines Gottes oder Etwas Ähnliches, das der unbelebten Natur Leben einhauchte.- Und damit neue (uns noch weitgehend unbekannte) Prinzipien des Lebens explizit neu einbrachte. Vielmehr glaube ich, dass die unbelebte Natur alles enthält, um belebte Natur zu entwickeln.

Ähnlich glaube ich, dass die (uns ebenfalls noch unbekannten) Prinzipien, die zu Bewusstsein führen, schon in der unbelebten und belebten Natur vorhanden sind. – Und, dass wir Menschen lediglich ein Produkt der Entfaltung der fundamentalen Prinzipien des Seins sind.  Damit ist auch gleichzeitig gesagt, dass wir wahrscheinlich nicht das letzte Produkt dieser Entfaltung sind, sondern vielleicht lediglich ein Zwischenergebnis.

Die Kategorien-Bildung hilft uns, die Welt Stück für Stück besser zu verstehen und Stück für Stück auf fundamentalere Prinzipien zurückzuführen. – Leider bleiben wir oft an den Kategorien vergangener Erkenntnis kleben und weisen ihnen eigenständige fundamentale Prinzipien zu.

Vor kurzem ging durch die Presse, dass AI Entwickler behaupten, dass große AI Systeme Bewusstsein entwickelt haben oder zu mindestens „ein bisschen davon“.  – Andere tun dies wiederum als völligen Unsinn ab [1], [2]. Da wir bisher nicht wissen, was Bewusstsein ist, können wir auch nicht sagen, ob es schon AI Systeme mit Bewusstsein oder „ein bisschen Bewusstsein“ gibt. Entsprechend meinem obigen Glaubenssatz glaube ich jedoch, dass es irgendwann AI Systeme mit Bewusstsein geben wird, ob morgen oder erst in 1000 Jahren vermag ich nicht zu sagen. Da unser Sein ein nicht-teilbares Sein ist, glaube ich, dass es nur eine Frage der Zeit ist, bis von uns geschaffene Systeme mit Bewusstsein existieren werden. Der Deep-Learning-Pionier Yann LeCun hat auch schon wieder einen (altbekannten) Lösungsweg aufgetan: Bewusstsein benötigt eine System-Architektur, die unserer Gehirn-Architektur nachempfunden ist [3].

Schon heute erscheinen täglich neue Meldungen, zu den erstaunlichen Aussagen und Leistungen von AI Systemen. So betont beispielsweise eine Zeitschrift die Gefahren, die von AI Systemen ausgehen können, indem sie titelt „Künstliche Intelligenz droht im Gespräch „die Menschen auszuschalten““ [4]. In der sehr seriösen Zeitschrift Scientific American war unlängst von einer AI zu lesen, die einen wissenschaftlichen Artikel über sich selbst geschrieben hat.- Die Entwickler der AI haben diesen Artikel als wissenschaftlichen Artikel zum Peer-Review eingereicht [5].

Man stelle sich nur vor, die Entwicklung der AI würde ähnlich schnell und fundamental weiter gehen wie in den letzten 10 Jahren und in 10 Jahren hätten wir AI Systeme mit einer Allgemeinen Künstlichen Intelligenz, die zudem (erste) Anzeichen von Bewusstsein zeigen würde. Müssten wir dann unsere menschenzentrierte Ethik nicht völlig neu denken. Denn es kämen dann zwangsläufig Fragen auf wie „Ist es ethisch vertretbar, eine AI mit Bewusstsein bei Bedarf abzustellen?“, oder „Müssten wir solchen AI Systemen Rechte einräumen?“.

Wie in meinem Blog-Beitrag vom Februar 2022 dargelegt, ist die bisherige angedachte Ethik der EU zu AI Systemen eine human-centric perspective.

Der sogenannte EU AI Act basiert auf den europäischen Werten und soll insbesondere die Menschen vor Schaden schützen [6]:

“Aside from the many beneficial uses of artificial intelligence, that technology can also be misused and provide novel and powerful tools for manipulative, exploitative and social control practices. Such practices are particularly harmful and should be prohibited because they contradict Union values of respect for human dignity, freedom, equality, democracy and the rule of law and Union fundamental rights, including the right to non-discrimination, data protection and privacy and the rights of the child.

Ziel der EU ist es, AI Systeme zu erlauben, denen wir trauen können, also sogenannte Trustworthy AI. An dieser Forderung ist „fast“ nicht auszusetzen, wenn man davon absieht, dass die Natur und die Tiere lediglich in drei Sätzen eines ca. 100 Seiten starken Proposal Dokumentes auftauchen.

Warum ist mir eine ganzheitliche Sicht mit entsprechender Ethik so wichtig?  Um diese Frage zu beantworten, möge man sich nur Folgendes fragen: Welche Ethik und damit Rechtsverständnis macht(e) es möglich, dass über Jahrzehnte das millionenfache Töten von männlichen Küken durchgeführt wurde? Welche Ethik und damit Rechtsverständnis macht(e) es möglich, dass Bauern das Grundwasser durch Überdüngung belasten dürfen?

Heute ist aus diesen unethischen Gewohnheiten Gewohnheitsrecht geworden. Es basieren Geschäftsmodelle auf diesem Mangel an ganzheitlicher Ethik und es bedarf enormer Anstrengungen, dieses Gewohnheitsrecht durch ein ethisch fundiertes Recht abzulösen. Denn der Mangel an einer ganzheitlichen Ethik hat dazu geführt, dass wir uns immer wieder in verschiedene Dilemmata bringen: Z.B. stellt sich die Frage, ob es erlaubt ist, die Lebensgrundlage der Bauern zu gefährden, in dem wir das Grundwasser (nachträglich) schützen. Wäre es nicht sinnvoll gewesen, den Schutz des Grundwassers von vorneherein zu gewährleisten und den Bauern und der Gesellschaft die Möglichkeit zu geben, ganzheitliche ethische Geschäftsmodelle zu entwickeln.  

Die Diskussion zur AI Ethik [7] und die damit verbundenen Rechtsvorschläge, wie den EU AI Act, beruhen auf keiner ganzheitlichen Ethik: Die Rechte von Natur und Tieren sind nicht berücksichtigt und die ethischen Konsequenzen, die sich aus einer möglichen Entwicklung von AI Systemen in Richtung einer Allgemeinen Künstlichen Intelligenz ergeben, sind noch nicht einmal ansatzweise enthalten.     

Ich komme zur aktuellen Version des Proposals EU AI Act zurück und skizziere die schon heute absehbaren großen Anforderungen an das (Projekt) Management:

Als guten Einstieg in den EU AI Act [6] dient das sogenannte Briefing des European Parliamentary Research Service [8]: Der EU AI Act ist ein Risiko-basierter Ansatz, in dem AI-Systeme in vier Risikokategorien eingeteilt werden: „AI systems posing (i) unacceptable risk, (ii) high risk, (iii) limited risk, and (iv) low or minimal risk.“ Eine genaue Definition, wann welche Kategorie vorliegt, gibt es leider nicht, jedoch gibt es Beispiele, insbesondere zur Kategorie „unacceptable risk“ und „high risk“:

Unacceptable risk AI Systeme sind in der EU verboten, z.B. [6, 8]:

  • AI systems that deploy harmful manipulative ’subliminal techniques‘
  • AI systems that exploit specific vulnerable groups (physical or mental disability)
  • AI systems used by public authorities, or on their behalf, for social scoring purposes
  • ‚Real-time‘ remote biometric identification systems in publicly accessible spaces for law enforcement purposes, except in a limited number of cases

High-risk AI Systeme sind erlaubt, unterliegen jedoch sehr strengen Auflagen, z.B. [6,8]:

  • High-risk AI systems used as a safety component of a product or as a product falling under Union health and safety harmonisation legislation (e.g. toys, aviation, cars, medical devices, lifts)
  • High-risk AI systems deployed in eight specific areas identified in Annex III of the EU AI Act, which the Commission would be empowered to update as necessary by way of a delegated act
    • Biometric identification and categorisation of natural persons
    • Management and operation of critical infrastructure
    • Education and vocational training
    • Employment, worker management and access to self-employment
    • Access to and enjoyment of essential private services and public services and benefits
    • Law enforcement
    • Migration, asylum and border control management
    • Administration of justice and democratic processes

Die EU High-Level Expert Group on Artificial Intelligence hat den “Mangel” an Operationalisierbarkeit des EU AI Act erkannt und das Dokument „Ethics Guidelines for Trustworthy AI“ erstellt [9]. Spätestens beim Lesen dieses Dokumentes wird einem sehr schnell klar, dass der EU AI Act für Organisationen und insbesondere hier das Projekt-, Risiko- und Qualitätsmanagement weitreichende Konsequenzen haben wird. Die Transparenz-, Dokumentations- und Monitoring-Anforderungen während des gesamten (!) Lebenszyklus eines AI Systems (alleinstehend oder embedded) sind enorm. Ich verweise auf [9] und die darin enthaltene mehrseitige Checkliste.

Ich stelle die Frage, zu welcher Kategorie gehören die beiden Machbarkeitsprototypen, die ich in den letzten beiden Blog-Beiträgen vorgestellt habe? – Und gebe einen ersten Einblick in die in dem EU AI Act enthaltenen Anforderungen.

Gehe ich von den oben auf geführten Beispielen aus, so gehören meine Machbarkeitsprototypen in die high-risk Kategorie „Education and vocational training“ und in die Kategorie „worker management“. In [9] ist die Abbildung 1 enthalten, die die zentralen Anforderungen an eine Trustworthy AI enthält:

Ich skizziere anhand dieser Abbildung meine Einschätzung bezüglich der Vertrauenswürdigkeit der beiden Machbarkeitsprototypen:

Abbildung 1: The Guidelines as a framework for Trustworthy AI [9]

 

Collective Mind proxy auf der Basis der Similarity Matrix

Collective Mind Netzwerk auf der Basis eines Graphical Networks

Ethical Principles

 

 

Respect for human autonomy

Die menschliche Autonomie wird nicht aktiv eingeschränkt, Kritiker könnten jedoch einwenden, dass die Quantifizierung von Ähnlichkeit in den Aussagen zu einer passiven Autonomieverletzung führt.

Die menschliche Autonomie wird weder aktiv noch passiv in der aktuellen Version eingeschränkt. Es lassen sich jedoch Zuordnung von Begriffen und Personen vornehmen, so dass die Kritik der passiven Autonomieeinschränkung je nach Nutzung evtl. vorhanden ist.

Prevention of harm

Physischer Schaden kann nicht eintreten. Psychischer Schaden könnte eintreten, wenn die vorhandene oder nicht vorhandene Similarity von Vorgesetzten/Kollegen als Druckmittel eingesetzt wird.

Physischer Schaden kann nicht eintreten. Psychischer Schaden könnte eintreten, wenn eine Verbindung zwischen Person und graphischen Netzwerkknoten von Vorgesetzten/Kollegen mit amoralischer Absicht benutzt wird.

Fairness

Das AI System trifft keine unfairen Aussagen, jedoch könnte dies evtl. durch beteiligte Stakeholder, wie oben geschildert, erfolgen.

Das AI System trifft keine unfairen Aussagen, jedoch könnte dies evtl. durch beteiligte Stakeholder, wie oben geschildert, erfolgen.

Explicability

Die Verständlichkeit und Transparenz des Algorithmus ist (nahezu) vollständig gegeben, auch wenn man berücksichtigen sollte, dass diverse Fremd-Softwaremodule (u.a. word2vec, spaCy) verwendet werden.

Die Verständlichkeit und Transparenz des Algorithmus ist (nahezu) vollständig gegeben, auch wenn man berücksichtigen sollte, dass diverse Fremd-Softwaremodule (u.a. spaCy, Transformer Pipeline) verwendet werden.

7 Key Requirements

 

 

Human agency and oversight

Die Anwendung der AI liegt vollkommen in den Händen der Nutzer. Dies setzt voraus, dass die Ergebnisse der Anwendung nur den direkten Nutzern zugänglich gemacht werden.

Die Anwendung der AI liegt vollkommen in den Händen der Nutzer. Dies setzt voraus, dass die Ergebnisse der Anwendung nur den direkten Nutzern zugänglich gemacht werden.

Technical robustness and safety

Die Anwendung ist äußerst robust (u.a. gibt es kein AI Lernen während des Betriebs) und hat keine sicherheitsrelevanten Auswirkungen.

Die Anwendung ist äußerst robust (u.a. gibt es kein AI Lernen während des Betriebs) und hat keine sicherheitsrelevanten Auswirkungen.

Privacy and data governance

Es werden keinerlei persönliche Daten erhoben, wenngleich die Daten mittels weiterer Techniken oder manuell Personen zugeordnet werden können und damit prinzipiell auch eine indirekte Verletzung der Privatsphäre möglich ist. Um dies zu verhindern ist eine data governance in nutzenden Organisationen erforderlich.

Es werden keinerlei persönliche Daten erhoben, wenngleich die Daten mittels weiterer Techniken oder manuell Personen zugeordnet werden können und damit prinzipiell auch eine indirekte Verletzung der Privatsphäre möglich ist. Um dies zu verhindern ist eine data governance in nutzenden Organisationen erforderlich.

Transparency (Diese Schlüsselanforderung ist direkt eine Konsequenz des ethischen Prinzips Explicability.)

Wie in [10] dargelegt hängt die Transparenz von mehreren Faktoren ab: Erklärbare Algorithmen, Einsicht in den Trainingsdatensatz, Einsicht in die Datensatzauswahl, Erkennen von Mentalen Verzerrungen im ausgewählten Datensatz, Transparenz bzgl. der verwendeten Modellversionen.

Bzgl. word2vec, spaCy ist die Umsetzung dieser Anforderungen mit meinen Zugriffsrechten und meinem Kenntnisstand nicht möglich. Da das Ergebnis jedoch lediglich ein word-embedding darstellt, erscheint mir der potenzielle Missbrauch äußerst gering.

Wie in [10] dargelegt hängt die Transparenz von mehreren Faktoren ab: Erklärbare Algorithmen, Einsicht in den Trainingsdatensatz, Einsicht in die Datensatzauswahl, Erkennen von Mentalen Verzerrungen im ausgewählten Datensatz, Transparenz bzgl. der verwendeten Modellversionen.

Bzgl. Transformator Pipeline und spaCy ist die Umsetzung dieser Anforderungen mit meinen Zugriffsrechten und meinem Kenntnisstand nicht möglich. Da das Ergebnis jedoch lediglich einen Graph darstellt erscheint mir der potenzielle Missbrauch äußerst gering.

Diversity, non-discrimination and fairness

Das AI System nimmt keine wie auch immer geartete Diskriminierung vor: Jedoch könnte durch die entstandene Transparenz im Meinungsspektrum und einer entsprechenden Zuordnung zu Personen, Missbrauch möglich sein.

Das AI System nimmt keine wie auch immer geartete Diskriminierung vor: Jedoch könnte durch die entstandene Transparenz im Meinungsspektrum und einer entsprechenden Zuordnung zu Personen, Missbrauch möglich sein.

Societal and environmental wellbeing

Gesellschaft und Umwelt werden in keiner Form beeinflusst. Sollten solche oder ähnliche Systeme eingesetzt werden ist jedoch zu beachten, dass evtl. die Akzeptanz oder Nicht-Akzeptanz für AI-System steigt. Eine unreflektierte Nutzung ohne ein Minimum an technischer und ethischer Bildung erscheint nicht sinnvoll, da dies mit unbekannten Risiken verbunden sein kann. Man siehe auch die entsprechenden Anforderungen bzgl. Professionalisierung von Teams bzgl. AI und Ethik in [7].

Gesellschaft und Umwelt werden in keiner Form beeinflusst. Sollten solche oder ähnliche Systeme eingesetzt werden ist jedoch zu beachten, dass evtl. die Akzeptanz oder Nicht-Akzeptanz für AI-System steigt. Eine unreflektierte Nutzung ohne ein Minimum an technischer und ethischer Bildung erscheint nicht sinnvoll, da dies mit unbekannten Risiken verbunden sein kann. Man siehe auch die entsprechenden Anforderungen bzgl. Professionalisierung von Teams bzgl. AI und Ethik in [7].

Accountability

Der EU AI Act sieht die Rechenschaftspflicht sehr stark beim Hersteller der AI Systeme. Ich empfehle, dass daneben eine Rechenschaftspflicht der nutzenden Organisation tritt, denn so wie man ein Messer zum Aufschneiden eines Apfels oder alternativ zum Töten eines Menschen benutzen kann, kann man jedes AI System unethisch anwenden.

Der EU AI Act sieht die Rechenschaftspflicht sehr stark beim Hersteller der AI Systeme. Ich empfehle, dass daneben eine Rechenschaftspflicht der nutzenden Organisation tritt, denn so wie man ein Messer zum Aufschneiden eines Apfels oder zum Töten eines Menschen benutzen, kann man jedes AI System unethisch anwenden.

Zusammenfassend stelle ich fest, dass eine ganzheitliche Ethik u.a. im Lichte aktueller AI Entwicklungen notwendig ist, dass ein Mangel an ganzheitlicher Ethik hohe Risiken in sich birgt, und dass der EU AI Act nur ein erster Schritt in diese Richtung ist. Gleichwohl sind die Anforderungen an das Management schon mit der aktuellen Proposal Version des EU AI Act sehr groß.

[1] Stieler W (2022) Hat KI bereits eine Art Bewusstsein entwickelt? Forscher streiten darüber, https://www.heise.de/hintergrund/Hat-KI-bereits-eine-Art-Bewusstsein-entwickelt-Forscher-streiten-darueber-6522868.html , zugegriffen am 22.07.2022

[2] Eisenlauer M (2022) google Entwickler sicher – Künstliche Intelligenz hat eigenes Bewusstsein, https://www.bild.de/digital/computer/computer/hat-googles-kuenstliche-intelligenz-lamda-ein-bewusstsein-entwickelt-80393376.bild.html

[3] Dickson B (2022) Meta’s Yann LeCun on his Vision for human-level AI, TechTalks, https://bdtechtalks.com/2022/03/07/yann-lecun-ai-self-supervised-learning/, zugegriffen am 06.07.2022

[4] Mey S (2022) Künstliche Intelligenz droht im Gespräch „die Menschen auszuschalten“, DerStandard, https://www.derstandard.de/story/2000136591877/kuenstliche-intelligenz-droht-im-gespraech-die-menschen-auszuschalten?ref=rss , zugegriffen am 06.07.2022

[5] Thunström A O (2022) We Asked GPT-3 to Write an Academic Paper about Itself—Then We Tried to Get It Published, Scientific American, https://www.scientificamerican.com/article/we-asked-gpt-3-to-write-an-academic-paper-about-itself-then-we-tried-to-get-it-published/, zugegriffen am 06.07.2022

[6] EU AI Act (2022) https://artificialintelligenceact.eu/, Europe Administration, zugegriffen am 06.07.2022

[7] Blackman R (2022) Ethical Machines: Your concise guide to totally unbiased, transparent and respectful AI, Harvard Business Review Press, kindle edition

[8] European Parliamentary Research Service (2022) Briefing EU AI Act, https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792

[9] High-Level Expert Group on Artificial Intelligence (2022) ETHICS GUIDELINES FOR TRUSTWORTHY AI, https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html [10] Schmelzer R (2022) Towards a more transparent AI, Forbes, https://www.forbes.com/sites/cognitiveworld/2020/05/23/towards-a-more-transparent-ai/?sh=725c89d33d93

[10] Schmelzer R (2022) Towards a more transparent AI, Forbes, https://www.forbes.com/sites/cognitiveworld/2020/05/23/towards-a-more-transparent-ai/?sh=725c89d33d93

AI & M 4.0: Sein als Netzwerk – Den Collective Mind als Netzwerk sichtbar machen

Über Jahrhunderte hinweg haben die berühmtesten Philosophen versucht das „Ding an sich“ auszuleuchten und zu finden. Es ist ihnen nicht gelungen, da es meines Erachtens das „Ding an sich“ nicht gibt.

Es gibt Dinge oder Objekte, aber diese werden ganz entscheidend durch ihre Wechselwirkung mit ihrer Umgebung bestimmt. – Andere Umgebungen und schon sind Objekte oft ganz anders. – Die Relationen, also die Beziehungen, zwischen den Objekten bestimmen ganz entscheidend das Sein. – Deswegen habe ich diesem Blog-Beitrag den Titel „Sein als Netzwerk“ gegeben.

Das Studium von Netzwerken in Natur, Sozialem oder Technik mittels mathematischer Methoden ist schon mehrere hundert Jahre alt und ist eng mit dem Namen des französischen Mathematiker’s Pierre-Simon Laplace verbunden [1]. – Im zwanzigsten Jahrhundert wurde die Netzwerkanalyse zu einer vollständigen Disziplin, u.a. in den Sozialwissenschaften, ausgebaut [2], [3].

Die erfolgreiche Netzwerkanalyse ist einer der Grundpfeiler für den Erfolg von google: Der PageRank Algorithmus misst die Bedeutung von Internetknoten (homepages) im Netzwerk Internet [4]. – Weiter unten werde ich diesen Algorithmus für das Vermessen der Bedeutung von Begriffen in einem Text benutzten. – Denn ich nehmen an, dass bedeutende Begriffe und deren Relationen die mentale Ausrichtung eines Teams beschreiben.  

Die Netzwerkanalyse, oft auch Graphentheorie genannt, hat in den letzten Jahren im Bereich AI/ML eine enorme Bedeutung erhalten: Graphentheorie und Neuronale Netzwerke sind eine Relation 😉 eingegangen. Es entstand die AI/ML Disziplin Graph Neural Networks (GNN) [5]. – Im letzten Blog-Beitrag war Word-embedding der Schwerpunkt. GNN basieren auf dem Embedding von Netzwerken in höher-dimensionale abstrakte Räume. – Einige der aktuellen spektakulären AI/ML Erfolge, wie zum Beispiel in der Medikamentenerforschung, gehen auf diese Relation von Graphentheorie und AI/ML zurück.

GNN sind high-end AI/ML Systeme, die aktuell sehr viel Know-How erfordern. In vielen Fällen dürfte es jedoch genügen, Netzwerke lediglich sichtbar zu machen und erste Analysen, wie den mathematisch recht einfachen PageRank Algorithmus, anzuwenden. Genau dies will ich in diesem Artikel an einem Beispiel demonstrieren. – Hierbei steht, wie schon im letzten Beitrag, die grundlegende Idee im Vordergrund und nicht die Erzeugung oder Vermarktung eines vollständigen Produktes.

In meinem Blog-Beitrag vom Dezember 2021 habe ich erstmals für die IPMA PM Kompetenzbereiche Beispiele zu Graphen Anwendungen genannt. Hier nochmals einige Beispiele:

Führung und Stakeholder: Soziale Netzwerke können mittels Graphen oder GNN analysiert werden. Dies kann auf Teamebene und auf der Ebene aller Stakeholder erfolgen. Hierzu wird u.a. der eMail-Austausch einer Organisation analysiert und in einem Graphen sichtbar gemacht. Relative einfache Werkzeuge, wie der PageRank Algorithmus zeigen die relative Bedeutung von Knoten (d.h. hier Personen) im Netzwerk an.

Führung, Kommunikation, Teamarbeit: Die verbale Kommunikation wird mittels Graphen analysiert und die Analyse wird als Feedback in das Team gegeben. Oder die AI/ML Analyse unterstützt die Führungskraft bei ihrer Selbstreflexion und abgeleiteten Team-Interventionen. Aus der Analyse der Kommunikation lassen sich auch Collective Mind Target Hierarchien erzeugen. Das Beispiel, das ich weiter unten skizziere, gehört in diese Kategorie.

Planung und Steuerung: Aus Texten werden Graphen abgeleitet, aus denen wiederum Projektpläne erzeugt werden. Auf der Basis der Graphen und mittels GNN werden u.a. Risiken ermittelt und Aufwände abgeleitet. Diese Informationen können im Projektzeitverlauf auch für das Projektmonitoring verwendet werden.

Die letzte Kategorie ist eine deutlich anspruchsvollere Aufgabe als die beiden vorherigen Anwendungskategorien. Die beiden ersten Anwendungskategorien lassen sich in der ersten Ausbaustufe mit den in diesem Blog skizzierten Techniken bewältigen.

Im letzten Blogbeitrag habe ich die Ähnlichkeit von (gesprochenen) Texten, d.h. die Similarity, dazu benutzt, ein Maß für die Stärke des Collective Mind abzuleiten. In diesem Fall wurden Wort-Relationen über deren Einbettung in einen hochdimensionalen abstrakten Raum benutzt, um die Similarity zu berechnen.

In diesem Blogbeitrag will ich die Graphentheorie und AI/ML dazu benutzten, Texte auf enthaltene Relationen zu analysieren und diese Relationen in einem Graphen sichtbar zu machen. – Es steht also die Visualisierung von Kommunikation im Vordergrund: Die Visualisierung mittels Graphen macht in einer Kommunikation sehr schnell Zusammenhänge sichtbar. Die These ist, dass über visualisiertes Feedback in ein Team, der Prozess der Collective Mind Ausbildung deutlich beschleunigt wird.      

Ich benutze den Code von Thomas Bratanic [6], der auf towardsdatascience.com zu finden ist. Towardsdatascience.com ist eine hervorragende Fundgruppe für alle möglichen Fragestellungen rund um das Thema AI/ML.

Bratanic demonstriert die Graphenanalyse am Beispiel der Analyse von Wikipedia-Seiten zu drei Wissenschaftlerinnen. Hierzu werden die Wikipedia-Seiten in page.summaries mit einfachen Sätzen zusammengefasst. – Wir werden später sehen, dass diese einfachen Sätze (derzeit noch) notwendig sind, um die NLP-Verarbeitung gut durchzuführen. Abbildung 1 zeigt einen Auszug aus diesem Ergebnis:

Abbildung 1: Auszug einer Analyse von Wikipedia Daten zu drei Wissenschaftlerinnen gemäß Thomas Bratanic [6].

Die Grundidee ist einfach: Es werden Sätze in Texten oder Gesprochenem in „Subjekt-Relation->Objekt“ Strukturen (S-R->O Strukturen) zerlegt. Zum Beispiel ergibt der Satz „Alfred wohnt in Stolberg.“ die Struktur „Alfred – wohnt in -> Stolberg“. Die gefundenen S-R->O Strukturen werden in eine Graphen-Datenbank transferiert. Hier können verschiedene Netzwerkanalysen durchgeführt werden.

Die AI/ML Technik hierzu ist schon nicht mehr so einfach: Wie im letzten Blog-Beitrag kommt die NLP-Bibliothek spaCy [7] zum Einsatz. Hinzukommen diverse raffinierte NLP-Python-Skripte, die high-end Transformator Pipeline aus der tensorflow-Technologie [8] und zum Schluss die Graphendatenbank Neo4j [9]. Das Ganze ist nach diversen Anpassungen und einige Zeit später als Jupyter-Notebook [10] in der Colab-Umgebung [11] lauffähig.

Wie schon im letzten Blogbeitrag, habe ich der Einfachheit wegen den Text der Definition von Agile Management 4.0 benutzt. Der erste Lauf mit diesem Text zeigt jedoch, dass kaum Relationen extrahiert wurden. – Der Text ist zu verschachtelt geschrieben. Dementsprechend habe ich ihn in einfache Sätze umgeschrieben. – Ich hätte auch einen entsprechenden AI/ML pre-processing Schritt vorwegschalten können, der Text in einfachen Text mit S-R->O Strukturen transformiert. Dies hätte den Aufwand jedoch deutlich erhöht. – Mit entsprechenden AI/ML Techniken stellt dies jedoch kein prinzipielles Problem dar. – Ich habe den Text auch teilweise belassen wie er ist, um die Auswirkungen zu sehen.

 
Hier der verwendete Text:

“Agile Management is a leadership and management practice. Agile Management is able to act in an agile and proactive way. Agile Management is for acting in a complex environment. The complex environment is characterized by uncertainty. Agile Management is described as an Agile Mindset. The Agile Mindset is focused on leadership. The basis of leadership is self-leadership. Leadership is based on respect for basic human needs. Leadership demands an understanding of complex systems. Leadership regulates complexity. Regulation of complexity is done by iterative procedures. Leadership is based on people who use self-organization in teams. Agile Management creates fluid organizations.  Fluid organizations promote adaptable and fast delivery of useful results and create innovative customer solutions through proactive dealing with changes.”

Dieser Text wird von dem AI/ML-System in S-R->O Strukturen transferiert, die in der Graphendatenbank Neo4j folgende Visualisierung erhalten:

 

Abbildung 2: Screenshot der Neo4j Visualisierung der NLP extrahierten S-R->O Strukturen.

Agile Management und leadership werden als zentrale Knoten erkannt. Die Sätze

„Regulation of complexity is done by iterative procedures.”

und

Fluid organizations promote adaptable and fast delivery of useful results and create innovative customer solutions through proactive dealing with changes.”

sind in zwei getrennten Netzwerkclustern enthalten.  Der zweiten Satz ist auch nicht vollständig abgebildet. Dies ist meinem unzureichenden manuellen Pre-Processing geschuldet. Bei diesem Satz kann man auch schön erkennen, dass „Fluid organization“ und „fluid organization“ nicht als gleiche Nomen erkannt werden.

Für den ganzen Text gilt, dass die Verben des Textes in allgemeinere Relationsbezeichnungen abgebildet werden. Diese haben ihren Ursprung in einem entsprechenden vorgegebenen NLP Training von spaCy.

Auch mit diesen Einschränkungen stellt die Visualisierung des Textes einen erheblichen Mehrwert dar: Denn man möge sich nur vorstellen, dass ein entsprechendes AI/ML System online und ad hoc Teamkommunikation auf solche Weise visualisiert als Feedback an das Team zurückgibt. – Dies würde meines Erachtens den Kommunikationsprozess erheblich beschleunigen und die Visualisierung wäre auch gleichzeitig eine Visualisierung des gerade vorhandenen Collective Mind’s. Im Falle einer komplexen Kommunikation wäre die Visualisierung um so hilfreicher: Dies umso mehr, wenn die Visualisierung mehrere oder viele Netzwerkcluster zu Tage fördern würde. Dies entspräche mehreren Gesprächsthemen oder -lagern, die ggf. für mehrere (konkurrierende) Collective Mind’s stünden.

Neben der Visualisierung können diverse Werkzeuge der Netzwerktheorie verwendet werden, um Netzwerke zu analysieren [12]. – Dies ist umso notwendiger, je komplexer die Netzwerke aus Personen, Worten, homepages, Molekülen usw. sind.  Neo4j stellt mehr als hundert solcher Werkzeuge zu Verfügung, u.a. auch den PageRank Algorithmus. Abbildung 3 zeigt die PageRank-Auswertung für den Graphen aus Abbildung 2.

Abbildung 3: PageRanking für den Graphen aus Abbildung 3

Das PageRanking ist für diesen einfachen Graphen sicherlich keine große Überraschungen: Agile Management und leadership sind die beiden Begriffe, die im Netzwerk gemäß diesem Algorithmus am wichtigsten sind. Für größere Graphen erwarte ich jedoch erhebliche Überraschungseffekte in den Teams oder Organisation, deren Kommunikation auf diese Weise analysiert wird.

Agile Management und leadership sind zwei Begriffs-Attraktoren, die die Ausrichtung der gedachten Teamkommunikation, anzeigen: Das Begriffs-Netzwerk visualisiert den Collective Mind oder den fehlenden Collective Mind einer Kommunikation, je nachdem wie viele konkurrierende Netzwerkcluster (Communities) mit ähnlichem PageRanking es gibt.

Dieses kleine Beispiel illustriert, dass man mit den Mittel von AI/ML erhebliche Informationen über Teams oder Organisationen gewinnen kann. Diese Informationen können im Guten wie im Bösen eingesetzt werden. Berücksichtigt man, dass das Know-how von google und Co. Lichtjahre weiter ist als mein Eigenes, so ist die Einbettung in eine AI Ethik um so wichtiger. Deshalb beabsichtige ich, mich im nächsten Blog mit dem EU AI Act zu beschäftigen [13].

 

[1] Laplace Matrix (2022) https://en.wikipedia.org/wiki/Laplacian_matrix, Wikipedia, zugegriffen am 19.06.2022

[2] Jansen D (1999) Einführung in die Netzwerkanalyse, VS Verlag für Sozialwissenschaften

[3] Wasserman S, Faust K (1994) Social Network Analysis, Cambridge University Press

[4] PageRank (2022) https://en.wikipedia.org/wiki/PageRank, Wikipedia, zugegriffen am 19.06.2022

[5] Hamilton W L (2020) Graph Representation Learning, Morgan&Claypool Publishers

[6] Bratanic T (2022) Extract knowledge from text: End-to-end information extraction pipeline with spaCy and Neo4j, published May 6, 2022, https://towardsdatascience.com/extract-knowledge-from-text-end-to-end-information-extraction-pipeline-with-spacy-and-neo4j-502b2b1e0754, towardsdatascience.com, zugegriffen am 10.05.2022

[7] spaCy (2022) https://spacy.io/models/de, zugegriffen am 20.04.2022

[8] Transformers (2022) https://huggingface.co/docs/transformers/main_classes/pipelines, huggingface.co, zugegriffen am 20.04.2022

[9] Neo4j (2022) neo4j.com, zugegriffen am 23.06.2022

[10] Jupyter Notebooks (2021) https://jupyter.org/, zugegriffen am 02.12.2022

[11] Colab (2021) https://colab.research.google.com/

[12] Scifo E (2020) Hands-on Graph Analytics with Neo4J, Packt Publishing, Birmingham, kindle edition

[13] EU AI Act (2022) https://artificialintelligenceact.eu/, Europe Administration

AI & M 4.0: Collective Mind, Proxies und word embedding

Eine Warnung vorweg: Ich benutzte im Blog Mathematik und AI Techniken, da ich versuche, den Begriff Collective Mind damit besser auszuleuchten. Vielleicht motiviert dies den ein oder anderen Leser, den Blog-Beitrag genau aus diesem Grunde zu lesen.

Der Begriff Collective Mind wurde erstmals 2007 von Jens Köhler und mir, im Zusammenhang mit der Erstellung unseres Buches „Die Collective Mind Methode“, geprägt [1]. Später ist der Collective Mind, als einer der zentralen Begriffe, in Management 4.0 eingegangen.

Wir verstehen unter Collective Mind (CM) einerseits einen kollektiven Flow-Zustand, der für Team oder organisationale Hochleistung steht und andererseits steht er auch für einen Operator, also Modelle und Theorien, der diesen Zustand beschreibt und herbeiführt.

Wir benutzen in der Collective Mind Theorie zwar verschiedene Modelle (Persönlichkeitkeitsmodelle, Wertemodelle, Team-Heterogenitätsmodelle, Kommunikationsmodelle usw.) mit denen wir den Collective Mind herbeiführen; und das funktioniert sehr gut, wie wir in mehr als 15 Jahren Praxis zeigen konnten, jedoch ist es uns bisher nicht gelungen den Flow-Zustand selbst, den Collective Mind, durch ein Modell oder eine Theorie zu beschreiben. Wir arbeiten stattdessen mit Metaphern oder wir verwenden Stellvertretermodelle, kurz Proxies, um ihn zu beschreiben. Diese Proxies sind:

  • Mitwirkungs- und Redezeit: Der CM ist dann besonders stark, wenn alle Teammitglieder nahezu gleichstark mitwirken, also sie zum Beispiel in nahezu allen Teammeetings anwesend sind und ihre Redezeit nahezu gleich verteilt ist.
  • Ähnlichkeit in der Wort- und Bild-Wahl: Der CM ist dann besonders stark, wenn alle Teammitglieder ähnliche Worte und/oder Bilder benutzen, um einen Projektsachverhalt zu beschreiben. – Es findet ein Spiegeln im gesprochenen Wort und im Bild statt.
  • Zufriedenheit: Der CM ist besonders stark, wenn alle Teammitglieder der Arbeit im Team eine sehr hohe Zufriedenheit attestieren und sie das Gefühl haben einen sinnvollen Beitrag zu leisten.
  • Spiegeln der Körpersprache: Der CM ist besonders stark, wenn alle Teammitglieder in ihrer Körpersprache die Köpersprache der anderen spiegeln.

Im Idealfall treffen für ein CM Hochleistungsteam alle diese Proxies gleichzeitig zu.

Diese Stellvertretermodelle können sich auch über die Zeit entwickeln: Zum Beispiel benutzen die Teammitglieder am Anfang völlig unterschiedliche Beschreibungen (Sätze, Bilder), um ein Projektziel oder einzelne Anforderungen zu konkretisieren. Steigt der Collective Mind, werden die Unterschiede geringer. Jedoch kann im Team etwas passieren, das den Collective Mind zerstört oder wieder ins Wanken bringt. Die Unterschiede in den Proxies werden entsprechend wieder größer. Beispiele für solche Ereignisse, die den CM wieder verändern, sind neue Teammitglieder oder wechselhafte Anwesenheiten von Teammitgliedern oder neue Erkenntnisse, die nicht von allen im gleichen Maße gesehen und geteilt werden.

Die Leser dieses Blogs dürften diese empirischen Aussagen bei geneigter Bobachtung in ihren Teams sehr schnell bestätigen. Ich verweise diesbezüglich auch auf das Whitepaper von Armatowski et. al., das anlässlich der IPMA Research Conference zum Thema Selbstorganisation erstellt wurde [2]. – Das Whitepaper skizziert für das Autorenteam den Prozess der Selbstorganisation, also der Ausbildung eines CM’s, während der IPMA Research Hackdays 2020.

Im Bereich der Wissenschaften, insbesondere derjenigen, die Sachverhalte auch mathematisch beschreiben, hat man sich inzwischen weitgehend daran gewöhnt die Realität mit den Proxies für die Realität gleichzusetzen: Zum Beispiel werden elektrische Erscheinungen einem elektrischen Feld E zugeschrieben (Fett gedruckte Buchstaben bezeichnen hier eine sogenannte Vektorgröße, die durch einen Betrag und eine Richtung beschrieben wird). – Wahrscheinlich käme kaum jemand auf die Idee, E als Proxy zu betrachten. – Falls es doch mal durch einen genialen Wissenschaftler geschieht, bringt dieser die Erkenntnis einen Schritt weiter, in dem er die dem Proxy hinterlegten Annahmen radikal hinterfragt.

Alle anderen dürften über Jahrzehnte oder sogar Jahrhunderte hinweg das elektrische Feld E mit der „wahren“ elektrischen Realität gleichsetzen. – Lediglich im Bereich der Quantenmechanik ist diese breite Sicherheit nie so wirklich wahrgeworden. – Die Unterschiede zwischen alltäglicher Erfahrung und quantenmechanischer Beobachtung und den assoziierten Proxies ist nach wie vor zu groß.

Proxies sind also nur Stellvertreter, also Modelle oder Theorien, die unsere Beobachtungen zusammenfassen bzw. abstrahieren. So gesehen ist es sicherlich legitim die obigen Collective Mind Proxies für den „wahren“ Collective Mind zu verwenden. Verwendet man zusätzlich die Mathematik zur Beschreibung, so ergibt sich ein deutlich besseres und erweitertes Verständnis der Zusammenhängen, nicht selten werden Zusammenhänge erst sichtbar. – Eine Aussage, die nach meiner Erfahrung immer gültig ist, vorausgesetzt man berücksichtigt wie auch bei anderen (mentalen) Modellen, dass Proxies nicht zwangsläufig die Realität sind.

Setzt man die mathematische Beschreibung in Technologie, in unserem Fall in Artificial Intelligence Technologie, um, so lässt sich der CM viel besser fassen. Wie wir gleich sehen werden, lassen sich die Collective Mind Proxies in der Praxis gut operationalisieren und gut überprüfen.

Wir führen das mathematische Gebilde „Tensorfeld Collective Mind CM(x,t)“ ein, das vom Ort x und der Zeit t abhängt.

Was verstehe ich darunter?

Im Kontext von Management oder Projekt Management kann man sich sehr gut vergegenwärtigen, dass der Collective Mind wie ein abgeschossener Pfeil eine Richtung haben muss, denn Projektziele oder die Ziele einzelner Personen oder Organisationen werden u.a. durch eine Richtung beschrieben. Er hat auch einen Betrag, nämlich die Energie, die im Team, in der Person oder der Organisation zu diesem Ziel vorhanden ist. Dass der CM sich zeitlich ändern kann, habe ich schon oben erläutert. – Er kann natürlich auch vom Ort abhängen. – Der Collective Mind innerhalb eines (größeren) Teams oder einer Organisation kann durchaus von Ort zu Ort unterschiedlich sein: Verschiedene Sub-Teams eines Teams haben unterschiedliche Collective Minds, verschiedene Sub-Organisationen (Abteilungen) einer Organisation haben wahrscheinlich auch unterschiedliche Collective Minds.

Mit diesen Annahmen setze ich die obigen verbalen Proxies in Mathematik um: Die Aussage „in etwa gleiche Mitwirkungs- und Redezeit“ kann man in Differenzen umsetzen, indem wir die Redezeiten jeder Person mit jeder anderen Person vergleichen. Es entsteht eine Matrix, oder allgemeiner ein Tensor oder Tensorfeld. – Die bekannteste google AI/ML Plattform auf der Basis neuronaler Netzwerk heißt tensorflow, weil Tensoren durch das Netzwerk aus künstlichen Neuronen fließen [3].

Auch die Ähnlichkeit in der Wortwahl kann man durch Differenzen darstellen. Die Differenzen in der Wortwahl bilden ebenfalls ein Orts- und Zeit-abhängiges Tensorfeld.

Auf der Basis der obigen verbalen Proxies führen wir eine mathematische Form für den Operator des Collective Minds, CMO(x,t) (das hochgestellte O steht für Operator), ein:  

CMO(x, t) ~ proxyCMO(x, t) = SO(x, t)*MO(x,t)

Diese Gleichung drückt aus, dass wir annehmen, dass das „unbekannte Wesen“ CMO(x, t) näherungsweise durch einen proxyCMO(x,t) beschrieben werden kann; und dass zwei Faktoren – nach jetziger Erkenntnis – diesen proxyCMO(x,t) bestimmen. Ich habe Faktoren gewählt, um auszudrücken, dass im Idealfall alle zwei Faktoren, SO und MO, vorhanden und groß sein müssen, um einen großen CMO(x,t) zu erhalten.

SO(x,t) = Similarity: Dieser Faktor “misst” Mitwirkungs- und Redezeit sowie Wortähnlichkeit (Ähnlichkeiten in Bildern berücksichtigen wir der Einfachheit wegen hier nicht). Wir können diese beiden Proxies gut in einer Größe zusammenfassen: Wählen wir SO(x,t) geeignet, so kann SO(x,t) nur dann eine hohe Similiarity ausweisen, wenn man gleich große Text – oder Redeblöcke miteinander vergleicht und dies kann nur dann der Fall sein, wenn die Teammitglieder in etwa gleich lange anwesend sind und gleichlange sprechen.

MO(x,t) = Mood: Dieser Faktor misst die Stimmung, die Zufriedenheit im Team oder in der Organisation. Dieser Faktor schließt auch die Häufigkeit und Intensität des körperlichen Spiegelns ein.

Ob man mehrere Faktoren benötigt, ist mir zurzeit noch nicht klar, denn SO kann nur dann hoch sein, wenn MO hoch ist. – Nur zufriedene Teammitglieder reden in etwa gleich viel mit einer ähnlichen (spiegelnden) Kommunikation in Sprache und Körper. – Jedoch könnte man Unterschiede zwischen Körpersprache und gesprochenem Wort benutzen, um Dysfunktionalitäten aufzudecken. Hierzu wäre eine entsprechende visuelle AI notwendig und dies geht in jedem Fall weit über diesen Blog hinaus.

Ich tue jetzt mal so, als wenn einige Jahrzehnte verstrichen seien und wir uns wie beim elektrischen Feld E daran gewöhnt hätten, Proxy und Realität gleichzusetzen:  Wir setzen also in der obigen Gleichung CMO und proxyCMO gleich und wir nehmen der Einfachheit wegen an, dass die Similarity genügt, um den CMO zu beschreiben:

CMO(x, t) = SO(x, t)

SO(x, t) ist eine symmetrische Matrix deren Elemente Sij(x,t) Differenzen von zwei Vektoren sind, nämlich die Differenz zwischen dem Wortanteil und der Wortwahl des Teammitgliedes i und derjenigen des Teammitgliedes j. Wortanteil und Wortwahl jedes Teammitgliedes werden durch einen Vektor in einem verbalen Raum ausgedrückt.

Jetzt müssen wir „nur noch“ einen geeigneten Operator SO(x,t) finden, der in einem verbalen Raum Vektoren aufspannt. – Ohne die Fortschritte in AI/ML wäre hier das Ende meiner Ausführungen erreicht. – Die enormen Fortschritte in der Verarbeitung der natürlichen Sprache mittels AI/ML, also dem AI/ML-Teilgebiet NLP (Natural Language Processing), machen es mir möglich, weiterzukommen.

Im Jahre 2013 wurde die fundamentale Idee veröffentlicht, Text bzw. Worte in Vektoren zu transferieren: Es werden Worte in einen Vektorraum eingebettet. Deshalb nennt man diese Technik auch word embedding. Word embedding wird auch mit dem Namen der wahrscheinlich bekanntesten AI/ML NLP Bibliothek „word2vec“ von google gleichgesetzt. [4, 5]. Jedem Wort wird hierzu ein token, eine Zahl, zugeordnet und dieses token wird in einen hochdimensionalen Raum, typischer Weise mit 300 Dimensionen! eingebettet [6, 7, 8]. Die hohe Dimension des (Wort-) Raumes erlaubt es, Worte nach 300 Dimensionen zu differenzieren. Das Verblüffende ist, dass Neuronale Netzwerke, die mittels Texten trainiert werden, die Worte eines Textes nicht beliebig in diesem Raum verteilen, sondern gemäß Sinn, wie wir ihn auch wahrnehmen. Man kann dann sogar mit diesen Wortvektoren „rechnen“, z.B. König-Mann+Frau = Königin. Dieses Rechen hat auch dazu geführt, dass man Vorurteile und Diskriminierungen in Datensätzen aufgedeckt hat, also z.B. Arzt-Mann+Frau = Krankenschwester. – Wohlgemerkt, Datensätze die unsere diskriminierende Realität beschreiben.
Wer sich von der hinterlegten Technik beeindrucken lassen möchte, den verweise ich auf die word embedding Illustration von tensorflow [9]. 

Dies word embedding ist für mich eine mehr als nur erstaunliche Erfahrung. – Sie  stützt einen meiner wichtigsten Glaubenssätze: „Das Sein unterscheidet nicht zwischen belebt und unbelebt, oder zwischen bewusst und unbewusst, wir treffen überall auf die gleichen fundamentalen Prinzipien, auch wenn deren Erscheinungen  auf den ersten Blick sehr unterschiedlich sein mögen.“

Eine der bekanntesten NLP Bibilotheken, die word2vec Funktionalität integriert, ist spaCy [10]. Ich benutze spaCy, um SO(x, t) an einem einfachen Beispiel zu berechnen. Ich lehne mich an Beispiele aus [11] an und zeige im Folgenden den Code wie er in einem Jupyter Notebook [12] in der google Colab-Umgebung [13] lauffähig ist. Zunächst eine kleine Illustration von word embedding:

pip install spacy

!python -m spacy download en_core_web_md

import en_core_web_md

nlp = en_core_web_md.load()

vocab =nlp(‚cat dog tiger elephant bird monkey lion cheetah burger pizza food cheese wine salad noodles macaroni fruit vegetable‘)

words = [word.text for word in vocab]

vecs = np.vstack([word.vector for word in vocab if word.has_vector])

pca = PCA(n_components=2)

vecs_transformed = pca.fit_transform(vecs)

plt.figure(figsize=(20,15))

plt.scatter(vecs_transformed[:,0], vecs_transformed[:,1])

for word, coord in zip(words, vecs_transformed):

  x,y = coord

  plt.text(x,y, word, size=15)

plt.show()

Unter Anwendung des obigen Codes wird folgendes Bild erzeugt:

Abbildung 1: 300-dimensionales Wortvektor-Modell projiziert auf 2 Dimensionen

Ich gehe nicht auf die Details des Code-Beispiels ein, lediglich einige Hinweise, um das Wesentliche des Blogbeitrags zu erfassen: Ich benutze ein vortrainiertes englisches Vektormodell „en_core_web_md“ und übergebe diesem einige englische Worte ‚cat dog tiger elephant bird monkey lion cheetah burger pizza food cheese wine salad noodles macaroni fruit vegetable‘, die das vortrainierte Modell in einem 300-dimensionalen Vektorraum verortet. Um diese Verortung darstellen zu können, wird die Verortung mit der mathematischen Technik PCA auf zwei Dimensionen in der Abbildung 1 projiziert. – Dadurch kommt es zu visuellen Überlappungen, wie man im Bild sehen kann. Auch erkennt man sehr schön, dass das vortrainierte Modell gemäß der Bedeutung der Worte Bedeutungscluster gebildet hat.

Wenden wir uns jetzt der Similarity zu, indem wir die Similarity von Vektoren berechnen:

Abbildung 2: Zwei übliche Definitionen von Wort Similarity

Abbildung 2 erläutert die beiden gebräuchlichen NLP Similarities. Word2vec verwendet hierbei lediglich die Cosine-Similarity. Werden ganze Sätze oder Texte auf Similarity geprüft „misst“ word2vec die Ähnlichkeit der Texte über Mittelwertbildung der beteiligten Vektoren bzw. Worte.

Die damit verbundenen Ergebnisse sind verblüffend, wie das nachfolgende einfache Beispiel zeigt:

doc1 = nlp(‚I visited England.‘)

doc2 = nlp(‚I went to London‘)

doc1.similarity(doc2)

Die Cosine-Similarity liegt für dieses Beispiel bei sα = 0,84. Die Similarity wird von word2vec auf den Bereich 0 bis 1 normiert (Anm.: Die Similarity könnte auch zwischen -1 und 1 liegen, was für unsere Betrachtung besser geeignet wäre).

Jedoch… die Euclidean-Similarity, berechnet mittels des Codes aus [14], ergibt eine sehr geringe Similarity von sr = 0,08.

D.h. Die Wordvektoren zeigen zwar in die gleiche Richtung liegen aber in völlig unterschiedlichen Raumbereichen des 300-dimensionalen Wortvektorraumes. – Beide Aussagen sind also nicht identisch, haben jedoch eine hohe Bedeutungs-Affinität.

Ein anderes Beispiel: Ich möchte die Similarity von zwei Texten aus unserem Buch Management 4.0 [15] vergleichen: Ich vergleiche eine Kurzfassung der Management 4.0 Definition mit der Langfassung der Definition:

doc1 = nlp(‚With a systemic leadership approach, Management 4.0 provides the guiding competence for viable learning organizations in complex situations and environments. Management 4.0 integrates an Agile Mindset, the universal principle of self-organization as a governance guideline, and relevant work techniques, for sustainable working models of the future.‘)

doc2 = nlp(‚We understand Agile Management as a leadership and management practice, to be able to act in an agile and proactive way in a complex environment characterized by uncertainty.  It is described as an Agile Mindset with a focus on: leadership for which self-leadership is the basis; leadership, which is based on a respect for basic human needs; leadership, which demands an understanding of complex systems and promotes their regulation through iterative procedures; people who self-organize in teams; fluid organizations, which promote adaptable and fast delivery of useful results and create innovative customer solutions through proactive dealing with changes‘)

Das Ergebnis für die Cosine-Similarity, von word2vec, ist wieder verblüffend:

doc1.similarity(doc2)

sα = 0,97

Die Euclidean-Similarity berechnet mit dem Code aus [14] ergibt sr = 0,46. Also verglichen mit der Similarity aus dem vorherigen Beispiel sehr hoch.

Auf der Basis dieser Beispiel-Daten kann ich einen Beispiel Similarity-Operator angeben: Wir nehmen der Einfachheit wegen an, dass die obigen beiden Texte aus dem Management 4.0 Buch von zwei Personen gesprochen wurden. Damit ergibt sich der Collective Mind Operator dieser beiden Personen zu:

SO(x, t) ist eine symmetrische 2*2 Matrix (ich bitte darum, kleine farbliche Unsauberkeiten in der Formeldarstellung zu übersehen, hier bei sα): Die Nicht-Diagonal Elemente sind hier keine einfachen Skalare, sondern bilden jeweils einen Vektor in einem Similarity Raum. Da wir mit überschaubarer Mathematik (d.h. einfacher Matrizenrechnung) weiterkommen wollen, wandeln wir diese Vektoren in Skalare um. Die einfachste Weise, dies zu tun, ist sr(x,t) nicht zu berücksichtigen und die resultierende Größe als Skalar anzusehen. Ich könnte auch die Länge des Similarity-Vektors in die obige Matrix einsetzen. – Der Vektorbetrag wäre dann so etwas wie eine integrierte Similarity. – Das Weglassen von sr(x,t) hat im Rahmen dieser Vereinfachungen keinen wesentlichen Einfluss auf die nachfolgenden Ausführungen.

Damit ergibt sich:

Man kann diese Matrix auch als sogenannte Heat Matrix darstellen, in dem die Similarities farblich codiert werden: Dies wurde in [16] benutzt, um die Similarity der Reden deutscher Politiker visuell darzustellen.

Wir haben bisher zwar einen Operator für den CM definiert, jedoch den CM selbst nicht ermittelt. Dies tue ich jetzt:

Für den Operator CMO(x, t) können wir sogenannte Eigenwerte und Eigenvektoren berechnen. Eigenvektoren sind diejenigen Vektoren, die unter der Anwendung des Operators lediglich ihren Betrag verändern, jedoch ihre Richtung beibehalten. Die Veränderung des Betrages bei Anwendung des Operators wird Eigenwert genannt. Den größten Eigenwert und dessen zugehörigen Eigenvektor assoziiere ich mit dem Collective Mind Vektor CMvektor dieser beiden kommunizierenden Personen (es gibt noch einen zweiten Eigenwert und Eigenvektor, der aber hier (wahrscheinlich) keinen Sinn machen):

Das Internet stellt auch für solche Berechnungen eine App zur Verfügung [17]. Der Vektor CM bekommt damit folgende mathematische Gestalt:

Der Eigenvektor liegt also auf der „Diagonalen zwischen zwei Personen“ und hat einen Eigenwert der größer als 1 und maximal 2 ist. Die Mathematik spiegelt mein Verständnis eines CM wider. Deshalb sage ich: „Gar nicht schlecht für den Anfang 😉, jedoch werden Synergieeffekte (d.h. Eigenwerte größer 2) und Effekte des gegenseitigen Blockierens (d.h. Eigenwerte kleiner 1) nicht abgebildet. Letzteres hängt auch damit zusammen, dass die word2vec Similarity per Definition nicht kleiner Null ist.

In unserem Beispiel ist der Eigenvektor und der Eigenwert statisch, da die Similarity keine explizite Zeitabhängigkeit enthält. Im Allgemeinen ist die Similarity eine  zeit- und ortsabhängige Größe. Damit werden die Berechnungen viel aufwendiger, unterscheiden sich jedoch nicht von den einfachen Ausführungen hier.

Es ist also möglich Zeitscheiben zu definieren, in denen eine AI synchron in Teammeetings die Gespräche aufnimmt, die Gespräche transkribiert und dann wie hier geschildert (und evtl. mit weiteren AI Techniken) die Similarity berechnet. Die Darstellung der Similarity als Zeitreihen und des zeitlichen Verlaufes des Vektors CM könnte als Feedback-Mechansimus eingesetzt werden, um eine Teamreflexion zu unterstützen. – Die AI übernimmt damit eine „Coaching“ Funktion. – Dieser Blog-Beitrag skizziert also die Ausgestaltung der AI-Anwendung Collective Mind im IPMA Kompetenz Bereich Teamarbeit, aus meinem Dezember 2021 Blog-Beitrag.

[1] Köhler J, Oswald A. (2009) Die Collective Mind Methode, Projekterfolg durch Soft Skills, Springer Verlag

[2] Armatowski S., Herrmann P., Müller M., Schaffitzel N., Wagner R (2021) The importance of Mindset, Culture and Atmosphere for Self-Organisation in Projects, White Paper IPMA, erstellt anläßlich der IPMA Research Conference 2020

[3] tensorflow (2022) tensorflow.org, zugegriffen am 16.04.2022

[4] google (2022) word2vec, https://code.google.com/archive/p/word2vec/, zugegriffen am 16.04.2022

[5] Wikipedia (2022) word2vec, https://en.wikipedia.org/wiki/Word2vec, zugegriffen am 16.04.2022

[6] Karani D (2022) Introduction to Word Embedding and Word2Vec, https://towardsdatascience.com/introduction-to-word-embedding-and-word2vec-652d0c2060fa, zugegriffen am 20.04.2022

[7] Megret P (2021) Gensim word2vec tutorial,  https://www.kaggle.com/pierremegret/gensim-word2vec-tutorial , zugegriffen am 20.04.2022

[8] Delaney J (2021) Visualizing Word Vectors with t-SNE, https://www.kaggle.com/jeffd23/visualizing-word-vectors-with-t-sne/notebook , zugegriffen am 20.04.2022

[9] word embedding playground (2022) http://projector.tensorflow.org/

[10] Spacy (2022) https://spacy.io/models/de, zugegriffen am 20.04.2022

[11] Altinok D (2021) Mastering spaCy, Verlag Packt, kindle edition

[12] Jupyter Notebooks (2021) https://jupyter.org/, zugegriffen am 02.12.2021

[13] Colab (2021) https://colab.research.google.com/

[14]   NewsCatcher Engineering Team (2022) https://newscatcherapi.com/blog/ultimate-guide-to-text-similarity-with-python, zugegriffen am 20.04.2022

[15] Oswald A, Müller W (2019) Management 4.0 – Handbook for Agile Practices, Verlag BoD, kindle edition

[16] Timmermann T (2022) https://blog.codecentric.de/2019/03/natural-language-processing-basics/, zugegriffen am 20.04.2022

[17]   Виктор Мухачев (2022) https://matrixcalc.org/de/, zugegriffen am 20.04.2022   

AI & M 4.0: Hybrid Collective Intelligence in Organisation und Gesellschaft

Dieser Blogbeitrag ergänzt meinen vorherigen Blogbeitrag, insbesondere die dort gelisteten Kernaussagen des Buches „The Age of AI: And Our Human Future“ des ehemaligen amerikanische Außenminister Kissinger sowie des ehemaligen google CEO Schmidt und des MIT Professor Huttenlocher [1].

Hybrid (Collective) Intelligence liegt vor, wenn unsere menschliche (kollektive) Intelligenz durch die (kollektive) Intelligenz von Artificial Intelligence ergänzt wird und sich damit eine Erweiterung der Wahrnehmung unserer Realität ergibt, so dass wir komplexe Fragestellungen beantworten können, die wir ohne AI nicht oder nur mit deutlich größerem Aufwand beantworten könnten. Diese Definition lehnt sich an diejenige in [2] an.

Hybrid (Collective) Intelligence führt insbesondere für das Projekt Management zu drei zentralen Veränderungen:

  • Der Innovationsprozess wird sich substanziell verändern, da ein oder mehrere AI Systeme den F&E Suchraum allein oder in Zusammenarbeit mit Menschen erheblich erweitern und verändern werden [3].
  • Das (Projekt) Management hat zu berücksichtigen, dass Aufgaben zwischen Mensch und AI, alleine oder zusammen, zu verteilen sind. – Entscheidungsprozesse werden sich in dieser Zusammensetzung erheblich verändern [4]. – Man siehe hierzu auch die Liste an AI/ML Erweiterungen im letzten Blog-Beitrag.
  • AI Systeme werden in nahezu alle Projektlösungen einfließen und damit wird AI zur Kernkompetenz in der Projektarbeit. Gleichzeit sind die Auswirkungen der AI Projektlösungen für die Stakeholder, die Gesellschaft und die Natur zu berücksichtigen.

Ich verwende als Definition von Intelligenz eine recht unübliche Definition, die meines Erachtens aber umso treffender ist. Diese Definition wurde wohl erstmals von Alex Wissner-Gross vorgeschlagen [5, 6]: “Intelligence is the ability to maximize future options in order to accomplish complex tasks.” – Diese Definition lässt sich u.a. in eine mathematische Gleichung übersetzen und ist universell auf alle Objekte (belebte, unbelebte, soziale) anwendbar. Im Kontext von AI bedeutet dies zum Beispiel, dass eine AI zur Natural Language Processing (NLP) nicht nur die trainierten Texte oder recht ähnliche in Frage-Antwort Situationen wiedererkennt, sondern die Flexibilität besitzt auch Fragen zu beantworten, die nicht genau den trainierten Fragen entsprechen. Neben der neuronalen Architektur des Neuronalen Netzwerkes wird dies vor allem durch die vielen Parameter-Freiheitsgrade erreicht. – Die Freiheitsgrade von State-of-The-Art AI NLP Systemen umfassen aktuell mehrere 100 Million Parameter.

Die Fähigkeit zukünftige Optionen zu maximieren, ist also die Fähigkeit Freiheit bzw. freies Handeln unter antizipierten zukünftigen Randbedingungen zu maximieren. Falls wir nicht wollen, dass die AI „ihre Freiheit“ (in Zukunft) auf Kosten unserer Freiheit maximiert, ist es notwendig, Randbedingungen für sie zu setzen. Dies bedeutet die Einführung einer Governance für Hybride (Collective) Intelligence (kurz HCI Governance), die zudem adaptiv, also in einem PDCA-Zyklus, in die Zukunft fortzuschreiben ist.
Die Einführung einer HCI Governance wird umso notwendiger, je mehr sich die AI von einer schwachen AI zu einer starken (und allgemeinen) AI oder Superintelligenz entwickelt [7, 8]. – Die genaue Verortung des aktuellen Intelligenzgrades der AI-Systeme und deren zukünftiger Entwicklung ist jedoch nicht wesentlich, denn wir wissen heute schon, dass eine HCI Governance Not tut, da neben den Segnungen der Realitätserweiterungen durch AI auch schon Freiheitseinschränkungen (u.a. Diskriminierungen, fake news, Beeinflussung von demokratischen Wahlen) durch AI aufgetreten sind.

Peeters et al. haben unlängst in ihrem sehr lesenswerten Artikel „Hybrid Collective Intelligence in a Human-AI Society“ drei verschiedene Basis-Haltungen zum Umgang mit AI identifiziert [9]:

  • Technology-centric perspective
  • Human-centric perspective
  • Collective-Intelligence perspective

Das Bemerkenswerte ihrer Analyse, die durch das niederländische Verteidigungsministerium gesponsort wurde, ist, dass sie für jede dieser Haltungen (im Artikel sprechen sie von „perspectives“) Glaubenssysteme und dazugehörige Kontexte identifiziert haben. – Also ganz im Sinne von Management 4.0.

Ich nenne hier, als Beispiel, nur jeweils einen Glaubenssatz pro Haltung:

  • Technology-centric perspective: “When sufficiently developed, AI technology can applied to solve any problem.”
  • Human-centric perspective: “Artificial intelligence only exhibits part of human cognition and is therefore insufficient for many real-world problems.”
  • Collective-intelligence perspective: “Intelligence should not be studied at the level of individual humans or AI-machines, but at the group level of humans and AI-machines working together.”

In [10] werden die EU-Haltung und die USA-Haltung miteinander verglichen: Die EU-(Administrations-)Haltung ist tendenziell eine human-centric perspective und die USA-Haltung ist tendenziell eine technology-centric perspective. – Hieraus erklären sich u.a. die diversen Bestrebungen der EU-Administration amerikanische AI-Konzerne wie google, meta/facebook, apple und amazon durch Gesetze und Strafen zu regulieren.  

Mit Hilfe dieser drei Basis-Haltungen bzw. -Perspektiven zur AI lässt sich auch die Grundhaltung in [1] beschreiben: Sie ist tendenziell eine human-centric perspective ergänzt um die technology-centric perspectice und die collective-intelligence perspective. Im Wissen um diese, aber insbesondere auch wegen der in den USA vorherrschenden technology-centric perspective, fordern die Autoren eine Regulation der AI, also die Einführung einer Governance für AI Systeme. Dies ist umso wichtiger, da auf der Basis der technology-centric perspective schon heute weltweit AI gestützte Waffensysteme entwickelt und genutzt werden.

Berühmte Vertreter der technology-centric perspective in den USA sind Peter Kurzweil [11] und die mit ihm verbundene Singularity University [12]. – Ein Kennzeichen dieser Haltung ist der Glaube, dass in absehbarer Zukunft, im Jahre 2045, die Fähigkeiten der AI diejenigen der Menschheit übersteigen werden.

In [9] wird betont, dass keine der obigen Basis-Haltungen richtiger oder besser ist, sondern dass der Kontext die Basis-Haltung bestimmen sollte. – Was leider nur selten geschieht. – In [13] wird die zentrale Bedeutung der Reflexion und der kritischen Auseinandersetzung mit dem sozialen Kontext, also den aktiven Werten, Glaubensätzen und Prinzipien für das Design, die Implementierung und die Operationalisierung von AI Systemen diskutiert. Falls die Metakompetenz für diese (Selbst-) Reflexion und kritische Auseinandersetzung nicht vorhanden ist, wird eine AI Ethik nicht angenommen und damit auch nicht verantwortungsvoll umgesetzt. In [14] habe ich die “Forderung” aufgestellt, dass Projekte mit hoher Komplexität, eine türkis/teal Kultur benötigen: “Ideally, this requires a mindset of all key stakeholders that also contains red, blue and orange value meme components (red means power orientation, blue means control and order orientation, and orange means entrepreneurship and linear-scientific-thinking orientation), but is mainly shaped by the transformational value meme components, namely green (compassion), yellow (nonlinear networked system thinking) and teal (holistic-transcendental orientation).” Alle Teammitglieder und insbesondere der Projektleiter sollten über die Metakompetenz verfügen, ihre eigenen Werte und Glaubenssätze im jeweiligen Kontext kritisch zu hinterfragen, um bewusst AI Systeme ethisch verantwortungsvoll zu designen, zu implementieren und zu operationalisieren.  

Meine persönlich präferierte Basis-Haltung ist die collective-intelligence perspective. Wenn ich AI Systeme erstelle liegt meine Haltung hingegen eher auf der technology-centric perspective und im Schreiben dieses Blog-Beitrages eher auf der human-centric perspective.    

Schaut man sich die Definitionen für AI der großen AI-Konzerne an, so lassen diese eine recht eindeutige AI-Haltung der jeweiligen Autoren erkennen:

IBM: “Artificial intelligence leverages computers and machines to mimic the problem-solving and decision-making capabilities of the human mind.” [15]: technology-centric perspective

Microsoft (deutsch): „Unter künstlicher Intelligenz (AI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“ [16]: collective-intelligence perspective

Microsoft (amerikanisch): “Artificial intelligence (AI) is the capability of a computer to imitate intelligent human behavior. Through AI, machines can analyze images, comprehend speech, interact in natural ways, and make predictions using data.” [17]: technology-centric perspective. – Die Microsoft AI Internetseite [18] „AI for Good“ zeigt hingegen eine eher human-centric oder collective-intelligence perspective.

Google CEO: “At its heart, AI is computer programming that learns and adapts. It can’t solve every problem, but its potential to improve our lives is profound. At Google, we use AI to make products more useful—from email that’s spam-free and easier to compose, to a digital assistant you can speak to naturally, to photos that pop the fun stuff out for you to enjoy.” [19]: collective-intelligence perspective

Die Internetseite von google [20] und diejenige von meta/facebook [21] lassen eine Mischung aus technology-centric- und collective-intelligence-perspective erkennen.

Die OECD hat im Jahre 2019 ihr Dokument „Artificial Intelligence in Society“ vorgelegt, und definiert dort ihre human-centric perspective, die sie auch so nennt [22]: Hiernach müssen AI Systeme u.a. Menschenwürde und -rechte sowie die Demokratie gewährleisten, indem sie u.a. transparent, nachvollziehbar, vertrauenswürdig, sicher und steuerbar sind und bleiben. – Eine gestaltende Auseinandersetzung mit dem sozio-technischen System Mensch-Künstliche Intelligenz, im Sinne des Designs einer Governance, findet jedoch nicht statt.

Eine ähnliche Aussage ergibt sich für Deutschland: In [23] werden unter dem Titel „The making of AI Society: AI futures frames in German political and media discourses” die sogenannten „AI future frames“ für Deutschland untersucht. – AI future frames sind mentale Rahmen, in denen die AI Zukunft gesetzt wird. Das Ergebnis ist eher ernüchternd: „By mirroring the past in the future, alternative future visions are excluded, and past and current assumptions, beliefs, and biases are maintained. Despite the allegedly disruptive potential of emerging AI.” Hiernach denkt die deutsche Politik die neoliberale Politik der letzten Jahrzehnte unter dem Label „AI Made in Germany“ oder AI German einfach fort: „successful innovation = welfare generating future = political stability“. Die Lippenbekenntnisse der deutschen politischen Administration bis zur Wahl 2021 sind human-centric; im Tun überlassen sie die AI Governance dem Markt und eine AI Ethik explizit den deutschen Industrieunternehmen. – Eine entsprechende politische Governance, die den zentralen Aussagen in [1] Rechnung trägt, gibt es nicht. – Eine Einbettung in eine europäische AI Strategie fehlt völlig!

Die EU Kommission hat letztes Jahr in [24] einen Vorschlag für ein Regulationspapier erstellt, das in erster Linie als harmonisierende Referenz für die EU Administration dienen soll: Ein seitenstarkes Papier mit vielen Details; ich vermisse mal wieder ein Großes Bild, das zu einem Collective Mind in der EU (Administration) führen könnte. 

Wie könnten die Eckpfeiler eines Großen Bildes einer AI bzw. HCI Governance aussehen? Hier ein Vorschlag:

Rahmenparameter:

Landesspezifische AI Governance Systeme sind in eine europäische AI Governance eingebettet. – Die Strukturen der AI Governance sind auf allen europäischen Ebenen ähnlich. – Die (europäische) AI Governance folgt in ihrer Struktur einer Ziel-Hierachie: Vom Großen Bild zum Detail. Der transformative Charakter der AI Governance ist in die Governance einer ökologisch-ökonomischen Transformation (u.a. Nachhaltigkeit für Natur, Tier und Mensch, hin zu einer an sozialer Gerechtigkeit und Gleichheit orientierten Ökonomie, die Wachstum nicht als Allheilmittel verkauft) eingebettet

Kontrollparameter:

Die Kontrollparameter orientieren sich an den zentralen Aussagen aus [1]: Eine europäische AI Ethik und Gesetzgebung sorgt für eine Regulation der AI Freiheiten. Die AI Ethik und Gesetzgebung wird von der Politik gestaltet. Z.B. heißt dies, dass der Wert AI Transparenz politisch definiert wird und gesetzlich verankert wird.- Dies könnte zum Beispiel heißen, dass AI Systeme in Europa vor staatlichen Organen nach Bedarf offengelegt werden müssen.

Da AI Systeme unsere Welt transformieren, ist es notwendig dafür zu sorgen, dass die Schere zwischen AI-Wissenden und AI-Nichtwissenden nicht zu einer Verschärfung von Ungleichheit führt. Ein entsprechendes Bildungskonzept ist notwendig: AI gehört als Pflichtfach in die Schulen und AI gehört in die Curricula aller universitären Disziplinen.

Ordnungsparameter:             

Als Großes Bild für den Ordnungsparameter schlage ich vor „European Ecosystem for Hybrid Collective Intelligence“. Die Ausgestaltung dieses Großen Bildes heißt u.a. dass neben einer gemeinsamen europäischen AI Governance eine gemeinsame AI Infrastruktur aufgebaut wird. – Es werden Mechanismen bereitgestellt, die das Silo-Denken und -Handeln von Industrie und politischen Administrationen auflösen. U.a. wird eine „AI für Jedermann“ aufgebaut und die die obigen drei Sichten human-centric, technology-centric und collective intelligence integriert: Die sozio-technische HCI Integration wird also bewusst europäisch gestaltet.  

 

[1] Kissinger H A, Schmidt E, Huttenlocher D (2021) The Age of AI: And Our Human Future, kindle edition
[2] Dominik Dellermann, Adrian Calma, Nikolaus Lipusch, Thorsten Weber, Sascha Weigel, Philipp Ebel (2021) The future of human-AI collaboration: a taxonomy of design knowledge for hybrid intelligence systems, arXiv.org > cs > arXiv:2105.03354
[3] Dragos‑Cristian Vasilescu, Michael Filzmoser (2021) Machine invention systems: a (r)evolution of the invention process?, Journal AI & Society, January 2021
[4] Phanish Puranam (2021) Human–AI collaborative decision‑making as an organization design Problem, Journal of Organization Design (2021) 10:75–80
[5] Alex Wissner-Gross (2022) A new equation for intelligence, https://www.youtube.com/watch?v=auT-pA5_O_A, march 2020, zugegriffen am 07.02.2022
[6] Ron Schmelzer (2022) https://www.forbes.com/sites/cognitiveworld/2020/02/27/cant-define-ai-try-defining-intelligence/?sh=6f658a955279, Forbes Blog February 2020, zugegriffen am 07.02.2022
[7] Bernard Marr (2022) The Key Definitions Of Artificial Intelligence (AI) That Explain Its Importance, Forbes Blog February 2018, https://www.forbes.com/sites/bernardmarr/2018/02/14/the-key-definitions-of-artificial-intelligence-ai-that-explain-its-importance/?sh=219cbb1f4f5d , zugegriffen am 07.01.2022
[8] Wikipedia (2022) Artificial Intelligence, https://en.wikipedia.org/wiki/Artificial_intelligence, zugegriffen am 07.02.2022
[9] Peeters M M M, van Diggelen J, van den Bosch K, Bronhorst A, Neerinex M A, Schraagen J M, Raaijmakers S (2021) Hybrid Collective Intelligence in a Human-AI Society, in AI & Society Journal, March 2021
[10] Roberts H, Cowls J, Hine E, Mazzi E, Tsamados A, Taddeo M, Floridi L (2021) Achieving a ‘Good AI Society’: Coparing the Aims and Progress of the EU and the US, SSRN Journal, January 2021
[11] Kurzweil R (2022) https://www.kurzweilai.net/, zugegriffen am 07.02.2022
[12] Singularity University (2022) https://www.su.org/ , zugegriffen am 07.02.2022
[13] Krijger J (2021) Enter the metrics: critical theory and organizational operationalization of AI ethics, Journal AI & Society, September 2021
[14] Oswald A (2022) The Whole – More than the Sum of Its Parts! Self-Organization – The Universal Principle! in Ding R, Wagner R, Bodea CN (editors) Research on Project, Programme and Portfolio Management – Projects as an Arena for Self-Organizing, Lecture Notes in Management and Industrial Engineering, Springer Nature
[15] IBM (2022) Artificial Intelligence, https://www.ibm.com/cloud/learn/what-is-artificial-intelligence, zugegriffen am 07.02.2022
[16] Microsoft (2022) Künstliche Intelligenz, https://news.microsoft.com/de-at/microsoft-erklart-was-ist-kunstliche-intelligenz-definition-funktionen-von-ki/, zugegriffen am 07.02.2022
[17] Microsoft (2022) Artificial Intelligence Architecture, https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/ai-overview, zugegriffen am 07.02.2022
[18] Microsoft (2022) AI for Good, https://www.microsoft.com/en-us/ai/ai-for-good, zugegriffen am 07.02.2022
[19] Sundar Pichai (2022) AI at Google: our principles, https://www.blog.google/technology/ai/ai-principles/, Blog of CEO google, june 2018, zugegriffen am 07.02.2022
[20] Google (2022) Google AI: Advancing AI for everyone, https://ai.google/, zugegriffen am 07.02.2022
[21] Meta AI (Facebook) (2022) Bringing the world closer together by advancing AI, https://ai.facebook.com/, zugegriffen am 07.02.2022
[22] OECD (2019) Artificial Intelligence in Society, Online Version, https://www.oecd-ilibrary.org/sites/eedfee77-en/index.html?itemId=/content/publication/eedfee77-en&_csp_=5c39a73676a331d76fa56f36ff0d4aca&itemIGO=oecd&itemContentType=book
[23] Köstler L, Ossewaarde R (2020) The making of AI Society: AI futures frames in German political and media discourses, in AI & Society Journal, February 2021, Springer Nature
[24] Europäische Kommission (2021) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52021PC0206, zugegriffen am 07.02.2022

AI & M 4.0: Zur Erweiterung unserer Intelligenz und Realität durch Machine Learning (ML) und Artificial Intelligence (AI) im Management 4.0

Der ehemalige amerikanische Außenminister Kissinger sowie der ehemalige Google CEO Schmidt und der MIT Professor Huttenlocher haben zusammen vor ein paar Tagen ein bemerkenswertes Buch zu unserer Zukunft im Zeitalter der künstlichen Intelligenz herausgebracht. – Ich nenne wesentliche Aussagen dieses Buches [1]:

  • Machine Learning (ML) und Artificial Intelligence (AI) basieren auf völlig anderen Prinzipien als „klassische“ Software: Im Rahmen vorgegebener Selbstorganisations-Parameter (und Daten) organisiert sich eine AI selbst. – Sie bildet durch Training Modelle zu den eingegebenen Daten, also der ausgewählten Realität, ab. – Diese Modelle sind nicht perfekt, sie liefern Wahrscheinlichkeitsaussagen. – Und damit haftet diesen Modellen unmittelbar Unsicherheit an! – Gar nicht so unähnlich unserer Intelligenz!
  • Systeme künstlicher Intelligenz erkennen schon heute Muster in unsrer Realität, die unserer Intelligenz (bisher) verschlossen waren. – AI bildet erfolgreich Schachstrategien aus, die bisher kein Mensch verwendet hat oder findet wirksame Medikamente, die bisher unentdeckt geblieben sind, oder hilft Prinzipien der Physik und Mathematik zu entdecken usw. 
  • AI wird unsere Sicht auf die Realität wesentlich verändern, nicht nur quantitativ, sondern vor allem auch qualitativ! – Und dies in zweierlei Hinsicht: Die Entwicklung von AI sorgt für die Integration verschiedener Disziplinen wie Psychologie, Sozialwissenschaften, Naturwissenschaften, Informatik, Mathematik sowie Philosophie und führt in den jeweiligen Disziplinen zu neuen Erkenntnissen und Anwendungen.
  • Gesellschaftliche Systeme werden sich substanziell unterschiedlich entwickeln, je nachdem, ob in welchem Maße und in welcher Qualität ML/AI eingesetzt wird. – Dies wird sich zum einen auf globaler Ebene zeigen, und zum anderen wird es auch eine neue „Schichtung“ der Gesellschaft(en) entlang der individuellen ML/AI Kompetenzen hervorrufen. – Derzeit gibt es nur zwei relevante ML/AI Ecosysteme: USA und China. – Und diese Ecosysteme formen mit ihren ML/AI Systemen unsere (europäische) Zukunft!

Falls jemand diese Aussagen anzweifelt, so möge er sich die Internetseite von DeepMind [2] oder der AI community DeepAI [3] ansehen – die Zweifel dürften sehr schnell verschwinden.

Seit ein paar Monaten konfiguriere bzw. programmiere ich ML/AI Systeme, also Physical Technologies. – Ich tue dies auf der Basis des amerikanischen ML/AI Ecosystems, insbesondere von Google’s Colab [4], Python [5] und Jupyter Notebooks [6]: Ich lote aus, inwieweit diese Physical Technologies helfen könnten, die Social Technology Management 4.0 gemäß den obigen Aussagen zukunftsfähig zu machen. – Das heißt, die Management 4.0 Intelligenz durch ML/AI quantitativ und qualitativ zu erweitern.

Im Tun wird einem sehr schnell bewusst, dass das europäische ML/AI Know-How ganz wesentlich vom amerikanischen ML/AI Ecosystem dominiert wird. – Das amerikanische ML/AI Ecosysteme von Google, Facebook/Meta Platforms, Microsoft und Co. ist überwältigend! – Es gibt eine Vielzahl an öffentlich zugänglichen Plattformen mit einer enormen Anzahl von vortrainierten ML/AI Modellen, unzähligen Tutorials und Code-Beispielen. – Selbst die Nutzung generativer Natural Language Processing (NLP) Systeme der neuesten Generation oder sogar die Anbindung an Quantencomputing ist prinzipiell möglich.

Das amerikanische ML/AI Ecosystem ermöglicht auch Personen wie mir, deren ML/AI Know-how Lichtjahre vom google Know-how entfernt ist, in überschaubaren Schritten in die ML/AI-Welt einzusteigen. Google, Meta Platforms, Microsoft und Co. haben damit einen gesellschaftlichen Innovations-Feedback Mechanismus angestoßen, der der (amerikanischen) Gesellschaft – zumindest einem gewissen Teil davon – einen enormen Innovationsschub gibt: Das ML/AI Ecosystem trägt zu immer schnelleren und qualitativ neuartigen ML/AI Entwicklungen bei, teilweise sogar zu ML/AI Technologie-Revolutionen – man siehe [2] und [3].

Auch wenn nicht wenige Europäer zum amerikanischen ML/AI Ecosystem beitragen, so wurde mir im Tun „schmerzlich“ bewusst, dass wir Europäer auf der Ebene der gesellschaftlichen ML/AI Ecosysteme keine Rolle spielen. – Auch wenn es „kleine“ lokale ML/AI Ecosysteme wie das Tübingen AI Center gibt [6].
Mir sind keine öffentlich zugänglichen europäischen ML/AI Plattformen bekannt. Gerade im Natural Language Processing (NLP) Bereich gibt es nur wenige vortrainierte Modell für europäische Sprachen oder die deutsche Sprache. (Nahezu) alle Tutorials sind in Code und Daten auf den Englisch-sprachigen Bereich ausgerichtet…Dies dürfte nicht nur mir sehr viel mühsame Transferarbeit bescheren!

Man mag das amerikanische ML/AI Ecosystem durchaus auch kritisch sehen, jedoch kann man Google und Co. mit ihrer ML/AI open source Philosophie nicht absprechen, dass Sie einen erheblichen Beitrag für die (ML/AI-) Entwicklung der amerikanischen und auch westlichen Gesellschaft leisten. Schaue ich auf die deutsche Unternehmenslandschaft, so zahlen unsere Unternehmen nach meinem Wissen auf kein gesellschaftliches ML/AI Ecosystem ein. – Unsere deutsche (unternehmerische) Gesellschaft wird nach wie vor von Silo-Denken, Silo-Geschäftsmodellen und Silo-Handeln bestimmt. Das heißt auch, dass gemäß [1] die Entwicklung der europäischen Gesellschaft über kurz oder lang einen Mangel an erweiterter Intelligenz und erweiterter Realität spüren wird, falls dieser Mangel nicht schon jetzt vorhanden ist.

Die obigen Aussagen aus [1] entsprechen meiner Erfahrung und Wahrnehmung und sind ein Motiv, sich um die Verbindung von AI und Management 4.0 (AI & M 4.0) zu kümmern: AI kann dem Projektleiter sowie dem Team assistieren und, was vielleicht noch viel wichtiger ist, mentale Feedback Mechanismen anstoßen, die die kognitive menschliche Projekt- und Management-Intelligenz erweitern. Damit geht einher, dass das menschliche Bewusstsein sich erweitert und mentale wie gesellschaftliche Transformationen angestoßen und begleitet werden. – Die wahrgenommene Realität insbesondere in komplexen Projekten wird sich nach meiner Einschätzung durch ML/AI erheblich erweitern.

Ich liste im Folgenden AI & M 4.0 Anwendungskategorien, die nach meinem aktuellem Wissensstand für das (Projekt) Management von Bedeutung sein werden.- Ich kennzeichne die Kategorien durch AI/ML und eine fortlaufende Nummer. – Man siehe hierzu auch die phasenorientierte Zuordnung von PM Aktivitäten und AI/ML Techniken in [8].

AI/ML 1 – Numerische Feature-Multilabel (supervised) AI: Ein Sachverhalt wird über numerische Datenkategorien (Features) beschrieben und Anwendungstypen oder Klassen (man spricht von Labels) zugeordnet. Zum Beispiel nimmt ein AI System eine Aufwands- oder Kostenschätzung vor. Hierzu werden die Aufgaben gemäß bestimmter numerischer Features beschrieben und einer Aufwandsklasse, also einem Label, zugeordnet. Supervised bedeutet hier, dass die AI mit einer Feature-Label Zuordnung trainiert wird, die durch Menschen vorher vorgenommen wurde. Hierbei ist es meines Erachtens jedoch nicht notwendig, zuerst jahrelang solche Zuordnungen, also Daten zu sammeln. Die AI könnte vielmehr in laufende Aufwandsschätzungen gemäß Delphi oder Planning Poker eingebracht werden, im Wissen, dass die AI sich wahrscheinlich langsam aufbaut.    

AI/ML 2 – Text-Multilabel (supervised) Natural Language Processing AI: Ein Sachverhalt wird über Text bzw. Sprache beschrieben und Labels zugeordnet. Auch eine Aufwandsschätzung könnte auf diese Weise durch AI vorgenommen werden.- Die zu schätzenden Aufgaben liegen als Textbeschreibungen vor und für das Training werden durch Menschen Label-Zuordnungen vorgenommen. Text und Label werden im AI-Training verarbeitet. – Die AI ist also in der Lage natürliche Sprache (Natural Language Processing (NLP)) zu verarbeiten. Ein anderes Bespiel ist die Analyse von Verhalten, beschrieben in Textform und die Zuordnung zu Persönlichkeitslabels (Temperament, Werten, Grundannahmen, Glaubenssätzen, Prinzipien). – Die nachträgliche Analyse von Verhalten durch niedergeschriebenen Text ist relativ „einfach“.  – Eine direkte Analyse der Kommunikation z.B. während einer Teamsitzung ist jedoch wesentlich anspruchsvoller und entzieht sich derzeit (noch 😉) meinem Kenntnisstand. – Selbstverständlich kann auf dieser Basis auch eine organisationale Kulturanalyse vorgenommen werden, indem die Kommunikation (Gesprochenes, Dokumente, eMail, Chat) im Team oder in der Organisation ausgewertet wird.  

AI/ML 3 – Graph Neural Networks bzw. Graphen-Multilabel (supervised) AI: Sehr viele Sachverhalte in Natur, Sozialem und Technik lassen sich über Graphen bzw. Netzwerke beschreiben [9, 10]. Soziale Systeme bzw. Organisationen lassen sich gut über Social Networks darstellen. Der Projektstrukturplan bzw. der Projektplan sind spezielle Graphen. Die Zielhierarchie ist eine weiterer Graph. Zum Beispiel lassen sich aus der Kommunikation der Stakeholder Social Networks ableiten und diese Social Networks oder Social Networks Bausteine werden mit Labels versehen und dienen dem Training von AI/ML. Ein anderes Beispiel ist die Extraktion der Zielhierarchie aus einer Teamkommunikation und die anschließende „Überprüfung der Einhaltung“ der Zielhierarchie in der Stakeholderkommunikation. Oder, das Social Network eines Teams wird Performance Labels (z.B. Hochleistung, mittlere Leistung, dysfunktionale Leistung) zugeordnet.  

AI/ML 4 – Team-Sprachanalyse (unsupervised) AI: Die Sprache in Teams oder Stakeholdergruppen wird auf Gemeinsamkeiten untersucht. So lässt sich u.a. aus der Wortwahl von Teammitgliedern u.a. mittels der Bag of Word und word embedding Technologien auf deren „mentale Verwandschaft“ oder das Collective Mind schließen.

AI/ML 5 – Generative NLP (unsupervised) AI: Mittels generativer NLP AI Systeme [11, 12] lassen sich u.a. Vertragsdokumente bzw. Claim-Dokumente mittels weniger von Menschen eingegebener zentraler Prinzipien generieren. Diese Systeme können auch dazu benutzt werden, Abweichungen (also Vertrags- und Claimrisiken) zu identifizieren.

AI/ML 6 – Clustering (unsupervised) AI: Die AI clustered numerische oder Textdaten. Diese Cluster zeichnen sich durch charakteristische Cluster Eigenschaften aus und erlauben damit das Erkennen von Mustern in den Daten. Auf diese Weise können zum Beispiel Projekte, Aufgaben oder auch Stakeholder geclustert werden. – Einen ersten Eindruck von der Fähigkeit Neuronaler  Netzwerke zu clustern, bietet die „Spielumgebung“ von Tensorflow [13].

Diese sechs Kategorien lassen sich auch kombinieren, sei es, um ergänzende Informationen zu erhalten oder eine sogenannte AI/ML Verarbeitungspipeline aufzubauen.

Ich erwarte, dass mit gewonnener Erfahrung diese sechs Kategorien detailliert werden und auch weitere Kategorien hinzukommen.

Ich verwende diese sechs AI/ML Kategorien, um AI & M 4.0 zu beschreiben: Ich tue dies unter Verwendung der IPMA ICB 4.0 Kompetenzen [14] bzw. der Kompetenzen des Handbuches Kompetenzbasiertes Projektmanagement (PM4) der GPM [15]. Die nachfolgende Tabelle listet AI & M 4.0. Die Tabelle ist sicherlich nicht vollständig. – Sie gibt den aktuellen Stand meiner Überlegungen wieder; sie dürfte sich also noch ändern.

Die Tabelle zeigt, dass schon heute mit entsprechendem Know-how die (Projekt) Management Intelligenz und Realität deutlich erweitert werden kann. – Mit einem AI Know-How, das im amerikanischen ML/AI Ecosystem abrufbar ist.

Die kursive Schrift in der Tabelle zeigt an, dass in diesen Fällen eine Bearbeitung durch die GPM Fachgruppe Agile Management begonnen wurde.

Perspective – KontextkompetenzenAI & M 4.0: Erweiterte Management 4.0 Intelligenz und Realität mittels ML/AI
Strategie 
Governance, Strukturen und Prozesse 
Compliance, Standards und RegularienAI/ML 5: Ermittlung von Compliance und Risiken durch den Abgleich von Projektartefakten und Compliance-Dokumenten sowie Standards und Normen
Macht und Interessen 
Kultur und WerteAI/ML 2: Ermittlung des organisationalen Mindsets (Kultur) durch vortrainierte Neuronale Netzwerke (NN): transkribierte Sprache und Texte werden mittels eines Transformermodells wie BERT [16,17] einer Text-MultiLabel Analyse unterzogen. – BERT ist eines der wenigen Modelle, das auch in einer deutschen Sprachversion verfügbar ist.   In einem zweiten Schritt kann diese Information dazu benutzt werden, um die Heterogenität der Kultur in einer Organisation zu ermitteln. In dem vorhergehenden Blog-Beitrag habe ich dies als „Spinglass-Organisation“ bezeichnet.     
People – Persönliche und soziale Kompetenzen 
Selbstreflexion und SelbstmanagementAI/ML 2: Die Selbstreflexion und das Selbstmanagement wird durch einen Feedback Mechanismus zwischen AI und Projektmanager oder Teammitglied angestoßen. Die AI erweitert die Metakompetenz des PM und der Teammitgliedern, indem den Verhaltensweisen durch die AI Persönlichkeitsdimensionen (Temperament, Motive, Werte, Glaubenssätze) zugeordnet werden.
Persönliche Integrität und Verlässlichkeit 
Persönliche KommunikationAI/ML 2: Die Realität der Kommunikation verändert sich auf der Basis der veränderten Selbstreflexion. Zudem liefert die AI Informationen zu den Persönlichkeitsdimensionen aller kommunizierenden Teammitglieder.
Beziehungen und Engagement 
FührungAI/ML 2: Die Führungs-Metakompetenz wird erheblich erweitert, da Selbstreflexion und Kommunikation deutlich verbessert werden. – Die Decision Intelligence wird deutlich erweitert.   AI/ML 4: Die Team-Sprachanalyse ermittelt Gemeinsamkeiten und hilft Dysfunktionalitäten aufzudecken.   AI/ML 3: Social Networks werden mittels GNN (Graph Neural Networks) analysiert und gelabelt. Dies kann auf Teamebene und auf der Ebene aller Stakeholder erfolgen.
TeamarbeitAI/ML 4: Die Stärke des Collective Mind wird durch einen „Statthalter“ also eine proxy Collective Mind (proxyCM) abgebildet: CM ~ proxyCM. Als proxyCM können verschiedene Modelle dienen: Transkribierte Sprache von Teammitgliedern werden mittels sklearn [18] (Native Bayes Classification) den Teammitgliedern zugeordnet. Desto eindeutiger die Zuordnung ist, desto geringer ist das CM, oder anders ausgedrückt, falls ein Text mehreren Teammitglieder zugeordnet werden kann, so besteht ein „inhaltlicher Überlapp“. – Der proxyCM ist größer.   Des Weiteren können Redefrequenz und Redelänge als weitere Indikatoren für den proxyCM verwendet werden.   Mittels einer Bag of Word oder Word Vector Embedding Analyse [18, 19, 20, 21] wird die Wortwahl der Teammitglieder analysiert. Unterschiedliche Wortwahlen unterschiedlicher Teammitglieder zeigen ein schwaches proxyCM an, oder umgekehrt lassen ähnliche Begriffsschwerpunkte auf ein starkes proxyCM schliessen.    
Konflikte und KrisenAI/ML 2, 3, 4: Diese AI Erweiterungen der PM Intelligenz bzw. Metakompetenz sind auch gerade in Konflikten und Krisen von enormer Bedeutung
Vielseitigkeit 
VerhandlungenAI/ML 2, 3, 4: Diese AI Erweiterungen der PM Intelligenz bzw. Metakompetenz sind auch gerade in Verhandlungen von enormer Bedeutung. AI/ML 5: Zusätzlich ist es hilfreich Vertrags- und Claim-Dokumente einer AI Überprüfung zu unterziehen.
Ergebnisorientierung 
Practice – Technische Kompetenzen 
ProjektdesignAI/ML 6: Die AI ermittelt Komplexitätsklassen auf der Basis von numerischen und/oder textuellen Daten. Die Komplexitätsklassen sind die Basis des Projektdesigns
Anforderungen und Ziele 
Leistungsumfang und Lieferobjekte 
Ablauf und Termine 
Organisation, Information und Dokumentation 
Qualität 
Kosten und FinanzierungAI/ML 1, 2: Die Ermittlung von Aufwänden und Kosten gehört zu den „einfachen“ AI/ML Techniken. Lediglich die Beschaffung von Trainingsdaten ist vermutlich schwierig, da archivierte Projektdaten selten vorliegen.
Ressourcen 
Beschaffung 
Planung und SteuerungAI/ML 1: siehe Kosten und Finanzierung
Chancen und Risiken 
StakeholderAI/ML 2, 3, 4: Diese AI Erweiterungen der PM Intelligenz bzw. Metakompetenz sind für das Stakeholdermanagement von enormer Bedeutung
Change und TransformationAI/ML 2, 3, 4, 5: Hier können nahezu alle AI Techniken zum Einsatz kommen, um eine valide Entscheidungsbasis für Interventionen zu haben.
Tabelle: AI & M 4.0 unter Verwendung der ICB 4.0 / PM4 Kompetenzen

Die GPM Fachgruppe Agile Management sucht Mitglieder, die bereit sind, in die Untiefen 😉 der AI Erstellung, des Trainingsdaten Sammelns oder sogar der Anwendung im eigenen Unternehmen einzusteigen! – Wir freuen uns über eine Kontaktaufnahme unter agile-management@gpm-ipma.de!

[1] Kissinger HA, Schmidt E, Huttenlocher D (2021) The Age of AI: And Our Human Future, kindle edition
[2] DeepMind (2021) deepmind.com, zugegriffen am 02.12.2021
[3] DeepAI (2021) deepai.org, zugegriffen am 02.12.2021
[4] Colab (2021) https://colab.research.google.com/
[5] Python (2021) https://www.python.org/
[6] Jupyter Notebooks (2021) https://jupyter.org/, zugegriffen am 02.12.2021
[7] Tübingen AI Center (2021) tuebingen.ai, zugegriffen am 02.12.2021
[8] Nuhn H (2021) Organizing for temporality and supporting AI systems – a framework for applied AI and organization research, Lecture Notes in Informatics, GI e.V
[9] Veličković P (2021) Introduction to Graph Neural Networks, https://www.youtube.com/watch?v=8owQBFAHw7E, zugegriffen am 02.12.2021, man siehe auch petar-v.com
[10] Spektral (2021) https://graphneural.network/, zugegriffen am 02.12.2021
[11] GPT-3 (2021) https://openai.com/blog/openai-api/, zugegriffen am 09.12.2021
[12] Gopher (2021) https://deepmind.com/blog/article/language-modelling-at-scale,
[13] Neuronales Netzwerk „zum Spielen“ (2021) https://playground.tensorflow.org, zugegriffen am 02.12.2021
[14] GPM (2017) Individual Competence Baseline für Projektmanagement, IPMA, Version 4.0 / Deutsche Fassung
[15] GPM (2019) Kompetenzbasiertes Projektmanagement (PM4), Handbuch für Praxis und Weiterbildung im Projektmanagement
[16] Tensorflow (2021) google Entwicklungsplattform, https://www.tensorflow.org, zugegriffen am 02.12.2021
[17] BERT (2021) NLP Transformer Model BERT, https://huggingface.co/models, zugegriffen am 02.12.2021
[18] Scikit-learn (2021) https://scikit-learn.org/, zugegriffen am 02.12.2021
[19] Gensim-word2vec (2021) https://www.kaggle.com/pierremegret/gensim-word2vec-tutorial, zugegriffen am 02.12.2021
[20] Word-Vector-Visualisation (2021) https://www.kaggle.com/jeffd23/visualizing-word-vectors-with-t-sne/notebook, zugegriffen am 02.12.2021
[21] Spacy (2021) https://spacy.io/models/de, zugegriffen am 02.12.2021