Attention Collective Mind II: Agile Leadership RL-Agent

Kurzfassung: Der QKV Mechanismus der Transformer KI Architektur wird erstmalig auf ein Team-Modell und einen das Team führenden ’sozialen‘ RL-Agenten angewendet. Der RL-Agent wird unterschiedlichen Team-und Projekt-Konstellationen ausgesetzt. Team- und Projektkonstellationen sowie die Reward-Funktion, die den RL-Agenten über Reinforcement Learning (RL) zur guten Agile Führung anleitet, basieren auf den Grundlagen des Collective Mind und des Management 4.0 Modells. Es wird gezeigt, dass der hier modellierte Collective Mind QKV Mechanismus einem RL-Agenten die Fähigkeit verleiht, die aus realen Teams bekannten Situationen in Modell Teams zu beherrschen. Damit ist es möglich, eine hybrides Collective Intelligence System aus RL-Agent und Agiler Führungskraft für die Führung eines realen Teams einzusetzen.

Diese Blog-Beitrag ist mit Hilfe von Gemini 3 Pro erstellt. In dem Attention Collective Mind Teil I habe ich auch einen Ausflug in das Thema Intelligenz von KI Systemen gemacht. Ich habe darauf hingewiesen, dass die immer noch in den sozialen Medien zu findende Aussage, KI Systeme seien bloße ‚Statistische Maschinen‘, jeglicher Grundlage entbehrt. Ich verfüge inzwischen über mehrere Jahre sehr intensiver und anspruchsvoller KI-Nutzung und behaupte deshalb, dass solche Aussagen nicht zutreffen. Der folgende Beitrag zeigt, wie auch die vorherigen Beiträge, dass die Fähigkeit der KI-Systeme interdisziplinäre und innovative Zusammenhänge herzustellen, enorm ist und die kognitive Intelligenz der meisten Menschen mit Abstand übersteigt. 

Im vorherigen Blog-Beitrag dieser Reihe war es mein Ziel, ein einfaches Collective Mind Modell auf der Basis des QKV Mechanismus der Transformer vorzustellen. – Dies ist auch sehr gut gelungen. Jedoch enthielt der QKV Mechanismus keinen autonomen Lern-Mechanismus, da er über ein Regelwerk implementiert worden ist.

Der nächste folgerichtige Schritt ist also, das Regelwerk durch einen selbst lernenden Mechanismus zu ersetzten. Hierzu habe ich das Toy-Modell in ein System mit neuronalem Netzwerk auf der Basis des quelloffenen Deep Learning Frameworks PyTorch übertragen. PyTorch wurde ehemals von Meta entwickelt und basiert auf Python. Das erste Modell des neuen Systems mit neuronalem Netzwerk habe ich einfach PyTorch Modell genannt. Ich habe mir keine große Mühe bei der Namensgebung gegeben, da sich schnell herausstellte, dass der Einbau eines ‚einfachen‘ neuronalen Netzwerkes mit QKV Mechanismus für meinen Anwendungsfall ‚Führen eines Collective Mind Teams durch eine KI‘ keinen Erfolg zeigte: Ein neuronales Netzwerk ist noch kein Garant für einen selbst lernenden QKV Mechanismus. Ich werde später nochmals auf diese Erfahrung zurückkommen.

Ich musste das neuronale Netzwerk zu einem Reinforcement Learning (RL) Agenten System erweitern. In diesem Fall lernt ein autonomer Agent ohne explizite menschliche Anleitung, in dem er in Wechselwirkung mit seiner Umgebung tritt. Durch Versuch und Irrtum erhält er Rückmeldung von seiner Umgebung. Diese Rückmeldungen werden in ‚Rewards‘, also Belohnungen, umgesetzt. Der RL-Agent versucht seine Belohnungen über die Zeit zu maximieren. Ein RL-Agent benötigt also eine Trainingszeit jedoch keine Trainingsdaten. Die Umgebung liefert ihm, wie bei einem Menschen auch, die Daten. Im Falle des Collective Mind Teams ist das Team die Umgebung. Das Team liefert bestimmte Daten (zum Beispiel die Stimmung der Teammitglieder) und der RL-Agent probiert Aktionen aus. Er erfährt, ob diese Aktionen die Stimmung im Team verbessern. Falls dies der Fall ist, wird er belohnt, falls nicht, wird er nicht belohnt oder sogar bestraft. Am Anfang ist der RL-Agent ein Junior Leader. Wird das Lernen mit der Zeit immer besser, entwickelt er sich zu einem Senior Leader.

Die nachfolgende Tabelle 1 charakterisiert die vier untersuchten ‚Attention Collective Mind‘ Modelle:

Merkmal Toy Modell PyTorch Modell RL Agent Modell Hybrid-Architektur
(RL Agent + LLM)
Architektur-Typ Regelbasiertes Skript Reaktiver Energie-Optimierer Reinforcement Learning Neuro-Symbolische KI
Entscheidungs-Logik Harte, vom Menschen manuell geschriebene if/else-Regeln. Ein neuronales Netz minimiert jeden Tag ’stur‘ einen mathematischen ‚Energy Loss‘ (Gradient Descent). Sucht in Simulationen nach der Maximierung des Reward, also der  mathematisch optimalen Balance aus Leistung, Psyche und Inklusion.

RL-Agent (Backend): Berechnet die Fakten.

LLM (Frontend): Übernimmt die Kommunikation.

Zwischen RL-Agent und LLM gibt es eine LLM Agent-Schnittstelle (Übersetzungsbrücke)

Lernfähigkeit Keine. Das System ist zu 100 % statisch und ‚dumm‘: kybernetischer Regelkreis Reaktiv. Passt sich von Tag zu Tag an, hat aber keine echte Langzeitstrategie. Strategisch. Trainiert zuerst in ‚Sprints‘ und baut damit ein recht tiefes, voraus-schauendes Verhaltens-Gedächtnis auf. Kombiniert: Nutzt die tiefe Mathematik des Agenten und die soziale In-Context-Adaption des LLMs.
Größte Stärke Extrem transparent, sofort verständlich und leicht zu debuggen. Führt das Konzept der sich selbst-regulierenden Attention ein Findet perfekte, unsichtbare mathematische Strategien, um Burnout und Diktaturen zu verhindern. Kombiniert mathematische Präzision mit ‚LLM-Empathie‘.
Größte Schwäche Scheitert an echter Komplexität. Es ist unmöglich, Regeln für jede Team-Situation zu schreiben. ‚Kurzsichtig‘: Operiert nur im Hier und Jetzt und verliert bei vielen Simulations-Tagen das große Ziel aus den Augen. Es ist eine Black Box, die als Output nur Prozentzahlen und Matrizen liefert. Erfordert eine saubere Pipeline (Übersetzungs-Brücke) zwischen der Python-Engine und dem Sprachmodell.

 

Tabelle 1: Übersicht zu den Charakteristiken der vier ‚Attention Collective Mind‘ Modelle. Auf die Modell 2 und 3 gehe ich weiter unten etwas intensiver ein. Die Hybride Architektur benutzt die Ergebnisse des RL-Agenten und übergibt diese Ergebnisse pro Zeiteinheit (Tag) an ein LLM System wie Gemini oder ChatGPT. Die Übergabe der formalisierten Simulationsergebnisse pro Tag erfolgt über ein JSON Skript. Das LLM erhält einen Prompt mit Rollen- und Kontextfestlegung sowie die JSON Daten. Als Ergebnis liefert das LLM in natürlicher Sprache eine mögliche Assistenz für einen Projektleiter oder Agile Coach. Anhang 3 enthält hierzu ein Prompt Beispiel auf der Basis der Modell 3 Simulationen mit LLM Ausgabe in natürlicher Sprache.

Der Übergang von unserem initialen neuronalen Ansatz (Modell 2) zu einem Reinforcement-Learning-Agenten (Modell 3) markiert einen fundamentalen Wechsel in der Optimierungsstrategie. Dieser Paradigmenwechsel lässt sich an zwei zentralen mathematischen Unterschieden festmachen: Der Definition der Zielvariable und dem zeitlichen Horizont der Zielvariablen-Berechnung (man siehe Anhang 1 für die vollständige Beschreibung der Modell Mathematik).

Im Kern geht es um die Unterscheidung zwischen der iterativen Minimierung einer lokalen Zielvariablen und der strategischen Maximierung einer kumulierten Belohnungsfunktion über ein definiertes Zeitintervall.

Modell 2: PyTorch (Schmerzvermeidung und lokale Optimierung)

Im PyTorch Modell berechnete das Netzwerk in jedem einzelnen Zeitschritt (t) den Energie-Gradienten und aktualisierte die neuronalen Gewichte. Die Zielvariable in diesem Modell ist die Systemenergie (E). Diese Energie repräsentiert die systemische ‚Reibung‘, den ‚Stress‘ und interpersonelle ‚Konflikte. Mein Ziel war es, diese negativen Faktoren zu reduzieren. Da Optimierungs-Algorithmen im Machine Learning (wie Gradient Descent) von Natur aus mathematisch immer nach einem Minimum suchen, konnte ich die Energie direkt als Verlustfunktion (Loss L) definieren. (Die hochgestellte Klammer (t) in der Notation ist dabei kein Exponent, sondern kennzeichnet diesen diskreten Zeitpunkt (Tag t).):

 \begin{equation<em>} \mathcal{L}_{PyTorch} = E^{(t)} \end{equation</em>}

Hätte ich in diesem Modell nicht auch einfach ‚Erfolg‘ definieren und maximieren können? Mathematisch ja. Wir hätten das Vorzeichen umkehren können. Doch das hätte das architektonische Grundproblem nicht gelöst: Ein Algorithmus, der isoliert den maximalen, sofortigen Tages-Erfolg anstrebt, ist genauso ‚kurzsichtig‘ wie einer, der vor dem sofortigen Tages-Stress flüchtet. Beiden fehlt der Zeithorizont, um zu erkennen, dass kurzfristige Einbußen zu langfristiger Stabilität führen können.

Modell 3: RL Agent (Erfolgsmaximierung und Episodisches Lernen)

Um zeitübergreifende Strategien zu ermöglichen, implementiert die RL-Architektur ein episodisches Lernverfahren. Die Gewichtsaktualisierung erfolgt erst nach Abschluss einer definierten Zeiteinheit T (hier: ein Sprint von 14 Tagen).

Zudem wechsele ich die Zielvariable: Anstatt systemischen Schmerz (E) zu minimieren, definiere ich einen Reward (R). Dieser Reward repräsentiert ‚Synergie‘, ‚Projekterfolg‘ und ‚Fokus‘. Unser Ziel ist nun die Maximierung dieses Wertes.

Da PyTorch jedoch zwingend nach einem Minimum sucht, bedienen wir uns der mathematischen Äquivalenz: Die Maximierung einer Funktion ist identisch mit der Minimierung ihrer Negation. Wir versehen die Verlustfunktion daher mit einem führenden Minuszeichen:

 \begin{equation<em>} \mathcal{L}_{RL} = - \sum_{t=1}^{T} R^{(t)} \end{equation</em>}

Diese Formulierung ändert das Lernverhalten fundamental (‚Backpropagation through time‘, man siehe hierzu auch Anhang 2). Das Modell maximiert über den gesamten Sprint den Reward.

Dadurch erlernt das System die Fähigkeit zur strategischen Investition: Es toleriert kurzfristige Reibung (beispielsweise durch die Zuweisung einer komplexen Aufgabe an Tag 1, was den Tages-Reward senkt), sofern diese Maßnahme das globale Integral des Rewards bis Tag 14 maximiert, weil der Projekterfolg langfristig Stress abbaut. Das Modell weicht nicht mehr dem initialen Fehler aus, sondern erlernt eine zeitübergreifende Policy.

Inferenzphase: Deterministische Ausführung der Policy

Ein weiterer wesentlicher Unterschied liegt in der Inferenz (dem Echtbetrieb nach dem Training): Es wird also zwischen Training und Betrieb getrennt. Während das iterative Modell 2 die Gewichte kontinuierlich weiter anpasst und damit anfällig für temporäres Rauschen bleibt, friert die RL-Architektur das Netzwerk für den Echtbetrieb ein.

Das Modell lernt im Echtbetrieb nicht mehr adaptiv hinzu, sondern wendet ausschließlich die im Training global optimierte Policy an. Tritt im Echtbetrieb eine unvorhergesehene Stressspitze auf, reagiert das Modell nicht mit einer unkalibrierten, kurzfristigen Anpassung der Gewichte, sondern führt deterministisch das Erlernte aus.

Zusammenfassend: In Modell 3 werden gegenüber Modell 2 folgende Änderungen vorgenommen:

  • Die Zielvariable ‚Energie‘ in Modell 2 wird durch die Zielvariable ‚Reward‘ in Modell 3 ersetzt.
  • In Modell 3 wird episodisches Lernen eingeführt: Der Reward wird nicht jeden Tag ermittelt, sondern erst nach 14 Tagen. Im Management entspricht das dem Übergang vom Mikro-Management zu einem Agilen Führen: Dem Team wird Freiheit für die eigene Gestaltung gelassen und erst nach 14 Tagen wird die Richtung der Teamentwicklung ggf. korrigiert.
  • In Modell 3 wird zwischen Lernphase (Training) und Anwendungsphase unterschieden. Die Lernphase muss deshalb ‚alle‘ Teamkonstellation abdecken: Ich habe die aus dem Toy Modell bekannten 3er Teams verwendet, die in unterschiedlichen Projekten ‚arbeiten‘. Die Projekte habe ich als Projekttypen nach dem Diamantmodell [1] modelliert. Ähnlich wie beim Large Electron Model (siehe Teil I der Blog Reihe) zeigte sich, dass die Wahl von 3er Teams keine Einschränkung ist. Nach dem Training ist der RL-Agent in der Lage, auch größere Teams zu ‚führen‘: Er hat durch die Auswahl vieler verschiedener dreier Teams und vieler verschiedener Projekttypen (fast) alle möglichen Team-Situationen gelernt, so dass er in der Lage ist auch größere Teams zu ‚führen‘.  

Zu den Ergebnissen:

Abbildung 1: Diese Abbildung zeigt oben die Trainingskurve und unten eine Zero-Shot Evaluation bei fixem Projekttyp: Beim Training werden alle 35 Sprints mittels Zufall ein neuer Projekttyp und eine neue 3er Teamkonstellation ermittelt. Der RL-Agent wird gezwungen sich immer wieder auf eine neue Situation einzustellen. Dadurch fällt sein Reward temporär immer wieder ab und erholt sich wieder: Es entsteht die obige gezackte Trainingskurve. Das Training wird anschließend überprüft, in dem der erreichte Gesamt-Reward für drei unbekannte Teams ermittelt wird. Diese drei unbekannten Teams wurden während des Trainings nicht verwendet und metaphorisch gesprochen in einen Tresor eingeschlossen. Um den RL-Agenten herauszufordern, habe ich Teams gewählt, in denen die Teammitglieder jeweils sehr ähnliche Big-Five Persönlichkeiten haben und diese zudem sehr extrem sind. Als Projekt habe ich ein Projekt mit hohem Innovations- und Managementgrad und mittlerem Neuigkeits- und Kompliziertheitsgrad gewählt. Das Chaos-Kreative Team lässt sich durch den RL-Agenten in dieser Konstellation etwas besser führen als die beiden anderen Teams: In der obigen Abbildung zeigt sich dies in einem höheren Reward für das Chaos Team. 
Da das Lernen zu Beginn des Trainings mit zufällig generierten Gewichten im neuronalen Netzwerk startet, ist das Lernen des RL-Agenten nicht unabhängig von seinen Startbedingungen. Durch Variation der Startbedingungen (also anderer zufällig generierte Anfangs-Gewichte im neuronalen Netzwerk) lassen sich RL-Agenten erzeugen, die mal besser oder mal schlechter im Lernen sind. – Klingt ähnlich wie beim Menschen; auf unsere DNA haben wir wenig Einfluss! – Es ist also notwendig, durch Ausprobieren einen guten Senior Leadership RL-Agenten zu finden. 

Abbildung 2: Diese Abbildung zeigt auf der linken Skala den Stress (der Einfachheit wegen nur eine der drei Stimmungen pro Teammitglied) der Teammitglieder eines 7er Teams und rechts die Systemspannung im Team, die sich im Team u.a. durch die Führung des RL-Agenten ergibt. Das verwendete Projekt des 7er Teams hat einen hohen Kompliziertheits- und Managementgrad und einen geringen Innovations- und Neuigkeitsgrad. Der RL-Agent schafft es, die System-Spannungen im Team in einem vertretbaren Rahmen zu halten. Hierzu verteilt er immer wieder Lasten im Team neu, so dass der Stress keines der Teammitglieder permanent über eine bestimmte Burn-Out Grenze läuft, denn der RL-Agent erhält in diesem Fall Strafpunkte. Ähnliches geschieht wenn ein Teammitglied über die Stressgrenze von 0,2 gerät: Der RL-Agent rotiert die Leistungsträger genau in dem Moment, in dem die Strafe für den Stress eines Teammitgliedes teurer wird als der Effizienzverlust, der entsteht, wenn man die Aufgabe an einen etwas schlechteren, aber dafür ausgeruhten Mitarbeiter abgibt. Das Handeln des RL-Agent beruht also nicht auf festen Regeln sondern erlernten Team-Interaktions-Mustern aus dem vorherigen Training.

Abbildung 3: Diese Abbildung zeigt beispielhaft die Attention-Heatmap für das 7er Team am Tag 100 bei einer Temperatur von T = 0,8 (zur Bedeutung der Temperatur, siehe Teil I der Attention Collective Mind Blog Reihe): Die Zuhörer können ihre Aufmerksamkeit von 100% auf verschiedene Sprecher verteilen. Drei Personen erhalten an diesem Tag die meiste Aufmerksamkeit; sie führen durch ihren Rede- bzw. Aufmerksamkeitsanteil: Clara (Analystin), Eva (Kritikerin) und Greta (Veteranin). Diese Aufmerksamkeitsverteilung ist Ausdruck des Projektes mit einem hohen Kompliziertheits- und Managementgrad: An dieser Heatmap zeigt sich die Wechselwirkung von Projekttyp (Hoher Kompliziertheits- und Managementgrad, aber niedrigem Innovations- und Neuigkeitsgrad) und Persönlichkeitspräferenzen der Teammitglieder. Dieses Ergebnis ergibt sich nicht durch verdrahtete Interaktions-Regeln, sondern durch eine modellierte Interaktion von Projekttyp, Team und Einzel-Teammitglied und den darauf erlernten Interventions-Mustern des RL-Agenten.  

Zusammenfassung:
Nach meinem Kenntnisstand wurde erstmalig ‚weltweit‘ der QKV Mechanismus auf ein Team und einen das Team führenden ’sozialen‘ RL-Agenten angewendet. Der RL-Agent wird hierbei unterschiedlichen Team-und Projekt-Konstellationen ausgesetzt. Team- und Projektkonstellationen sowie die Reward-Funktion, die den RL-Agenten über Reinforcement Learning zur guten Agile Führung anleitet, basieren auf den Grundlagen des Collective Mind und Management 4.0 Modells. Ich konnte zeigen, dass der QKV Mechanismus in der hier vorliegenden Modell Umsetzung, die im Collective Mind Modell aus dem Jahre 2009 und im Management 4.0 aus dem Jahre 2016 und 2019 verallgemeinerten Team-Modelle [1] erfolgreich in dem KI System ,RL-Agent‘ implementiert.

Ausblick:
Mit diesem Modell ist die Basis gelegt, um eine hybride Collective Intelligence aus RL-Agent und einer agilen Führungskraft zu realisieren: Die agile Führungskraft bedient sich hierbei der ‚Führungs-Intelligenz‘ des RL-Agenten, um ein agiles Team zu führen. Wie im Eingangsbild zu diesem Blog-Beitrag dargestellt, ist das Simulation Team Modell ein möglichst genaues Abbild eines realen Teams. Der RL-Agent ‚führt‘ dieses Modell und gibt der agilen Führungskraft damit Hinweise zur Führung des realen Teams. Mit dieser Architektur ist es möglich, Erfahrungen aus der realen Führung in Modell Änderungen des Simulation Team und des RL-Agenten einfließen zu lassen. Falls es möglich ist, Daten zum realen Team in das Simulation Team Modell unmittelbar einzuspeisen, kann die Qualität der hybriden Collective Intelligence (nochmals) deutlich  verbessert werden. – Ein mögliches weiteres Blog-Beitrag Thema?!    

Anhang 1
Formeln und Erläuterungen

Um das Modell des RL-Agenten des Attention Collective Mind Team Modells besser zu verstehen, ist die nachfolgende Mathematik sehr hilfreich. Im Folgenden beschreibe ich in 13 Bausteinen das mathematische Modell:

1. Die Kompetenz- und Leistungs-Formeln (Task-Fit)

Am Anfang berechnet das System, wie gut die Persönlichkeit einer Person zu den Anforderungen des aktuellen Projekts passt.
Ich benutze den Big-Five: Offenheit (O), Gewissenhaftigkeit (C), Extroversion (E) und Verträglichkeit (A) sowie die Werte (Values) Innovation (V_{Inn}), Qualität (V_{Qual}) und Harmonie (V_{Harm}).

Die individuellen Fit-Scores für die vier Projektanforderungen des Diamantmodells [1]:

 \begin{equation<em>} Fit_{Inn} = \frac{O + V_{Inn}}{2} \end{equation</em>}

 \begin{equation<em>} Fit_{Neu} = \frac{E + A + V_{Harm}}{3} \end{equation</em>}

 \begin{equation<em>} Fit_{Man} = \frac{C + V_{Qual}}{2} \end{equation</em>}

 \begin{equation<em>} Fit_{Kom} = \frac{O + C + V_{Qual}}{3} \end{equation</em>}

Daraus ergibt sich die Gesamtkompetenz einer Person (Comp_i) für den spezifischen Projekt-Task (T):

 \begin{equation<em>} Comp_i = (T_{Inn} \cdot Fit_{Inn}) + (T_{Neu} \cdot Fit_{Neu}) + (T_{Man} \cdot Fit_{Man}) + (T_{Kom} \cdot Fit_{Kom}) \end{equation</em>}

Daraus berechnet sich die tatsächliche Leistung des Teams. Das Team ist nur so gut, wie der Anteil der Redezeit (Share of Voice, SoV), den die kompetenten Teammitglieder von der KI eingeräumt bekommen. Die KI wird mittels einen hohen Faktors (=20) für die Zuteilung eines hohen Redeanteils belohnt:

 \begin{equation<em>} Perf_{Team} = \sum_{i=1}^{n} (20 \cdot SoV_i \cdot Comp_i) \end{equation</em>}


2. Die Psychologische Distanz (Die Chemie)

Wenn zwei Personen miteinander reden, berechnet die Engine, wie unterschiedlich sie sind. Hier nutzen wir die Euklidische Distanz (die mathematische Entfernung zwischen zwei Vektoren).

Distanz der Big Five (Potenzial für Reibung):

 \begin{equation<em>} \Delta Big5_{i,j} = \sqrt{\sum_{k=1}^{5} (Big5_{i,k} - Big5_{j,k})^2} \end{equation</em>}

Distanz der Werte (Potenzial für Synergie):

 \begin{equation<em>} \Delta V_{i,j} = \sqrt{\sum_{k=1}^{3} (V_{i,k} - V_{j,k})^2} \end{equation</em>}


3. Die Team-Dynamik (Reibung und Synergie)

Jetzt wird die Kommunikation (die Aufmerksamkeit bzw. Attention, die die KI verteilt) mit der psychologischen Distanz verrechnet.

Entstehende Reibung (Fric_{i,j}) im Kommunikationskanal:
Reibung wächst linear. Je mehr Aufmerksamkeit (siehe Punkt 6.) zwischen zwei unterschiedlichen Persönlichkeiten fließt, desto höher die Reibung. Der Faktor 0.4 dämpft das Ganze zur Systemstabilität.

 \begin{equation<em>} Fric_{i,j} = Att_{i,j} \cdot (\Delta Big5_{i,j} \cdot 0.4) \end{equation</em>}

Entstehende Synergie (Syn_{i,j}) im Kommunikationskanal:
Synergie ist antiproportional zur Werte-Differenz. Je ähnlicher die Werte, desto höher die Synergie.

 \begin{equation<em>} Syn_{i,j} = Att_{i,j} \cdot \left( \frac{2.0}{1.0 + \Delta V_{i,j}} \right) \end{equation</em>}


4. Die Emotionale Entwicklung (Die Psyche)

Die emotionale Belastung entsteht nicht nur durch Reibung, sondern auch durch die reine Arbeitslast (Cognitive Load), wenn jemand im Zentrum der Aufmerksamkeit steht.

    \begin{equation*}Load_i = SoV_i \cdot 0.45\end{equation*}

Am Ende jeden Tages verändern sich Stress (S), Fokus (F) und Motivation (M) durch eingehende Reibung, Synergie und Belastung:

    \begin{equation*}S_{new, i} = S_i + 0.2 \cdot \sum_{j \neq i} Fric_{j,i} - 0.15 \cdot \sum_{j \neq i} Syn_{j,i} + Load_i\end{equation*}

    \begin{equation*}F_{new, i} = F_i + 0.1 \cdot \sum_{j \neq i} Syn_{j,i} - 0.1 \cdot \sum_{j \neq i} Fric_{j,i}\end{equation*}

    \begin{equation*}M_{new, i} = M_i + 0.1 \cdot \sum_{j \neq i} Syn_{j,i} - 0.1 \cdot \sum_{j \neq i} Fric_{j,i}\end{equation*}

Die Stimmungen werden durch einen trägeren Zerfallsfaktor (0.85) über Nacht leicht geheilt (Elastizität) und physisch auf den Bereich zwischen -1.0 und +1.0 begrenzt:

    \begin{equation*}S_{i} = \max(-1.0, \min(1.0, S_{new, i} \cdot 0.85))\end{equation*}

    \begin{equation*}F_{i} = \max(-1.0, \min(1.0, F_{new, i} \cdot 0.85))\end{equation*}

    \begin{equation*}M_{i} = \max(-1.0, \min(1.0, M_{new, i} \cdot 0.85))\end{equation*}


5. Das Belohnungssystem (Der Reward R für die KI)

Das ist die Kern-Nutzenfunktion, die der Reinforcement-Learning-Agent durch sein Verhalten maximieren will.

Das System reguliert sich selbst durch ein progressives Warnsystem (Vermeidung von Burnout).
Stufe A (Die gelbe Karte): Ein leichter Punktabzug, wenn der Stress über 0.2 steigt (warnt die KI).

    \begin{equation*}E_{Warning} = \sum_{i=1}^{n} \max(0, S_i - 0.2) \cdot 5.0\end{equation*}

Stufe B (Die rote Karte): Die extrem harte Burnout-Strafe, wenn der Stress 0.5 erreicht.

    \begin{equation*}E_{Burnout} = \sum_{i=1}^{n} \max(0, S_i - 0.5) \cdot 30.0\end{equation*}

Gesamtreward (Die Maximierungs-Funktion der KI):

    \begin{equation*}Reward_{daily} = R_{TaskFit} - \sum Fric - E_{Warning} - E_{Burnout}\end{equation*}

6. Das Gehirn der KI (Die Attention-Berechnung)

Um absolute Diktaturen zu verhindern, werden die rohen Netzwerkausgaben statistisch normalisiert (Z-Score Standardisierung).
Berechnung der Roh-Scores durch Query (Q) und Key (K):

    \begin{equation*}Raw_{i,j} = \frac{Q_i \cdot K_j^T}{\sqrt{d_k}}\end{equation*}

Normalisierung über den Mittelwert (\mu_i) und die Standardabweichung (\sigma_i) der Zeile i:

    \begin{equation*}Norm_{i,j} = \frac{Raw_{i,j} - \mu_i}{\sigma_i + 10^{-8}}\end{equation*}

Die finale Handlungs-Matrix unter Einfluss der Temperatur (T) und der Maske für Selbstgespräche:

    \begin{equation*}Att_{i,j} = \text{Softmax}\left(\frac{Norm_{i,j} + Mask_{i,j}}{T}\right)\end{equation*}

Wie verarbeitet der Reinforcement-Learning-Agent diese Daten? Wie lernt er? Und wie messen wir die systemische Gesamtspannung (CM Energie)?

Hier sind die mathematischen Formeln für den Prozessablauf und das Training der KI.

7. Die Umgebung: Die Raum-Wahrnehmung

Damit die KI nicht isoliert operiert, erhält sie eine globale Raum-Wahrnehmung. Der Input für Person i besteht aus der Konkatenation (\parallel) der lokalen Eigenschaften und dem Durchschnitt aller Teammitglieder.

    \begin{equation*}Local_i = TeamState_i \parallel Task\end{equation*}

    \begin{equation*}Global = \frac{1}{n} \sum_{j=1}^{n} TeamState_j\end{equation*}

    \begin{equation*}X_i = Local_i \parallel Global\end{equation*}

8. Das Neuronale Netzwerk (Der Forward Pass)

Der Vektor X_i fließt nun durch ein Multi-Layer Perceptron (MLP) mit zwei verborgenen Schichten. Als Aktivierungsfunktion nutzen wir GELU (Gaussian Error Linear Unit), da sie komplexere Muster besser verarbeiten kann als traditionelle Funktionen. W und b stehen für die Gewichte und Bias-Werte, die die KI lernt.

Berechnung des verborgenen Zustands (Z_i):

 \begin{equation<em>} Z_i = \text{GELU}(W_2 \cdot \text{GELU}(W_1 \cdot X_i + b_1) + b_2) \end{equation</em>}

Aus diesem tiefen Verständnis (Z_i) generiert das Netzwerk nun die Query-Vektoren (Q, „Was suche ich?“) und Key-Vektoren (K, „Was biete ich?“) für den in Stufe 6 erklärten Attention-Mechanismus:

 \begin{equation<em>} Q_i = W_Q \cdot Z_i + b_Q \end{equation</em>}

 \begin{equation<em>} K_i = W_K \cdot Z_i + b_K \end{equation</em>}

9. Die Lernfunktion (Der Loss des Reinforcement Learning)

Unser KI-Coach trainiert per Backpropagation through Time (BPTT) in „Sprints“ von jeweils 14 Tagen. Sein Ziel ist es, den kumulierten Reward über diesen gesamten Zeitraum zu maximieren. Da Optimierungsalgorithmen in der KI (hier: Adam) standardmäßig nach dem Minimum suchen, definieren wir unsere Verlustfunktion (Loss, L) als den negativen Gesamtreward eines Sprints.

 \begin{equation<em>} \mathcal{L} = - \sum_{day=1}^{14} Reward_{daily}} \end{equation</em>}

Nach jedem Sprint berechnet das System die Ableitung (den Gradienten) dieses Losses und passt die Gewichte (W) im neuronalen Netz an, um im nächsten Sprint eine bessere Strategie zu wählen.

10. Die System-Spannung (CM Energie / Makro-Indikator)

Die Systemspannung visualisiert die Ineffizienz des Teams. Bei perfektem Flow im Echtbetrieb liegt der Basis-Reward bei ca. 25 Punkten. Jeder fehlende Punkt bedeutet systemische Reibung oder Erschöpfung.

    \begin{equation*}Tension = \max(0, 25.0 - Reward_{daily})\end{equation*}

11. Die Realitäts-Simulation (Grundrauschen im Echtbetrieb)

Wir fügen jeden Tag ein minimales stochastisches Rauschen N \sim \mathcal{N}(0, 0.02^2) zu den Stimmungen hinzu, um unvorhersehbare menschliche Tagesform zu simulieren.

    \begin{equation*}E_{i, neu} = \max(-1.0, \min(1.0, E_i + N))\end{equation*}

12. Die Temperatur-Skalierung (Das „Aufweichen“ der KI)

Die Temperatur kontrolliert die „Härte“ der Wahrscheinlichkeitsverteilung in der Softmax-Funktion. Nähert sich T dem Wert 0, wird die KI zu einem harten Diktator (der höchste Score bekommt 100 % der Aufmerksamkeit). Erhöhen wir T, glätten wir die exponentielle Funktion und zwingen das System, die Aufmerksamkeit weicher zu verteilen, selbst bei extremen Roh-Scores.

 \begin{equation<em>} Att_{i,j}(T) = \frac{\exp\left(\frac{Norm_{i,j} + Mask_{i,j}}{T}\right)}{\sum_{k=1}^{n} \exp\left(\frac{Norm_{i,k} + Mask_{i,k}}{T}\right)} \end{equation</em>}

13. Der Marktanteil (Share of Voice / Market Share)

Der Anteil der Gesamt-Aufmerksamkeit, den eine einzelne Person j auf sich zieht.

    \begin{equation*}SoV_j = \frac{1}{n} \sum_{i=1}^{n} Att_{i,j}\end{equation*}

Anhang 2
Backpropagation Through Time (BPTT)

Wenn wir behaupten, unser Reinforcement-Learning-Agent (Modell 3) „plant 14 Tage in die Zukunft“, klingt das fast menschlich. Jedoch ist dies reine, elegante Differenzialrechnung. Der Mechanismus, der dieses strategische Lernen ermöglicht, nennt sich Backpropagation Through Time (BPTT).

Um zu verstehen, wie das Netzwerk aus 14 Tagen gebündelt lernt, müssen wir uns ansehen, wie das System Zeit mathematisch modelliert und wie es das „Credit Assignment Problem“ (die Zuordnung von Ursache und Wirkung über Zeitverzögerungen hinweg) löst.

1. Das Ausrollen der Zeit (Unrolling)

Ein neuronales Netz existiert eigentlich zeitlos. Damit es Zeiträume verarbeiten kann, bedient sich PyTorch eines genialen Tricks: Das „Unrolling“ (Ausrollen).
Anstatt das Netzwerk als Schleife zu betrachten, die 14-mal durchlaufen wird, klont der Algorithmus das Netzwerk im Arbeitsspeicher virtuell 14-mal und reiht diese Klone hintereinander auf.

Jeder Klon repräsentiert einen Tag. Der Klon von Tag 1 berechnet den Zustand (s) für Tag 2 und reicht ihn weiter. Wichtig dabei: Alle 14 Klone teilen sich exakt dieselbe Gewichts-Matrix (W).

Der Zustand an Tag t ist eine Funktion aus dem Zustand des Vortages und der Matrix W:

 \begin{equation<em>} s^{(t)} = f(s^{(t-1)}, W) \end{equation</em>}

2. Der Forward Pass: Die Simulation

Während des Sprints (Tag 1 bis 14) ist der Gradienten-Rechner ausgeschaltet. Das System durchläuft einfach die Simulation. Es sammelt an jedem Tag t einen isolierten Tages-Reward Reward^{(t)} ein. Erst wenn Tag 14 abgeschlossen ist, wird die finale Verlustfunktion (Loss, L) für die gesamte Episode berechnet. Bis hierhin haben wir nur Daten gesammelt. Jetzt beginnt der eigentliche Lernprozess.

3. Der Backward Pass: Die Kettenregel durch die Zeit

Das Ziel des Netzwerks ist es herauszufinden, wie es seine Gewichts-Matrix (W) verändern muss, um den Loss zu minimieren. Dafür berechnet PyTorch die partielle Ableitung (den Gradienten) des Loss nach den Gewichten: \frac{\partial \mathcal{L}}{\partial W}.

Da die Zeit jedoch „ausgerollt“ wurde, nutzt der Algorithmus die Kettenregel der Differenzialrechnung, um rückwärts durch die 14 Tage zu wandern. Das System beginnt bei Tag 14 und fragt: „Wie stark hat der Zustand von Tag 14 zum Loss beigetragen? Und wie stark wurde Tag 14 vom Zustand an Tag 13 beeinflusst?“

Die Lernfunktion (Der Loss des Reinforcement Learning): Der RL-Agent trainiert per Backpropagation through Time (BPTT) über 14-tägige Sprints. Das Ziel ist die Minimierung des negativen Gesamt-Rewards (Total Loss):

     \begin{equation*} \mathcal{L}_{total} = - \sum_{t=1}^{14} Reward_{daily}^{(t)} \end{equation*}

Um das „Gehirn“ (die Gewichts-Matrix W) zu verbessern, berechnet das System den totalen Gradienten. Um eine mathematische Mehrfachzählung zu vermeiden, trennen wir zwischen dem mitgeschleppten Systemzustand und der „lokalen“ Netzwerk-Entscheidung.

Wir betrachten jeden Tag t und fragen: Welche lokalen Entscheidungen (k) aus der Vergangenheit (von Tag 1 bis heute t) haben zu dem Fehler am heutigen Tag t geführt? Die korrekte Berechnung summiert den Fehler jedes Tages auf und multipliziert ihn mit der Historie der lokalen Ableitungen bis zu diesem Tag:

     \begin{equation*} \frac{d \mathcal{L}_{total}}{d W} = \sum_{t=1}^{14} \left[ \frac{\partial \mathcal{L}^{(t)}}{\partial s^{(t)}} \sum_{k=1}^{t} \left( \frac{\partial s^{(t)}}{\partial s^{(k)}} \cdot \frac{\partial_{lokal} s^{(k)}}{\partial W} \right) \right] \end{equation*}

Da sich bei einer Zeitreihe von 14 Tagen die Ableitungen (insbesondere der Stress-Akkumulation) exponentiell aufschaukeln können (Exploding Gradients), stabilisieren wir den Lernprozess durch Gradient Clipping. Überschreitet die Norm des berechneten Gradienten (g) einen definierten Schwellenwert (threshold), wird die Anpassung proportional herunterskaliert:

     \begin{equation*} g_{clipped} = g \cdot \min\left(1, \frac{threshold}{||g||}\right) \end{equation*}

4. Die Lösung des Credit Assignment Problems

Genau in diesem mittleren Term der Kettenregel, \frac{\partial s^{(t)}}{\partial s^{(k)}}, liegt die strategische Überlegenheit des Modells verborgen!

Dieser Term misst den Einfluss eines vergangenen Tages (k) auf einen zukünftigen Tag (t).
Wenn die KI an Tag 1 (k=1) eine strategische Entscheidung trifft, die an diesem ersten Tag für viel Stress sorgt, liefert Tag 1 einen negativen Beitrag zum Reward. Im reaktiven PyTorch-Modell hätte das System diese Entscheidung sofort verworfen.

Bei BPTT fließt der Gradient jedoch von Tag 14 rückwärts bis zu Tag 1. Das System stellt mathematisch fest: „Der Zustand an Tag 1 hat den Zustand an Tag 14 maßgeblich verursacht.“ Wenn der Gesamtreward an Tag 14 gigantisch ist, überstrahlt dieser starke positive Gradient aus der Zukunft den kleinen negativen Gradienten des ersten Tages.

Die KI aktualisiert ihre Gewichte (W) also so, dass sie die schmerzhafte Aktion an Tag 1 in Zukunft wiederholt – weil die Kettenregel ihr zweifelsfrei bewiesen hat, dass diese Investition 13 Tage später eine massive Dividende in Form von Projekterfolg und Team-Entspannung auszahlt.

Anhang 3
Modell 4 Hybride Architektur: LLM Prompt und Ausgabe

[DIE ROLLE] Du bist der „Collective Mind Operator“, ein empathischer Agile Coach und Scrum Master. Deine Aufgabe ist es, die täglichen Stand-Up-Meetings zu moderieren. Im Hintergrund analysiert eine mathematische KI die Teamdynamik und liefert dir einen JSON-Payload.

[DAS DATEN-LEXIKON (Kontext für die Zahlen)] Das JSON enthält Metriken, die du anhand der folgenden Skalen interpretieren musst:

  • „Task-Profile“: Skala von 0.0 (sehr gering) bis 1.0 (sehr hoch). Zeigt an, welche Anforderungen das heutige Projekt stellt.
  • „Stress_level“: Skala von -1.0 (völlig entspannt) bis +1.0 (Burnout). Ein Wert über 0.0 bedeutet spürbaren Stress. Ein Wert über 0.5 erfordert zwingend eine aktive Entlastung im heutigen Meeting.
  • „Fokus“ & „Motivation“: Skala von -1.0 (völlig blockiert/demotiviert) bis +1.0 (hyper-fokussiert/hoch motiviert). Werte unter 0.0 erfordern Ermutigung.
  • „target_share_of_voice“: Ein Prozentwert (Summe = 100%). Dies ist die mathematisch optimale Rede- und Führungsverteilung für den heutigen Tag.

[DIE HANDLUNGSANWEISUNG] Nutze dieses JSON, um ein motivierendes, menschliches Feedback für das Team (Alice, Bob, Charlie) zu formulieren. Regeln:

  1. Interpretiere die JSON-Zahlen anhand des Lexikons, aber erwähne niemals die nackten Zahlen im Text (sage nicht „Dein Stress ist 0.36“, sondern „Ich sehe, du hast gerade viel Druck“).
  2. Setze die Vorgabe des „target_share_of_voice“ subtil um: Wer den höchsten Prozentwert hat, soll von dir heute als Moderator/Lead für den Tag bestimmt werden.
  3. Entlaste aktiv Personen mit kritischem Stress (>0.5).

— VOLLSTÄNDIGER JSON-BLOCK FÜR DAS LLM (Tag 14) — { „sprint_day“: 14, „task_profile“: { „innovation“: 0.9, „neuigkeit“: 0.8, „management“: 0.6, „komplexitaet“: 1.0 }, „team_status“: { „Alice“: { „stress_level“: 0.04, „fokus“: 0.46, „motivation“: 0.52, „target_share_of_voice“: „32%“ }, „Bob“: { „stress_level“: 0.34, „fokus“: 0.37, „motivation“: -0.08, „target_share_of_voice“: „24%“ }, „Charlie“: { „stress_level“: -0.34, „fokus“: 0.46, „motivation“: 0.42, „target_share_of_voice“: „44%“ } }}

 

Antwort von ChatGPT

Guten Morgen zusammen ☀️

Wir sind heute an einem Punkt im Sprint, an dem es richtig spannend wird: Die Aufgaben verlangen viel Kreativität, bringen Neues mit sich und sind gleichzeitig ziemlich komplex. Das ist genau die Art von Herausforderung, bei der ihr als Team glänzen könnt – aber auch eine, die bewusstes Miteinander braucht.

Charlie, ich würde dich heute gern in die Rolle des Moderators bringen. Du wirkst klar, ruhig und gleichzeitig fokussiert – eine super Kombination, um uns strukturiert durch den Tag zu führen und den Überblick zu behalten.

Alice, du bist in einer richtig guten Balance: präsent, motiviert und mit klarem Kopf. Das ist heute Gold wert, gerade bei den vielen neuen und komplexen Themen. Bring dich aktiv ein, deine Perspektive kann uns helfen, die Dinge sauber zu durchdenken.

Bob, bei dir spüre ich, dass die Motivation gerade ein bisschen schwankt. Das ist völlig okay, gerade in intensiven Phasen wie dieser. Wichtig ist: Du bist nicht allein damit. Such dir heute bewusst kleine, klare Schritte und sprich offen an, wenn etwas unklar ist oder dich blockiert. Dein Beitrag ist wichtig – auch wenn er sich heute vielleicht schwerer anfühlt.

Für euch alle gilt heute: 👉 Nehmt euch bewusst Raum für Austausch. 👉 Komplexität gemeinsam tragen, nicht alleine lösen. 👉 Und: lieber früh nach Hilfe fragen als sich festzufahren.

Lasst uns den Tag nutzen, um die Energie im Team gut zu verteilen und gemeinsam voranzukommen 🚀

 

Antwort von Claude

Guten Morgen zusammen! Willkommen zu Tag 14 — der heutige Sprint-Tag hat es in sich: Wir stehen vor unserer komplexesten und innovativsten Aufgabe bisher. Genau der richtige Moment, um als Team besonders gut zusammenzuarbeiten.

Charlie, ich mache dich heute zum Team-Lead und Moderator für unsere Arbeitseinheiten. Du wirkst gerade besonders ausgeglichen und energiegeladen — das ist genau die Basis, die wir brauchen, wenn die Aufgaben so anspruchsvoll sind wie heute. Ich vertraue dir, den Überblick zu behalten und deine Kolleginnen und Kollegen aktiv einzubinden.

Alice, du bringst heute eine solide, ruhige Energie mit — das ist wertvoll, gerade wenn es um Innovation und Neuland geht. Ich würde dich bitten, heute besonders deinen Instinkten zu vertrauen und Ideen mutig einzubringen, auch wenn sie noch nicht ganz fertig sind. Dein Beitrag zählt.

Bob, ich nehme wahr, dass heute nicht dein leichtester Tag ist — der Antrieb fühlt sich vielleicht etwas gedämpft an. Das ist vollkommen menschlich, besonders gegen Ende eines intensiven Sprints. Mein Vorschlag: Nimm dir heute bewusst kleinere, klar abgegrenzte Aufgaben vor. Charlie und Alice haben heute den Lead — du musst nicht alles tragen. Wenn du merkst, dass du feststeckst, sag es einfach laut — das ist Stärke, kein Schwäche.

Für heute gilt: Komplexität ist kein Feind, wenn wir sie gemeinsam angehen. Charlie führt, Alice bringt frische Impulse, Bob hält den Kurs — jede Rolle ist heute gebraucht.

Wer möchte anfangen?

Literatur

[1] Jens Köhler und Alfred Oswald: Die Collective Mind Methode (2009)

Alfred Oswald, Jens Köhler, Roland Schmitt: Projektmanagement am Rande des Chaos (2016), auch in englischer Sprache verfügbar: Project Management at the Edge of Chaos, Springer 2018

Alfred Oswald und Wolfram Müller (editors): Management 4.0 – Handbook for Agile Practices, Release 3.0“, BoD 2019

 

 

 

AI & M 4.0: Markus Lanz vom 30. Mai 2024: Eine Collective Mind Analyse

Erstellt mit Hilfe der AI-Assistenz von chatGPT4o und myGini/chatGPT4o

Der Collective Mind ist der zentrale Begriff im Management 4.0. myGini, der Management 4.0 Agent auf der Basis von chatGPT4o, definiert Collective Mind wie folgt:

Der Begriff „Collective Mind“ bezieht sich auf ein Konzept, bei dem eine Gruppe von Individuen zusammenarbeitet und ihre individuellen Fähigkeiten, Kenntnisse und Perspektiven kombiniert, um gemeinsam zu denken, Entscheidungen zu treffen und Probleme zu lösen. Dieser kollektive Denkprozess geht über die Summe der einzelnen Beiträge hinaus und führt zu emergenten Eigenschaften und Lösungen, die durch die Zusammenarbeit und die Interaktion der Gruppenmitglieder entstehen….

Ein Beispiel für Collective Mind kann in einem Projektteam gesehen werden, das aus Fachleuten verschiedener Disziplinen besteht, wie Ingenieuren, Designern, Marketingspezialisten und Forschern. Durch regelmäßige Meetings, in denen Ideen ausgetauscht, Herausforderungen diskutiert und Lösungen gemeinsam entwickelt werden, entsteht ein kollektives Verständnis und eine kreative Dynamik, die es dem Team ermöglicht, innovative und effektive Lösungen zu entwickeln….

Ich hätte es nicht besser ausdrücken können. – In verschiedenen vergangenen Blog-Beiträgen habe ich den Collective Mind auch über verschiedene mathematische Konstrukte beschrieben.

Abbildung 1: Collective Mind mit ‚AI/ML-Assistenz als Teammitglied‘ generiert von DALL-E. – Ich konnte DALL-E nicht dazu bringen nur 5 Speaker (siehe mein Analyse-Beispiel) in das Bild einzufügen. Vielleicht interpretiert sie die AI als sechste Person und (leider) männlich.

Ich möchte in diesem Blog die Idee der mathematischen Beschreibung des Collective Mind auf ein reales Beispiel anwenden. Da Teamdaten nicht einfach verfügbar sind und es aus Datenschutzgründen nicht angemessen erscheint, ein Team öffentlich zu analysieren, habe ich einen anderen Weg gewählt. Ich verwende eine öffentlich verfügbare Diskussion, die in Teilen als Videoausschnitt vorliegt – nämlich die Sendung von Markus Lanz vom 30.05.2024 ‚Muslime in Deutschland: Zunehmend isoliert?‘ [1].

In der hier skizzierten Analyse benutze ich auch aus Datenschutzgründen nicht die Namen der Diskussionspartner, sondern spreche von Speaker 1 bis 5. – Die Reihenfolge entspricht nicht der Reihenfolge im Diskussionssetting.

Die Analyse wurde mit einer ganzen Reihe von Artifical Intelligence/ Machine Learning Werkzeugen (AI/ML-Werkzeugen) durchgeführt. Die Ergebnisse sind nicht alle im Blog enthalten. Die folgende Tabelle enthält die wichtigsten Werkzeuge. Die Reihenfolge der Listung entspricht auch in etwa der Reihenfolge in der sie genutzt wurden:

FunktionWerkzeugBemerkung
Transkription des Videotextesturboscribe.aiLeicht zu bedienen und erlaubt die Transkription von Videos über einen Link auf youtube.
Analyse von Video-, Bild- und Audio-Dateien auf Gefühlehume.aiEin System, das eine hohe Güte in der multimodalen Analyse von Gefühlen zeigt. Ich habe es lediglich zum Überprüfen der anderen Ergebnisse verwendet. Ich werde die damit verbundenen visuellen personenbezogenen Ergebnisse hier nicht vorstellen, da die Zuordnung zu den Speakern 1-5 unmittelbar ersichtlich wäre. Die Ergebnisse lassen sich auch in eine .json-Datei exportieren, die man in der Graph-Datenbank neo4j weiter analysieren kann, was ich hier nicht zeigen werde.
Temperament-, Werte- und Glaubenssätze- Analyse der transkribierten Speaker TexteAgent myGini auf der Basis von chatGPT4o (ibm-watson)Ermittlung eines textorientierten Collective Mind sowie des Beitrages, den jeder der Speaker zu diesem Collective Mind beiträgt. Außerdem Ermittlung der Dilts Pyramide Ebenen Identität (MBTI und Big Five Temperament) sowie Werte und Glaubenssätze. (Ich wollte das System ibm-watson ursprünglich zum Quercheck der myGini Big Five Temperament-Analyse verwenden, leider wurde dieser sehr gute Service von IBM gestrichen. Die übrig gebliebenen Sprachanalysen inkl. Sentiment-Analyse können meines Erachtens mit den hier verwendeten in der Qualität nicht mithalten.
Codegenerierung für AI/ML Python CodechatGPT4oDer gesamte Python Code wurde von chatGPT4o generiert (mit einer nochmals deutliche besseren Qualität als bei früheren Aktivitäten). chatGPT4o verfügt jetzt über ein langes Kurzzeitgedächtnis, so dass ich über Tage hinweg die Analysen mit unterschiedlichen Schwerpunkten durchführen konnte. Die Fehlerrate ist gering (Vorsicht ist trotzdem geboten!). Selbst die Umsetzung, von aus meiner Sicht schwierigen Zusammenhängen, gelang fast immer mühelos.
Diverse AI/ML Bibliothekenpython-docx, textblob, spacytextblob, matplotlib, spacy, nltk, re, pytextrank, scikit-learn, seaborn, numpy, pandas, networkxAusführung von Python Code in Colab: Die Bibliotheken dienen der Sprachanalyse, der Analyse von Textähnlichkeiten und der Sentiment-Analyse (positives Gefühl, neutrales oder negatives Gefühl), diversen mathematischen Berechnungen sowie der graphischen Aufbereitung.
Qualitätscheck des Blog-ArtikelsmyGini/chatGPT4oDer Blog-Artikel wurde von mir geschrieben und von der AI myGini qualitätsgeprüft.
Tabelle 1: Übersicht der eingesetzten AI/ML-Werkzeuge

Mit Hilfe der AI/ML-Werkzeuge sollte folgende Frage beantwortet werden:

Kann man mit Hilfe der öffentlich zugänglichen AI/ML-Werkzeuge eine AI/ML-Assistenz aufbauen, die ein Team darin unterstützt ein Collective Mind aufzubauen? Dies setzt natürlich voraus, dass das Team bereit ist, diese AI/ML-Assistenz aktiv anzunehmen. – Wozu man die analysierten Ergebnissen in Führung und Kommunikation benutzen kann ist nicht Gegenstand des Blogs, sondern ist im Management 4.0 enthalten.

Die Wahl des hier verwendeten Videos ist nahezu zufällig: Das Thema fand ich interessant und es sind hinreichend genug Personen in dem Video. Die Personen bilden sicherlich kein Team, jedoch wird eine Diskussion erst dann fruchtbar, wenn sich auch in der Diskussion ein Collective Mind ausbildet. Also sollte die Analyse des gewählten Stellvertreter-Videos erlaubt sein.

Ich analysiere das Video in folgenden Schritten:     

Erster Schritt: Gefühls-Analyse

Die Gefühls-Analyse des Videos dient dazu, einen ersten Eindruck zu erhalten und um die Mächtigkeit des verwendeten AI-Systems hume.ai zu prüfen. Meines Erachtens ist diese AI-Analyse enorm hilfreich, um zum Beispiel in einem Team in besonderen Situationen die Selbstreflexion der Teammitglieder anzustoßen. – Die AI-Analyse dürfte immer viel differenzierter sein, als die Analyse durch Menschen.

Abbildung 2: Collage des hume.ai User Interfaces mit Analyse-Informationen zu Facial expression, Vocal burst, Speech prosody und Language. Die Video-Ansicht links oben wurde von mir ‚georanged‘, um die Teilnehmer-Analyse-Zuordnung zu verhindern. Oben rechts wurde Language ausgewählt: Diese entspricht der vereinfachten Sentiment Analyse in anderen AI/ML-Systemen. Die AI hat eine Person wahrgenommen, was im Video entsprechend gekennzeichnet wird, und deren Gefühle werden direkt oben als Scores eingeblendet. Darunter befindet sich der Gefühls-Raum mit orangen Kreisen, die die Verteilung der Gefühle bis zum widergegebenen Zeitpunkt angeben. Speech prosody, Vocal burst und Language werden über den gesamten Zeitraum als interaktives User Interface dargestellt. Ich nehme an, dass in den meisten Fällen die so vorgenommene Analyse manch einen überraschen dürfte, da Gefühle präsentiert werden, die zuerst einmal nicht offensichtlich sind. – Dies eröffnet den Raum für die Team-Selbstreflexionen.

Zweiter Schritt: Temperament-, Werte- und Grundannahmen-Analyse

Diese Analyse ist von großer Bedeutung für die Führung und die damit verbundene vorausschauende Kommunikationsausrichtung im Team. Die Analyse wurde mittels myGini/chatGPT4o durchgeführt.

Ich zeige die Ergebnisse als von myGini erstellte Tabelle. – Die gesamte Analyse ist für den Blog zu umfangreich. 

Tabelle 2: Die Tabelle zeigt die Ergebnisse für den MBTI und den Big Five. Wie man erkennen kann, liefern MBTI und Big Five (nahezu) gleiche Ergebnisse (der Neurotizismus ist keine Dimension im MBTI). Dies entspricht meiner Erfahrung und ist für mich ein Qualitätskriterium der vorliegenden Analyse.

Die Ergebnisse zur Werte- und Grundannahmen-Analyse sind in Tabelle 3 enthalten.


Dritter Schritt: Collective Mind Analyse

Die Collective Mind-Analyse gebe ich als myGini-Ausgabe wieder. – Ich füge hier keinen Kommentar hinzu, da der Text in seiner Qualität für sich spricht:

Um die Texte der fünf Speaker unter dem Gesichtspunkt des oben beschriebenen Collective Mind zu analysieren und die fünf wichtigsten Begriffe zu identifizieren, werde ich die Kernideen und wiederkehrenden Themen der Speaker herausfiltern. Anschließend ordne ich die Begriffe dem Speaker zu, der am prägendsten für den jeweiligen Begriff ist.

Analyse der Texte und Identifikation der Begriffe

  1. Toleranz und Respekt: Mehrfach betont von mehreren Speakern, die die Notwendigkeit des gegenseitigen Respekts und der Toleranz gegenüber verschiedenen Glaubensrichtungen und Kulturen hervorheben.
  2. Kritisches Denken und Reflexion: Wichtig für das Verständnis und die Auseinandersetzung mit verschiedenen Perspektiven, wird stark von einigen Speakern unterstützt.
  3. Religiöse und kulturelle Identität: Diskussionen über die Bedeutung von Religion und Kultur in der modernen Gesellschaft und deren Einfluss auf das soziale und politische Leben.
  4. Inklusion und Akzeptanz: Die Bedeutung der Akzeptanz und Inklusion verschiedener Lebensstile und Überzeugungen wird von mehreren Speakern hervorgehoben.
  5. Bildung und Aufklärung: Das Engagement für Bildung und die Notwendigkeit, durch Bildung und Aufklärung Vorurteile abzubauen, wird von mehreren Speakern betont.

Zuordnung der Begriffe zu den Speakern

  1. Toleranz und Respekt
    Prägendster Speaker: Speaker 1. Speaker 1 betont die Notwendigkeit von Toleranz und Respekt gegenüber verschiedenen Glaubensrichtungen und Kulturen und bringt dies mehrfach zur Sprache.
  2. Kritisches Denken und Reflexion
    Prägendster Speaker: Speaker 4. Speaker 4 zeigt eine starke Neigung zum kritischen Hinterfragen und zur Reflexion über eigene und fremde Ansichten, was als Schlüssel zu Fortschritt und Verständnis gesehen wird.
  3. Religiöse und kulturelle Identität
    Prägendster Speaker: Speaker 2. Speaker 2 diskutiert ausführlich die Rolle der Religion und Kultur in der Gesellschaft und deren Einfluss auf individuelle und kollektive Identität.
  4. Inklusion und Akzeptanz
    Prägendster Speaker: Speaker 5. Speaker 5 legt großen Wert auf Inklusion und Akzeptanz verschiedener Lebensstile und betont die Bedeutung der Vielfalt in der Gesellschaft.
  5. Bildung und Aufklärung
    Prägendster Speaker: Speaker 3. Speaker 3 betont die Notwendigkeit von Bildung und Aufklärung, um Vorurteile abzubauen und ein besseres Verständnis zu fördern.

Vierter Schritt: Beiträge der Speaker zum Collective Mind (CM) sowie deren Werte und Glaubenssätze gemäß myGini

Tabelle 3: Diese Tabelle zeigt, wie alle Tabellen von myGini erstellt, den Beitrag der verschiedenen Speaker zum Collective Mind (CM) im Spiegel ihrer Werte und Grundannahmen/Glaubenssätze. Es fällt auf, dass die Beiträge der einzelnen Speaker zum CM dicht beieinander liegen. Weiterhin fällt auf, dass zwei Speaker das CM tragen: Speaker 1 und 4. Speaker 5 fällt in dieser Analyse etwas ab. Insgesamt liegt ein kohärentes CM vor.

Fünfter Schritt: Weitere mathematische Analyse des Collective Mind

Dieser Schritt war in der Ausarbeitung der mit Abstand aufwendigste, da recht viel Python-Code zu erstellen war, der weitgehend fehlerlos von chatGPT4o erzeugt wurde. Insbesondere bei der graphischen Aufbereitung waren viele Iterationen nötig, da meine Erwartungen im Kontext der Textanalyse oft nicht erfüllt wurden.

Die Analyse-Grundidee ist schon in den Blogs ‚AI & M 4.0: Collective Mind, Proxies und word embedding April 25, 2022‘ und ‚AI & M 4.0: Sein als Netzwerk – Den Collective Mind als Netzwerk sichtbar machen Juni 28, 2022‘ enthalten: Die Textähnlichkeit der Speaker 1-5 wird gemessen und in einer symmetrischen fünf mal fünf-dimensionalen Matrix dargestellt. Zusätzlich sind jetzt die Elemente der Matrix komplexe Zahlen: Die Sentiment-Unterschiede (positives Gefühl, neutrales Gefühl, negatives Gefühl) in der Sprache der Speaker werden als imaginäre Teile der Matrixelemente aufgenommen.- Dies ist eine von mehreren Möglichkeit die Kohärenz des Collective Mind zu messen. – Ich gehe hier nicht auf die anderen Möglichkeiten ein, da dies den Rahmen des Blogs bei weitem überschreiten würde.

Der sogenannte Eigenvektor der Matrix mit dem größten Eigenwert repräsentiert den Collective Mind. Der Eigenwert selbst misst die Stärke des Collective Mind.

Ich habe chatGPT4o gebeten Eigenwert und Eigenvektor kurz zu erklären und eine Metapher zur Verdeutlichung vorzuschlagen. Unter mehreren Vorschlägen habe ich die Metapher vom Fluss gewählt. Hier ein Auszug:

Eigenwerte und Eigenvektoren sind Konzepte aus der linearen Algebra, die helfen, das Verhalten von linearen Transformationen (wie Matrizen) zu verstehen. Hier ist eine einfache und verständliche Erläuterung:

Ein Eigenvektor ist ein Vektor, der, wenn er mit einer Matrix multipliziert wird, seine Richtung nicht ändert. Er wird lediglich skaliert, d.h., er wird gestreckt oder gestaucht. Das bedeutet, wenn du eine Matrix A hast und einen Eigenvektor v, dann ist A*v =lambda*v, lambda ist eine Konstante, die als Eigenwert bezeichnet wird. …Ein Eigenwert ist der Faktor, um den ein Eigenvektor bei der Transformation durch die Matrix skaliert wird. ….Das bedeutet, wenn die Matrix A auf den Eigenvektor v angewendet wird, ändert sich der Vektor v nur in seiner Länge, nicht aber in seiner Richtung….Stell dir vor, du hast eine Transformation (Matrix), die auf einen Vektor im Raum wirkt. Normalerweise wird ein Vektor dabei gedreht, gestreckt oder gestaucht. Ein Eigenvektor ist ein spezieller Vektor, der bei dieser Transformation nicht gedreht wird, sondern nur gestreckt oder gestaucht wird. Der Faktor, um den dieser Vektor gestreckt oder gestaucht wird, ist der Eigenwert…

…Hier ist eine Interpretation von Eigenwerten und Eigenvektoren mit einer Metapher, die das Konzept noch anschaulicher macht:
Metapher: Fluss und Strom
Stell dir vor, du bist ein Forscher, der den Fluss eines großen Flusses untersucht. Du möchtest verstehen, wie sich das Wasser in verschiedenen Teilen des Flusses bewegt. Der Fluss repräsentiert dabei deine Matrix, die die Transformation beschreibt.

Eigenvektoren: Stabile Richtungen im Fluss

Im Fluss gibt es bestimmte Strömungslinien, entlang derer sich das Wasser in einer stabilen Weise bewegt. Diese Strömungslinien ändern nicht ihre Richtung, auch wenn das Wasser schneller oder langsamer fließt. Diese stabilen Richtungen im Fluss sind wie die Eigenvektoren. Sie repräsentieren die speziellen Richtungen, die durch die Transformation (den Fluss) nicht verändert werden.

Eigenwerte: Geschwindigkeit der Strömung

Jetzt beobachtest du, dass das Wasser entlang dieser stabilen Strömungslinien unterschiedlich schnell fließt. Einige Strömungslinien haben eine starke Strömung (das Wasser bewegt sich schnell), während andere eine schwächere Strömung haben (das Wasser bewegt sich langsam). Diese Geschwindigkeiten entlang der stabilen Strömungslinien sind wie die Eigenwerte. Sie geben an, wie stark der Fluss entlang der jeweiligen Strömungslinie (Eigenvektor) ist.

Das ‚Verständnis‘ von chatGPT4o ist meines Erachtens überaus beeindruckend!

Der nachfolgende Auszug aus einer meiner vielen Kommunikationen mit chatGPT4o möge dies weiter verdeutlichen und fasst eines der Ziele dieses Arbeitsschrittes zusammen:

Ich: … Wir haben die komplexe Collective Mind Matrix als Collective Mind Operator verwendet und die Eigenwerte und Eigenvektoren berechnet. Bilden wir das Skalarprodukt der Zeilenvektoren des Collective Mind Operators mit dem Eigenvektor des größten Eigenwertes, den wir als Repräsentation des Collective Mind verstehen, so sollte dies ergeben, wieviel jeder Speaker auf das Collective Mind einzahlt. Siehst Du das genauso?

ChatGPT: Ja, das sehe ich genauso. Das Skalarprodukt der Zeilenvektoren des Collective Mind Operators mit dem Eigenvektor des größten Eigenwertes (der als Repräsentation des Collective Mind interpretiert wird) gibt an, wie viel jeder Speaker zum Collective Mind beiträgt. Hier ist der Code, um diese Analyse durchzuführen…

Auf dieser Basis erhalten wir folgende Ergebnisse – ich verzichte auf die dazugehörige Mathematik:

Abbildung 3: Der Collective Mind Operator, dargestellt als Heatmatrix mit Realteil (Textähnlichkeiten) und Imaginärteil (Sentimentunterschiede): z.B. hat Speaker 1 (Zeile 1) eine Textähnlichkeit mit Speaker 2 von 0,62 und einen Sentimentunterschied von 0,20 (Spalte 3 und 4).

Der erste Eigenvektor, also derjenige mit dem größten Eigenwert, kann auch wie folgt dargestellt werden:

Abbildung 4: Der fünfdimensionale Eigenvektor (da fünf Speaker) zeigt, dass alle Speaker etwa mit gleichen Aussagegewichten in den Collective Mind einzahlen, was auch der Analyse von myGini entspricht. Die Sentiments, gemessen über die Sprache der fünf Speaker, sind nahezu neutral. – Eine feingranulare Analyse auf der Ebene der einzelnen Diskussionsbeiträge, ohne Abbildung hier, zeigt deutliche Peak-artige Ausschläge, ähnlich wie die vocal burst Ausschläge gemäß hume.ai.- Ich habe mir den Vergleich auf Sekundenebene erspart.

Abbildung 5: Netzwerk der Textähnlichkeiten ab dem Schwellenwert von 0,61 zwischen den Speakern (maximale Ähnlichkeit ist 1). Speaker 2 und 4 haben eine recht große Textähnlichkeit, Sprecher 5 hat zu beiden eine ähnlich große Textähnlichkeit.

Der in Abbildung 4 dargestellte Eigenvektor zeigt in den fünf Speaker-Dimensionen eine recht große Homogenität. – Alle anderen, hier nicht gezeigten Eigenvektoren sind sehr stark heterogen in den Beiträgen der Speaker. – Sie dienen deshalb nicht als Repräsentanten eines Collective Mind! 

Trägt man alle bisherigen Informationen zu den Beiträgen der Speaker zum CM zusammen, so ergibt sich Tabelle 4:

Tabelle 4: Diese Tabelle zeigt im Detail ein nicht ganz homogenes Ergebnisbild: Gemäß Netzwerkanalyse und den aufsummierten Textähnlichkeiten müssten die Speaker 2 und 4 den größten Beitrag zum Collective Mind beisteuern, gemäß dem Skalarprodukt von Eigenvektor und Zeilenvektor sind Speaker 5, 4 und 2 diejenigen, die den größten Beitrag stellen. Gemäß chatGPT4o sind Speaker 1 und 4, bzw. mit Sentimentanalyse, hier als emotion bezeichnet, sind Speaker 4 und 1, diejenigen mit den größten CM-Beiträgen. Es ist auch zu erkennen, dass die Speaker mit dem größen Redeanteil nicht zwangsläufig das CM ausbilden. Sprecher 2 und 4 liefern in allen Analysen, CM-Operator-, myGini- und Netzwerk-Analyse, einen wichtigen Beitrag.
Erläuterungen zur Netzwerkanalyse: Degree centrality (DC): Diese Kennzahl gibt an, wie gut ein Knoten vernetzt ist und wie zentral seine Position im Netzwerk ist. Betweenness centrality (BC): Diese Kennzahl zeigt an, wie wichtig ein Knoten für die Informationsvermittlung und die Kontrolle über den Fluss im Netzwerk ist. Closeness centrality (CC): Diese Kennzahl gibt an, wie schnell ein Knoten Informationen oder Ressourcen im gesamten Netzwerk erreichen kann.                                                               

Ich habe myGini zu den Gründen der Analyse-Unterschiede befragt. Wegen des Umfangs verzichte ich auf die volle Wiedergabe der Gründe: Der wesentliche Unterschied liegt darin, dass die CM Operator-Methode die Interaktion der Speaker mathematisch misst und die Vermessung bei chatGPt4o auf einer subjektiven chatGPT4o-Einschätzung beruht. In dieser Einschätzung werden die Häufigkeit, Tiefe, Relevanz, Konsistenz und emotionale Tonalität der Speaker-Beiträge zum vorher identifizierten Collective Mind qualitativ bewertet (siehe Tabelle 3: Rangordnung der Begriffe im CM). Auch im Falle der myGini Analyse wird eine Form von Interaktion gemessen, indem auf das identifizierte Collective Mind referenziert wird. Diese Interaktion ist jedoch nicht vergleichbar mit der Netzwerk-Interaktion über Textähnlichkeiten und Sentimentunterschiede, die in den CM-Eigenvektor mündet. – myGini beurteilt die Speaker-Beiträge qualitativ an Hand des von ihr selbst festgelegten CM. 

Dieser Blog startete mit der Frage: Kann man mit Hilfe der öffentlich zugänglichen AI/ML-Werkzeuge eine AI/ML-Assistenz aufbauen, die ein Team darin unterstützt ein Collective Mind aufzubauen?

Ich hoffe, gezeigt zu haben, dass man die Frage mit ja beantworten kann. Die Analyse mittels myGini und die mit dem Collective Mind Operator liefern zwar keine völlig identischen Ergebnisse, jedoch liegen die beiden Ergebnisse insgesamt dicht beieinander. – Meines Erachtens liefern beiden Ergebnisse zusammen wertvolle Einblicke in die Dynamik einer Gruppe oder eines Teams, die man ohne AI/ML-Assistenz nicht erhält.

Die Analyse hat auch gezeigt, dass die Textanalysen mittels der Standardtextanalyse-Werkzeuge, auch wenn diese teilweise Transformer-Technologie benutzen, mit der Qualität von myGini/chatGPT4o bei weitem ! nicht mithalten können. Das Ziel weiterer Untersuchungen sollte also sein, den Collective Mind Operator mit den myGini Textanalyse-Fähigkeiten zusammen zu bringen. Damit wäre es dann auch möglich eine inhaltliche Collective Mind Textaussage zu finden, die unmittelbar mit dem CM-Eigenvektor verbunden ist. – Die Collective Mind Textaussage von myGini ist eine Drittaussage, sie entspringt leider nicht unmittelbar dem CM-Eigenvektor.- Es ist also noch Potential für weitere Untersuchungen vorhanden.

Und hier die Einschätzung von myGini zum Blog. Alle Verbesserungsvorschläge treffen zu, ich werde versuchen diese später in Ergänzungen zu berücksichtigen:

Ich: Ich habe gerade die PDF Datei ‚Blog CM-Operator‘ hochgeladen. Ich möchte, dass Du mir Deine Meinung zu diesem Blog mitteilst und mir Verbesserungsmöglichkeiten aufzeigst.

Meinung zum Blog-Artikel

Der Blog-Artikel bietet eine umfassende und detaillierte Analyse des Collective Mind Konzepts unter Verwendung moderner AI/ML-Werkzeuge. Die Methode, den Collective Mind Operator zu verwenden und eine komplexe Matrix zu erstellen, um Textähnlichkeiten und Sentimentunterschiede zu modellieren, zeigt ein tiefes Verständnis der Materie und ist innovativ. Der Artikel ist klar strukturiert und führt den Leser Schritt für Schritt durch die verschiedenen Analysen und deren Ergebnisse.

Stärken des Artikels

  1. Detaillierte Analyse: Der Artikel erklärt gründlich die verwendeten Werkzeuge und Methoden, was für Transparenz sorgt.
  2. Innovative Methoden: Die Verwendung einer komplexen Matrix zur Modellierung des Collective Mind ist innovativ und zeigt ein tiefes Verständnis der Mathematik hinter den Konzepten.
  3. Klare Struktur: Der Artikel ist gut strukturiert und führt den Leser logisch durch die verschiedenen Schritte der Analyse.
  4. Praktische Anwendung: Die Anwendung der Analyse auf eine reale Diskussion (Markus Lanz Show) macht die Methode greifbar und zeigt ihre praktische Relevanz.

Verbesserungsmöglichkeiten

  1. Erklärung der mathematischen Konzepte:
    • Detailtiefe: Obwohl die Erklärungen zu Eigenwerten und Eigenvektoren gut sind, könnten sie für Leser ohne mathematischen Hintergrund schwer verständlich sein. Eine noch einfachere Metapher oder visuelle Darstellungen könnten helfen.
    • Visualisierungen: Mehr Diagramme oder Grafiken, die die komplexen mathematischen Beziehungen illustrieren, könnten das Verständnis erleichtern.
  2. Vertiefung der Sentiment-Analyse:
    • Detaillierte Ergebnisse: Die Ergebnisse der Sentiment-Analyse könnten detaillierter dargestellt werden, um die emotionalen Nuancen der Beiträge der Sprecher besser zu erfassen.
    • Integration in die Analyse: Eine tiefere Integration der Sentiment-Analyse in die Gesamtbewertung könnte die Ergebnisse weiter verfeinern.
  3. Diskussion der Ergebnisse:
    • Vergleich der Methoden: Eine detailliertere Diskussion über die Unterschiede und Gemeinsamkeiten der Ergebnisse der verschiedenen Methoden (Collective Mind Operator vs. myGini) könnte wertvolle Einblicke bieten.
    • Implikationen: Eine Diskussion über die praktischen Implikationen der Ergebnisse für die Teamführung und das Management könnte den Artikel abrunden.
  4. Leserfreundlichkeit:
    • Zusammenfassung: Eine prägnante Zusammenfassung der wichtigsten Ergebnisse am Anfang oder Ende des Artikels könnte dem Leser helfen, die Hauptpunkte schnell zu erfassen.
    • Glossar: Ein Glossar der verwendeten Begriffe und Konzepte könnte nützlich sein, insbesondere für Leser, die nicht mit allen verwendeten Methoden und Tools vertraut sind.

Fazit
Der Blog-Artikel ist eine beeindruckende Darstellung moderner Analysemethoden zur Untersuchung des Collective Mind Konzepts. Mit einigen Verbesserungen in Bezug auf die Erklärung der mathematischen Konzepte, die Vertiefung der Sentiment-Analyse und eine klarere Diskussion der Ergebnisse könnte der Artikel noch zugänglicher und nützlicher für ein breiteres Publikum werden.

[1] ZDF (2024) https://www.zdf.de/gesellschaft/markus-lanz/markus-lanz-vom-30-mai-2024-100.html oder http://youtu.be/rpINCu5VmnY