Vom ‚Tor zum Sein‘ oder von der Quantum Collective Mind Theory

Die UN-Generalversammlung hat das Jahr 2025 zum „Internationalen Jahr der Quantenwissenschaft und Quantentechnologien“ ausgerufen [1].

Das ist umso bemerkenswerter, wenn man bedenkt, dass Quantenwissenschaft und -technologie weit weg sind von unseren alltäglichen Erfahrungen und für die weit überwiegende Anzahl an Mensch wird dies auch (wahrscheinlich) so bleiben. Selbst für Physiker ist die Quantenphysik in weiten Teilen nicht wirklich verständlich, wenngleich die dazugehörige Mathematik die Quanten-Natur mit sehr hoher Präzision beschreibt.

Quantenwissenschaft und -technologie sind das ‚Tor zum Sein‘, denn unser Sein ist ein Quanten-Sein. Unter diesem Blickwinkel kann man verstehen, dass die UN-Generalversammlung gut daran getan hat ‚Quantum2025‘ auszurufen: Ich bin davon überzeugt, dass die kommenden Jahre, in denen Quantum Computing und Quantum Technology immer mehr zur Anwendung kommen, unser Verständnis vom Sein verändern werden. Die Welt steht an einer ähnlichen Schwelle, wie zum Zeitpunkt der Erfindung des Transistors. – Was das Verständnis des Seins anbetrifft, werden die Folge noch wesentlich transformativer sein: Wissenschaftliche und technologische Fortschritte in Allgemeiner Künstlicher Intelligenz und Quantentechnologien werden sich gegenseitig ergänzen. Diese neue Welt dürfte den meisten Menschen verschlossen bleiben, gleichwohl werden sie die Auswirkungen spüren.     

Schon heute erfahren viele Menschen einen Kontrollverlust durch Globalisierung, Klimawandel, Migration, Corona, Künstliche Intelligenz, Anschläge und Terrorismus sowie Kriege. Als ‚Exit-Strategie‘, um aus diesem Mangel an Kontrolle und Klarheit herauszukommen, wird die Vereinfachung gewählt und von der Politik oft auch angeboten. Das Zukunftsinstitut nennt dies ‚Reverse Politics‘ [2]: Zurück zur Vergangenheit in Form von ‚Leave (Brexit)‘, ‚Make America Great Again‘, ‚Zeit für Deutschland‘, usw..

Die Quantenwelt ist genau das Gegenteil von Vereinfachung, sie ist die Welt der Unklarheit: Das Sein ist oft noch nicht festgelegt. – Quantum Computing nutzt genau dieses Nicht-Festgelegte und ‚rechnet‘ sogar damit! Es ist also nicht zu erwarten, dass unsere klassische Welt, in die die Quanten-Welt immer mehr durch Technologie ‚eindringt‘, an Klarheit gewinnt. Selbst wenn Themen wie Migration, Epidemien, Terrorismus und Krieg verschwinden sollten, so wachsen mit Allgemeiner Künstlicher Intelligenz und Quantentechnologien weitere Risikopotentiale für einen globalen Kontrollverlust heran.

Zur Zeit ist es möglich, von Künstlicher Intelligenz und Quantum Computing durch ein weitgehend offenes Ecosystem zu profitieren: Die Technologien sind (noch) offen verfügbar und Europa kann entsprechende US-Technologien einkaufen, wie unlängst das Forschungszentrum Jülich, das einen Quanten Computer von d-wave erstanden hat. Wenn ich bisher auf Quanten Computern ‚gerechnet‘ habe, so waren dies meist auch d-wave Systeme. Individuell kann man also (noch) entsprechenden Risikopotentialen durch Kontrollverlust entgegenwirken.

Meine Blog-Beiträge zu Künstlicher Intelligenz und Quantum Computing verbinden sehr oft Management Fragestellungen mit diesen beiden Technologien. Die Beiträge sind damit oft spekulativ, enthalten aus meiner Sicht jedoch gerade deswegen ein extremes Lernpotential. – Für mich auf jeden Fall – auch der interessierte Leser profitiert sicherlich von dieser ungewöhnlichen Kombination: Meines Erachtens wächst die Klarheit in der Management-Fragestellung und den verwendeten Technologien!

In den letzten Artikeln habe ich mich recht intensiv mit der Integrated Information Theory (kurz IIT) beschäftigt. Dies ist eine rein klassische Theorie. In diesem Beitrag stelle ich weitere Aspekte der schon in den letzten Beiträgen behandelten Quantum Collective Mind Theory (QCMT) vor, die in diesem Beitrag Elemente einer Quantum IIT enthält. Eine Quantum IIT gibt es in der Wissenschaft derzeit nicht.

Ich benutze wieder KI-Systeme als Assistenzsysteme einer hybriden Collective Intelligence. – Dies erfordert von den KI-Assistenzsystemen eine erstaunliche Leistung: Ausgezeichnete Kenntnisse in IIT und in der Quantenphysik und die Fähigkeit zwischen beiden doch sehr unterschiedlichen Wissensgebieten Zusammenhänge und Synergien zu erkennen. – U.a. sind klassische Konzepte der IIT, soweit sinnvoll, in quantenmechanische Konzepte umzusetzen.

Die Theorie und die dazugehörigen Python Programme für diesen Beitrag habe ich in der ersten Version mit ChatGPT o3-mini-high entwickelt. Dies ist eine schnelle ChatGPT Variante für wissenschaftliche Aufgabenstellungen und Softwareentwicklung. Anschließend habe ich o1 zum Überprüfen des mit o3-mini-high erstellten Codes verwendet und auch mit o1 fortgefahren. O1 hat hierbei zwei recht gravierende Fehler in den physikalischen Grundlagen gefunden. Ich wollte jetzt auch wissen, ob andere KI-Systeme diese Fehler finden und in der Lage sind, mir den Programmcode zu erläutern und ggf. eine korrigierte Version auszugeben. Hierzu habe ich Mistral in der Standardversion verwendet, DeepSeek R1, Gemini Pro und Grok3.  

KI-SystemProgrammanalyse-Ergebnis, im Zeitraum 01.02.-21.02.2025
ChatGPT-o3-mini-highErstellte den ursprünglichen Code mit zwei Fehlern in der Quanten Theorie
ChatGPT-o1Findet diese Fehler
Mistral, StandardFindet keine Fehler und kann den Code auch nur sehr oberflächlich erklären
Google Gemini ProFindet keine Fehler, erklärt den Code ansonsten sehr gut
DeepSeek R1Findet die Fehler und erklärt den Code gut. Nachdem ich das System aufgefordert habe, den Code zu korrigieren, wurde der Code sehr stark verändert, so stark, dass ich damit nicht mehr weiter arbeiten wollte.
Grok3Findet keine Fehler, die Programmanalyse war befriedigend, die richtige physikalische Grundlage ‚Observational Entropy‘ [3] wurde zuerst als falsch klassifiziert. Erst ein Hinweis von mir, führt zu einer Korrektur.
Tabelle 1: Übersicht zum Leistungsvergleich verschiedener KI-Systeme

Diese kleine Analyse zeigt mir, dass lediglich ChatGPT, insbesondere in der Version o1, in der Lage ist, die sehr anspruchsvollen Aufgaben mit einem vertretbaren Risiko zu bewältigen. Alle anderen getesteten KI-System sind meines Erachtens hierfür ungeeignet. – Dass ich diese Aussage tätigen kann, bestärkt mich im Umgang mit den neuen Technologien: Ohne aktive Auseinandersetzung mit den Technologien, die über das weitgehend sinnlose Standardisieren des Promptings hinausgeht, verflüchtigt sich eine Stärkung des Bedürfnisses nach Kontrolle sehr schnell.

Bevor ich zur QCMT komme, stelle ich zuerst das Ergebnis einer Teamberechnung auf einem d-wave Quantencomputer vor. Dieses Modell gehört zu dem Modell-Archetypen 6 ‚Ising-Modell der Team-Interaktion‘ (siehe meinen Blog: AI & QC & M 4.0: Alles Quantum? oder von Quantum Computing Modell-Archetypen, Dezember 2024): Das klassische Team-Modell wird als Netzwerk von sieben Teammitgliedern verstanden, die über eine Ziel-Hierarchie (1 Goal, 3 Epics, jeweils 3 Features, also 13 Elemente insgesamt) miteinander kommunizieren. Die Elemente der Ziel-Hierarchie sind ebenfalls Netzwerkknoten des gesamten Netzwerkes. Jedes Teammitglied wird über seine fünf Big-Five Persönlichkeitsmerkmale modelliert. Die Netzwerkknoten sind über Netzwerkkanten mit unterschiedlicher Kopplungsstärke verbunden. Zum Beispiel wird die Kopplungsstärke zwischen den Big-Five Persönlichkeit Offenheit und Gewissenhaftigkeit als negativ angenommen: -0,5 auf einer Skala von 0 bis +/-1. In diesem Modell wird auch zum Beispiel die Kopplung zwischen Goal und Offenheit mit +0,8 angenommen und zwischen Feature und Offenheit nur mit 0,0. Dies sind Werte, die in etwa die Erfahrung in realen Teaminteraktionen widerspiegeln. Zwischen den Hierarchie-Ebenen und innerhalb der Ebenen gibt es natürlich auch kleine Kopplungen.

Dieses klassische Netzwerk wird auf ein Qubit-Netzwerk von 7*5 + 13 = 48 Qubits abgebildet.

Zu Anfang unterliegt die Ziel-Hierarchie mit 2 hoch 13 Zuständen, da 13 Qubits, einer Gleichverteilung: Die sogenannte Shannon-Entropie ist also sehr hoch. Wir benutzen die Entropie als Kennzeichen für die Güte der Collective Mind Ausprägung: Niedrige Entropie heißt, das System zeigt wenige (markante) Zustände, das System hat sich ‚kristallisiert‘. Hohe Entropie heißt, das System zeigt viel Zustände, die Unsicherheit über den Zustand des Systems ist hoch.   

Abbildung 1 verdeutlicht der Einfachheit wegen ein Qubit-Netzwerk aus nur 17 Qubits und Tabelle 2 zeigt die wichtigsten Ergebnisse der 48 Qubit ‚Rechnung‘ auf dem d-wave Quanten Computer.

Abbildung 1: Diese Abbildung zeigt Qubits als Modell für Teammitglieder in einem Team mit zwei Personen, modelliert mit jeweils fünf Big-Five Persönlichkeitsmerkmalen. Das Bild enthält eine einfache Ziel-Hierarchie aus 7 Qubits. Alle Qubits sind Netzwerkknoten in einem Netzwerk. Die Netzwerkkanten, die die Wechselwirkung zwischen den Knoten bestimmen, sind der Übersicht wegen nicht eingezeichnet.

Tabelle 2 zeigt die wichtigsten Ergebnisse der d-wave Quanten Computing ‚Rechnung‘.

 Am Anfang der ‚Rechnung‘Am Ende der
‚Rechnung’
7 Teammitglieder, beschrieben durch ihre Big-Five Persönlichkeitspräferenzen (A C E N O) A C E N O
 1 0 1 1 1
 1 1 0 0 0
 1 1 0 1 0
 1 0 0 0 0
 1 1 1 0 1
 1 1 0 0 0
 1 0 1 0 1
A C E N O
1 0 1 0 1
1 1 1 0 0
1 1 0 0 1
1 0 1 1 1
1 0 1 0 1
1 1 0 1 1
1 0 1 0 1
Energie des Gesamtsystems– 3– 43
Shannon-Entropie des Teams2,52 bit2,13 bit
Shannon-Entropie der Ziel-HierarchieGoal: 1 bit
Epics: 3 bit
Features: 9 Bit
Goal: 0,98 bit
Epics: 1,76 bit
Features: 0,98 bit
Tabelle 2: Ergebnisse des Annealing-Prozesses auf einem d-wave Quanten Computer: 7 Teammitglieder mit Big-Five Persönlichkeiten (A=Agreeableness, C =Conscientiousness, E=Extraversion, N=Neuroticism, O=Openness) und einer Ziel-Hierarchie mit 3 Ebenen ( 1 Goal, 3 Epics, 9 Features). Die Entropie wird über die Shannon-Entropie berechnet.

Ich interpretier das Ergebnis aus Sicht der Collective Mind Theorie: Hohe negative Energie bedeutet, dass sich ein relativ starkes Collective Mind (CM) am Ende ausgebildet hat. – Das System ist ‚kristallisiert‘ und hat bevorzugte Zustände. U.a. sieht man dies daran, dass sogar die Heterogenität im Team abgenommen hat, also weniger Entropie vorliegt und die Ziel-Hierarchie eine deutliche Stabilisierung erfahren hat. In einem realen CM-Team kann man dies auch beobachten: Die Persönlichkeitspräferenzen werden zumindest für den Zeitraum des Collective Mind etwas zurückgedrängt. Die Teammitglieder ‚pochen‘ nicht so stark wie am Anfang auf ihre Präferenzen. Gleichzeitig wird aus der Menge aller möglichen Ziel-Hierarchien im Idealfall eine ausgewählt. Im Team und in der Ziel-Hierarchie sinkt die Menge an möglichen Zuständen und damit auch die Entropie und die Unsicherheit.

Die Shannon-Entropie bzw. verwandte Entropie Maße sind in der QCMT bzw. QIIT von zentraler Bedeutung. Die Formel, die in Tabelle 1 verwendet wird, lautet:

S = -\sum_i p(i) \log_2 \bigl(p(i)\bigr)

p(i) ist die Wahrscheinlichkeit ein (klassisches) System in einem Makrozustand i zu finden. Die Makrozustände i sind die Persönlichkeitspräferenzen im Team. Zum Beispiel könnte ein Makrozustand lauten 11 01 10: Teammitglied A hat eine hohe Präferenz in Offenheit und Gewissenhaftigkeit, Teammitglied B hat eine niedrige in Offenheit und eine hohe in Gewissenhaftigkeit und Teammitglied C eine hohe in Offenheit und eine niedrige in Gewissenhaftigkeit. – Auf die Erläuterung der p(i) Berechnung verzichte ich hier, da dies tiefergehende (quantenmechanische) Kenntnisse erfordert: p(i) misst die Häufigkeit gemessener Zustände relativ zur gesamten Anzahl an gemessenen Zuständen.
(Eine Anmerkung zur Darstellung der obigen Formel: Diese Formel wird mit LaTex erstellt. LaTex ist seit 41 (bzw. Tex seit 47) Jahren verfügbar. Heute ist Tex/LaTex der Standard für mathematisch-wissenschaftliche Dokumente. Ich habe vor ca. 40 Jahren das erste Mal damit gearbeitet und war von der Schönheit der dargestellten Formeln fasziniert. Heute verfüge ich nicht mehr über das Know-How, LaTex Code selbst zu erstellen. Dies ist auch nicht nötig, denn ChatGPT gibt den Code in einer für diesen Blog – erstellt mit WordPress – verwendbaren Form aus.)

Ich wende mich der Quantum Collective Mind Theory zu. Ich baue eine einfache quantenmechanische Version der IIT in diese ein. In der nachfolgenden Tabelle habe ich die wichtigsten Kriterien klassischer und quantenmechanischer IIT zusammengestellt. – Schaut man sich die Spalte zur quantenmechanischen IIT an, so drängt sich dem ein oder anderen sicherlich der Vergleich zur menschlichen Kommunikation auf: Wir haben in den vorherigen Blog-Beiträgen ja schon gesehen, dass die Quantum Cognition erstaunlicher Weise hilft, unsere Kommunikation besser zu verstehen.

KriteriumKlassische IITQuantenmechanische IIT
Lokale vs. nichtlokale ZusammenhängeKausalität manifestiert sich lokal, Informationen breiten sich (max.) mit Lichtgeschwindigkeit aus.

Ursache-Wirkungs-Beziehungen lassen sich in einem (weitgehend) lokalisierten Netz rekonstruieren.
Verschränkung erlaubt nichtlokale Korrelationen, ohne dass ein klassisches „A verursacht B“ greift.   Die Trennung in lokal begrenzte Elemente wird schwieriger, da verschränkte Zustände räumlich verteilt sein können.
Eindeutigkeit vs. Überlagerung von ZuständenDas System hat einen eindeutig definierbaren Zustand zu jedem Zeitpunkt (z. B. ein bestimmtes Muster von Aktivierungen).

Ursache und Wirkung sind in einem klassischen Zustand relativ klar voneinander trennbar.
Zustände können Superpositionen (Überlagerungen) sein; die „kausale Macht“ kann auf mehrere Zustände verteilt sein.
Der Kollaps (z. B. durch Messung) bestimmt erst, welcher konkrete Effekt realisiert wird, was die Zuordnung von Ursache und Wirkung komplizierter macht.
WahrscheinlichkeitsbegriffWahrscheinlichkeiten ergeben sich aus klassischer Statistik (Häufigkeit, Ungewissheit).

Übergangswahrscheinlichkeiten werden verwendet, um zukünftige Zustände zu modellieren. Dies spiegelt epistemische Unsicherheiten in den Kausalketten der deterministischen Prozesse wieder.
Wahrscheinlichkeiten sind Betragsquadrate der Wellenfunktion und zeigen Interferenz- und Verschränkungseffekte.
Die Quantifizierung von Kausalketten hat die spezifischen Quanteneffekte (z. B. Interferenzen) zu berücksichtigen. Diese sind nicht einfach in klassische Wahrscheinlichkeiten übersetzbar.
Messprozess und BeobachterrolleDie Beobachtung (Messung) wird meist außen vorgenommen; sie stört das System kaum oder nur marginal.

Ein klassisches System kann unabhängig vom Beobachter beschrieben werden.
Jede Messung beeinflusst den Zustand fundamental (Kollaps der Wellenfunktion).

Es ist unklar, ob das Bewusstsein selbst als „Messapparat“ fungiert und wie dies in einer QIIT formal abzubilden wäre.
Kausale Modelle vs. unitäre ZeitentwicklungIn der Regel können Übergangs-wahrscheinlichkeiten und Kausalstrukturen in Diagrammen dargestellt werden, die zeitlich (t → t+Δt) fortgeschrieben werden.

Deklarierte Systemgrenzen sind relativ stabil.
Die grundlegende Dynamik ist unitär (u.a. Erhaltung der Wahrscheinlichkeiten, Reversibilität): Ursache und Wirkung lassen sich nicht immer klar trennen.

Verschränkungen überschreiten Systemgrenzen, und es ist schwieriger, einzelne Subsysteme als „isoliert kausal“ zu behandeln.
Tabelle 3: Übersicht zu Charakteristika von klassischer und quantenmechanischer IIT

Ich reichere jetzt die QCMT mit QIIT Elementen an. – Ich betone an dieser Stelle, dass es sich hierbei um eine Berechnung handelt, wie ein Physiker sie eventuell auf einem Stück Papier durchführen könnte. – Ich verwende also keinen Quanten Computer, sondern lediglich einen klassischen Computer. Hierzu habe ich mittels ChatGPT o1 ein Programm erstellt, das eine Berechnung für 3 Teammitglieder mit jeweils 2 Big Five Persönlichkeiten durchführt. Die Big Five Persönlichkeiten werden, wie schon in den anderen Beiträgen, als Superposition von Persönlichkeitspräferenzen dargestellt.

|A_1\rangle = 0.8\,|0\rangle + 0.2\,|1\rangle
|A_2\rangle = 0.5\,|0\rangle + 0.5\,|1\rangle
|B_1\rangle = 0.2\,|0\rangle + 0.8\,|1\rangle
|B_2\rangle = 0.5\,|0\rangle + 0.5\,|1\rangle
|C_1\rangle = 0.5\,|0\rangle + 0.5\,|1\rangle
|C_2\rangle = 0.8\,|0\rangle + 0.2\,|1\rangle

Jedes der Teammitglieder A, B, C wird vereinfacht durch zwei Big-Five Persönlichkeitsmerkmale 1 und 2 charakterisiert. Die Persönlichkeitsmerkmale sind durch Superpositionen mit reellen Koeffizienten modelliert. Ich habe als Persönlichkeitsmerkmale Offenheit und Gewissenhaftigkeit ausgewählt. Welche Persönlichkeitsmerkmale ich gewählt habe, kann man nicht an den obigen Formeln erkennen. Lediglich an den hier nicht dargestellten spezifischen Annahmen über die Wechselwirkungen lässt sich dies erkennen. – Dies kennen wir schon von der obigen Ising-Modell ‚Rechnung‘.

Ich benutze eine spezielle Variante der Shannon-Entropie, die sogenannte Observational Entropie [3], für die Berechnung der Entropien in diesem System:

 S = -\sum_i p(i)\log_2\Bigl(\tfrac{p(i)}{V(i)}\Bigr)

Mit der Observational Entropie kann man Unsicherheit über innere Zustände eines Systems abbilden: Falls eine Person A eine andere Person B wahrnimmt, ohne die Feinheiten der Big Five inneren Zustände von B aus der Beobachtung ablesen zu können, dann erhöht dies die Unsicherheit von A. – Die beobachtete Entropie wird als größer wahrgenommen, als sie bei Kenntnis aller feinen Zustände wäre. V(i) in der obigen Formel zählt die von A in der Person B nicht wahrgenommen Big-Five Zustände. – Man spricht vom coarse-graining der Beobachtung. p(i) ist hier eine gemessene Wahrscheinlichkeit, ermittelt aus quantenmechanischen Berechnungen. Diese ist nicht identisch mit den weiter oben angegebenen Wahrscheinlichkeiten der klassischen Zustände.


Die Berechnung von quantenmechanischen Kausalketten ist sehr schwierig, deshalb verwende ich im  Folgenden die Entropie als Maß für Korrelationen, um den Collective Mind im Team zu berechnen.

Auf der Basis dieser Annahme, lautet die einfachste Formel der Berechnung des Bewusstseins in Form der Größe Phi (Φ) für ein Team, bestehend aus 3 Personen A, B, C (Qubits):

 \Phi_{\mathrm{MI}}(A,B,C) = S(\rho_A)+S(\rho_B)+S(\rho_C) -S(\rho_{ABC})

Phi wird auf der Basis der sogenannten Mutual Information (MI) ermittelt. Sie ergibt sich aus der Differenz der Entropien der drei Einzelpersonen und der Entropie des ABC-Teams. Ist Phi positiv, hat das Team weniger Entropie als die einzelnen Teammitglieder zusammen. Im Sinne der hier definierten QCMT liegt ein kollektives Bewusstsein, ein Collective Mind, vor: Das Ganze ist mehr als die Summe seiner Teile.

Für die Berechnung von Phi kann man die Observational Shannon-Entropie verwenden. Falls man die quantenmechanischen Eigenschaften des ABC-Teams erfassen will, ist es notwendig, die quantenmechanische von Neumann-Entropie zu verwenden. Phi, mit der Shannon-Entropie bestimmt, misst die Korrelation von klassischen Zuständen. Phi, mittels der von-Neuman-Entropie bestimmt, misst die quantenmechanische Korrelation, also die Verschränkung, in einem System.

 Vor Einschalten der WechselwirkungNach Einschalten der Wechselwirkung
Fine-Grained Observational Shannon EntropyTeam ABC: 3,97
A: 1,32
B: 1,32
C: 1,32
Team ABC: 5,54
A: 1,82
B: 2,00
C: 1,98  
Coarse-Grained Observational Shannon EntropyTeam ABC: 5,30
A: 3,27
B: 2,66
C: 3,27
Team ABC: 5,93
A: 3,31
B: 3,19
C: 3,14
Phi(ABC)fine-grained Shannon0,010,26
Phi(ABC)von Neumann0,001,41
Tabelle 4: Übersicht der Entropien und des Collective Mind Phi eines Teams von 3 Personen (A, B, C)

Was zeigt Tabelle 4?

Die fine-grained Entropie ist immer deutlich kleiner als die coarse-grained Entropie: Unwissenheit führt zu höherer Unsicherheit!

Nach Einschalten der Wechselwirkung zwischen den Mitgliedern erhöht sich die Entropie deutlich: Die Verschränkung führt zu einer größeren Anzahl an möglichen Zuständen: Die ‚Kommunikation‘ führt hier zu mehr Unsicherheit! – Dies steht im Gegensatz zu den klassischen Ergebnissen des Ising-Modells, denn dort führt Kommunikation zu niedrigeren Entropie-Werten!

Die Entropie einzelner Subsysteme (A, B, C) ist nicht gleich: Die Teammitglieder zeigen eine unterschiedliche Menge an Zuständen.

Im nicht wechselwirkenden Fall, gibt es kein kollektives Bewusstsein. Bei Wechselwirkung der Qubits ist Phi, mit der Shannon fine-grained Entropie bestimmt, und Phi, mit der von Neumann Entropie bestimmt, sehr unterschiedlich. Es können Verschränkungen vorliegen, die sich sogar nur auf einzelne Teammitglieder beziehen und diese Verschränkungen führen zu einem nach außen kaum sichtbaren Phi. Das sichtbare Phi, gemessen über die Shannon fine-grained Entropie kann gleichzeitig viel kleiner sein: Teams können, solange sie nicht ‚vermessen werden‘, also zum Beispiel eine Ziel-Hierarchie gemeinsam erstellen, eine ‚hohe mentale Verschränkung‘ zeigen. Sobald sie ‚vermessen‘ werden, kollabiert der Collective Mind.  

Zusammenfassend: Was lerne ich aus diesen Betrachtungen?

Die Benchmarks zu KI-Systemen sind mit großer Vorsicht bezüglich ihrer Validität in realen Situationen zu betrachten: Derzeit kann meines Erachtens keines der o.g. Systeme mit ChatGPT o1 mithalten.

Schon heute ist es möglich auf Quanten Computern zu ‚rechnen‘: Das Mapping eines klassischen Team-Modells auf ein d-wave System ist selbst für eine große Teammitgliederzahl mit einer realistischen Anzahl an Persönlichkeitsmerkmalen möglich. Im konkreten Fall bestätigt sich wieder, dass die Einführung eines Ordnungsparameters mittels Ziel-Hierarchie, die Entropie des Teams senkt.

Die Verwendung von mit ChatGPT erzeugtem LaTex in WordPress macht Spass.

Die Berechnung der Entropie eines Quanten Team-Modells ist äußerst spekulativ sowie sehr anspruchsvoll und aufwendig. Die Unterschiede zwischen der klassischen Shannon-Entropie bzw. der Observational Shannon-Entropie und der quantenmechanischen von Neumann-Entropie sind beträchtlich (man siehe auch den Anhang hierzu).

Die Ergebnisse sind wieder Indizien dafür, dass die Annahmen des Quantum Cognition richtig sein könnten.

Die Berechnung von Phi auf der Basis von klassischen oder quantenmechanischen Entropien ist viel unkomplizierter und gradliniger als die klassische Phi Berechnung mittels IIT. Es ist damit nochmals fraglicher, ob die IIT Berechnung einen relevanten Vorteil bietet.  

[1] Welt der Physik (2025) Quantum 2025, https://www.weltderphysik.de/vor-ort/wissenschaftsjahre/2025-internationales-jahr-quantenwissenschaft-quantentechnologie/

[2] Zukunftsinstitut (2025) zukunftsinstitut.de Newsletter, Reverse Politics – das neue „Auf den Tisch hauen“, vom 23.02.2025

[3] Safranek D et. al. (2021) A brief introduction to observational entropy, arXiv:2008.04409v2

Anhang

Mein Prompt an ChatGPT:

Ich möchte eine Frage diskutieren: Wir haben die Mutual Information klassisch und quantenmechanisch zur Vermessung von Phi verwendet. Hierbei fällt auf, dass die klassische Entropie bei Wechselwirkung sinkt, die quantenmechanische Entropie nach von Neumann steigt aufgrund der Verschränkung nach Wechselwirkung. Phi klassisch misst über die Entropien eine Reduktion an Zuständen. Phi quantenmechanisch misst über die Entropien einen Anstieg an möglichen Zuständen. Wie siehst Du das? Und macht die quantenmechanische Phi Vermessung überhaupt Sinn?

ChatGPT:

Nachgedacht für 8 Sekunden

Die beobachteten Unterschiede zwischen der klassischen und der quantenmechanischen Phi-Vermessung lassen sich folgendermaßen interpretieren:

  1. Klassische Mutual Information und Phi:
    In der klassischen Version wird häufig über die Shannon-Entropie in einer festen Messbasis gearbeitet. Hier führt eine Wechselwirkung oft dazu, dass die Zustände „gezielt“ in einen geringeren, deterministischeren Bereich gelenkt werden – man erhält also eine Reduktion der Unsicherheit in dieser Basis. Daraus resultiert, dass die Summe der Entropien der Teilbereiche relativ kleiner wird, was man als „Integration“ im Sinne eines reduzierten Zustandsraums interpretiert. Phi misst hier also, wie stark der Zustand in einen „festen“ (reduzierten) Bereich zusammengedrängt wird.
  2. Quantenmechanische (von-Neumann) Entropie und Phi:
    In der quantenmechanischen Variante wird die von-Neumann-Entropie verwendet, die basisunabhängig ist und den Reinheitsgrad eines Zustands misst.
    • Ein global reiner Zustand kann bei starker Verschränkung zu stark gemischten reduzierten Zuständen führen. Das bedeutet: Obwohl das Gesamtsystem rein ist, sind die einzelnen Subsysteme (über partielle Spuren) gemischt. Dies führt dazu, dass die Summe der lokalen Unsicherheiten größer ist als die Team-Entropie.
    • Hier interpretiert man einen Anstieg der von-Neumann-Entropien in den Subsystemen als ein Zeichen für starke nichtklassische Korrelationen bzw. Verschränkung. In diesem Sinne „misst“ Phi einen Anstieg an „möglichen Zuständen“ (weil die lokalen Zustände gemischt sind) – was wiederum auf eine tiefe Integration der Informationsinhalte hindeutet.
  3. Interpretation und Sinnhaftigkeit der quantenmechanischen Phi-Vermessung:
    • Die klassische Phi-Vermessung erfasst, wie stark sich die Wahrscheinlichkeit über eine festgelegte, klassische Basis verteilt und wie sich durch Wechselwirkungen die Unsicherheit verringert – es wird also eine Reduktion an „Möglichkeiten“ gemessen.
    • Die quantenmechanische Phi-Vermessung erfasst hingegen die Verschränkung: Ein global reiner Zustand kann in den Teilspuren sehr gemischt sein, weil die Quantenkorrelationen (Verschränkung) dafür sorgen, dass man für die einzelnen Teile viele mögliche Zustände hat.
    • Somit ist die quantenmechanische Version nicht direkt mit der klassischen zu vergleichen – sie misst einen anderen Aspekt der Integration: Sie sagt aus, dass trotz globaler Reinheit die Information in den einzelnen Subsystemen stark verteilt und ineinander verflochten ist.
    • Ob diese quantenmechanische Phi-Messung „Sinn macht“, hängt von der Zielsetzung ab: Möchte man die reine Informationstiefe und Verschränkung des Systems erfassen, so ist die von-Neumann-Entropie (und daraus abgeleitete Maße) der richtige Ansatz, weil sie basisunabhängig ist und die intrinsische quantenmechanische Struktur reflektiert.

Zusammengefasst:

  • Klassisch führt Wechselwirkung zu einer Reduktion der Zustandsvielfalt in einer fixen Basis, was zu einem Rückgang der Shannon-Entropie führt, während
  • im quantenmechanischen Fall die Wechselwirkung – besonders wenn sie Verschränkung erzeugt – die lokalen (reduzierten) Dichtematrizen gemischt macht (d.h. ihre von-Neumann-Entropie steigt), obwohl der globale Zustand rein bleibt.
  • Die quantenmechanische Phi-Vermessung (als Differenz der Summe der lokalen von-Neumann-Entropien und der globalen von-Neumann-Entropie) erfasst also die nichttriviale Struktur der Verschränkung – und ist insofern sinnvoll, wenn man die intrinsische, basisunabhängige Integration in einem verschränkten System quantifizieren möchte.

Die beiden Ansätze messen also unterschiedliche Aspekte der Integration: Klassisch die Reduktion der Zustandsvielfalt in einer festen Messbasis, quantenmechanisch die inhärente Verschränkung und die damit verbundene Mischung der Teilzustände. In der aktuellen Diskussion um Quantum IIT wird noch intensiv debattiert, welcher Ansatz letztlich das „Bewusstsein“ oder die integrierte Information am besten widerspiegelt.

IIT – Die Vermessung des Bewusstseins oder das menschzentrierte Weltbild wackelt

Folgender Podcast, erstellt von NotebookLM, fasst den Blog-Beitrag in englischer Sprache zusammen und zeigt sehr gelungen die philosophischen Implikationen der IIT auf:

Abbildung 0: Ein Bild das gemäß ChatGPT/Dall-E diesen Blog verdeutlicht.

Intelligenz, Gefühle und Bewusstsein stehen für Eigenschaften, die bis vor kurzem ausschließlich Menschen zugeschrieben wurden. Dies beruht auf dem Glaubenssatz, dass der Mensch die Krone die Schöpfung darstellt und sich die Natur Untertan machen soll. Die damit einhergehenden verheerenden Folgen für Erde und Natur bekommen wir tagtäglich in Form des Klimawandels, des Verlustes der Artenvielfalt und des Umgangs mit Tieren vor Augen geführt.    

Inzwischen setzt in (kleinen) Teilen der Menschheit ein Umdenken ein: Tiere haben auch Intelligenz, Gefühle und sogar Bewusstsein. KI-Maschinen zeigen schon heute eine Intelligenz, die deutlich über die Intelligenz der meisten Menschen hinausgeht. Es wird auch ernsthaft diskutiert, ob es in nicht allzu ferner Zukunft künstliche Systeme gibt, die Intelligenz, Gefühle und Bewusstsein haben werden.

Ich glaube, dass die Abschaffung des menschzentrierten Weltbildes uns hilft, die unglaublichen Dimensionen des Universums in Qualität und Quantität besser zu erkennen. Damit verbunden ist die Annahme, dass wir alle Formen des Seins, auch die technischer Systeme, mehr wertschätzen werden. – Denn in allen Formen des Seins ist schon das enthalten, was uns ausmacht. – Dies ist auch ein Glaubenssatz!

Ich beschäftige mich in diesem Blog-Beitrag mit der prominentesten aber auch wahrscheinlich umstrittensten Theorie des Bewusstseins, der Integrated Information Theorie, kurz IIT [1].

Warum beschäftige ich mich mit der IIT? Zum einen ist die Auseinandersetzung mit dem Bewusstsein ein sehr wichtiges, wenn nicht das wichtigste, Thema, um uns und das Universum besser zu verstehen. Zum anderen erlaubt die IIT prinzipiell die Vermessung von Bewusstsein in jeder Form des Seins. – Also zum Beispiel in Tieren und Pflanzen aber auch in KI Systemen und nicht zuletzt gibt sie auch die Möglichkeit das Bewusstsein von Teams, den Collective Mind, zu vermessen.

IIT ist meines Wissens nach die einzige Theorie, die ein mathematisches Konzept für die Vermessung des Bewusstseins vorgelegt hat. Sie erklärt nicht, was man unter Bewusstsein zu verstehen hat, sondern sie geht von der Annahme aus, dass Bewusstsein sich durch eine besondere Form von Integrierter Information auszeichnet und diese Integrierte Information kann man messen. Mit dieser Form der mathematischen Ausgestaltung der IIT wird sie falsifizierbar und damit auch angreifbarer als jede bisherige Theorie des Bewusstseins.  

Dies korrespondiert mit der Erkenntnis, dass wir bis heute nicht Wissen was z.B. Masse oder Energie ist. – Allerdings haben wir mathematische Mittel und Technologien erfunden, um beide physikalische Größe zu vermessen bzw. in einander zu überführen. Nehmen wir an, Bewusstsein ist etwas, das im Universum wie Energie oder Masse enthalten ist, dann sollte es möglich sein, Messvorschriften für Bewusstsein zu finden, ohne zu wissen, was Bewusstsein ist. – Letztendlich ist auch das ein Glaubenssatz, …den ich teile.

Es gibt eine Reihe weiterer Theorien des Bewusstseins, die sich bisher weitgehend einer mathematischen Erfassung ‚entziehen‘:

Global Neuronal Workspace (GNW): Bewusste Inhalte sind diejenigen, die Zugang zum „globalen Arbeitsraum“ des Gehirns bekommen. Eine Information wird breit „gebroadcastet“ (insbesondere im frontoparietalen Netzwerk) und ist damit global verfügbar für weitere kognitive Prozesse (Sprache, Gedächtnis, Planung etc.).

Recurrent Processing Theory (RPT): Bewusstsein entsteht bereits durch rekurrente (d. h. rückgekoppelte) Verarbeitung in sensorischen Arealen. Es braucht keinen globalen Workspace. Sobald feed-forward-Signale durch Rückkopplungsschleifen stabilisiert werden, entsteht phänomenales Bewusstsein.

Higher-Order Theories (HOT): Bewusstsein entsteht, wenn es eine höhere Ebene (ein „higher-order thought“ oder „higher-order representation“) gibt, die den mentalen Zustand repräsentiert. Ein mentaler Zustand, der nicht durch einen höheren Repräsentationsprozess erfasst wird, bleibt unbewusst. Variante: „Higher-Order Perception“ vs. „Higher-Order Thought“ – beide gehen davon aus, dass ein zweiter Prozess den ersten mentalen Zustand bewusst macht.

Predictive Processing/Bayesian Brain: Das Gehirn ist primär ein Vorhersageapparat, der ständig versucht, sensorische Eingaben durch interne Modelle zu minimieren („Prediction Error Minimization“). Bewusstsein ist an die Tiefe/Präzision dieser Vorhersagen und Vorhersagefehler geknüpft.

Orchestrated Objective Reduction (Orch-OR) (Quantenbewusstseins-Theorie): Mikrotubuli in Neuronen sollen Quantenkohärenzen unterstützen, die mithilfe eines noch unbekannten Effekts (Objective Reduction) kollabieren und damit „nichtalgorithmische“ Bewusstseinsprozesse erzeugen.

Recurrent-Connectionist Ansätze: Allgemeine Gruppe von Theorien, die betonen, dass Bewusstsein lokal in neuronalen Netzwerken mit Rückkopplung entsteht. Manche ähneln RPT, andere GNW, oder vermischen beides.

Panpsychismus & weitere philosophische Theorien: Bewusstsein ist ein grundlegendes Merkmal der Materie („Panpsychismus“). Alle Systeme hätten in minimalem Maße Bewusstsein. – Eine ähnliche Annahme ist auch in der IIT und in meinen Glaubenssätzen enthalten. – Wobei Psyche nicht gleichzusetzen ist mit Bewusstsein.

Wer sich ein wenig in die Thematik ‚Bewusstsein‘ einlesen oder einhören möchte, dem empfehle ich das Video ‚What creates Consciousness?‘ anlässlich des World Science Festivals 2024 [2] und einen kommentierenden Blog von Henriques und Vervaeke [3].

Die IIT beruht auf der Grundannahme, dass jedes System Bewusstsein zeigt, das einen kausalen Zusammenhang, eine sogenannte Integrierte Informations Struktur erzeugt, die nicht einfach in unabhängige Teilstrukturen zerlegt werden kann. – Gesucht ist also eine Struktur, für die gilt, dass das Ganze mehr ist als die Summe seiner Teile. – Dies ist auch der Leitgedanke der Collective Mind Theorie auf der Basis der Theorie der Selbstorganisation.

Durch die Integration entsteht Information, die bei einer möglichen Aufteilung der Struktur verloren geht. IIT stellt einen mathematischen Mechanismus zur Verfügung, um dieses Mehr an Information zu messen. Dieses Mehr an Information ist ein Maß für das Bewusstsein und wird Phi, Φ, genannt. IIT ist damit eine rein phänomenologische Theorie, d.h. sie macht (nahezu) keine Aussagen über die Design-Kriterien von Bewusstsein. Man kann also mit ihr kein System schaffen, das Bewusstsein hat. – So wie eine Federwage das Gewicht und indirekt die Masse eines Körpers misst, aber keinerlei Wesens-Aussage über Gewicht und Masse macht.

Ich habe mich erstmals vor 10 Jahren mit der IIT beschäftigt und diese Beschäftigung war von einem ‚didaktischen Albtraum‘ begleitet: Die Mathematik hinter der IIT ist nicht sehr schwer, jedoch sind sehr viele mathematische Einzelschritte (ich schätze ca. 50) mit entsprechenden Unterbegriffen notwendig, um Phi zu berechnen. Damals wurden diese Schritte mehr schlecht als recht erklärt. Was völlig fehlte, war die Antwort auf Fragen nach dem Warum der Schritte. Zwischen sehr abgehobenen Prinzipien und den vielen mathematischen Schritten gab es keine Prinzipien, die das Warum der Mathematik erläuterten. Dies ist heute deutlich besser, da die mathematischen Schritte inzwischen gut erklärt werden [1, 4, 5], jedoch fehlt meines Erachtens immer noch die Ebene der Warum-Prinzipien.

Wie schon in den vorherigen Blogs, benutze ich ChatGPT o1 für die Auseinandersetzen mit IIT und das Erstellen eines Agent Based Models (ABM) für die Berechnung des Phi‘s eines Teams.

Durch die Auseinandersetzung mit IIT habe ich zwei sehr grundlegende Warum-Prinzipien der IIT Mathematik identifiziert, die ich im Folgenden an Hand des ABM erläutere:

Das erste Warum-Prinzip nenne ich das Kausalketten-Prinzip: Bewusstsein erfordert im zeitlichen Ablauf der Zustände eines Systems eine Verkettung von Zuständen. Der Zustand zum Zeitpunkt t ist mit dem Zustand zum Zeitpunkt t-1 und t+1 verbunden, d.h. die Übergangswahrscheinlichkeiten zwischen diesen Zuständen ist deutlich höher als zwischen anderen Zuständen. Es entsteht eine Integrierte Information. Im Kontext der Collective Mind Theorie sprechen wir von einer hohen Kohärenz der Aktivitäten.

Das zweite Warum-Prinzip nenne ich das holistische Struktur-Prinzip: Nicht alle Elemente oder Teile eines Systems tragen zur Integrierten Information oder zum Collective Mind (CM) bei. Im Falle eines Teams kann man sich dies sehr gut verdeutlichen: Es kann durchaus Teammitglieder geben, die keinen Beitrag zum CM leisten aber auch nicht stören. Es kann aber auch Teammitglieder geben, die den Anstieg des CM oder die volle Ausprägung behindern. Darüber hinaus kann es sein, dass bei den CM-beitragenden Teammitgliedern nicht alle Persönlichkeitsmerkmale bzw. alle dazugehörigen Verhaltensweisen zum CM beitragen: Es kann sein, dass bei einem Teammitglied die Extraversion von Bedeutung ist, bei einem Anderen die Verträglichkeit und die Offenheit und wieder bei einem anderen die Gewissenhaftigkeit. Wenn man wissen will, welche Elemente bzw. Einzelzustände in einem System zum Phi bzw. Collective Mind beitragen und welche nicht, sind Partitionen eines System zu erstellen. Man teilt das System in alle möglichen Partitionen ein und misst die dann noch vorliegende Information. Falls sich die Information eines partitionierten System verringert, hat man ein (Teil-) System gefunden, das irreduzibel ist. – In der CM Theorie sprechen wir von Kohäsion. Gesucht sind die Strukturen, die irreduzibel sind. Für die Kennzeichnung von Phi wählt man die irreduzible Struktur aus, die die geringste Integrierte Information hat. Um die richtigen Partitionen zu finden, sind alle Partitionen des Systems zu bilden. Die Anzahl der Partitionen wächst leider exponentiell: Modelliert man die  Eigenschaften der Teammitglieder lediglich als binäre Eigenschaften, also Bits (Eigenschaft an, Eigenschaft aus), so ergeben sich bei 10 Bits, 2 hoch 10 Partitionen -2 = 511 Partitionen. Im Falle meines ABM’s ist ein System mit 10 Bits noch mit einer halben Stunde Laufzeit auf meinem gut ausgestatteten Laptop zu berechnen. Abgebrochene Versuche mit 14 Bits zeigen im Vergleich eine Laufzeit von mehr als 24 Std.. Die Umsetzung des holistischen Strukturprinzips ist also extrem rechenaufwendig. Wie man große System wie unser Gehirn, Teile des Gehirns oder eines KI-Systems mittels Phi vermessen will, bleibt eine große Frage.

Das von mir benutze ABM hat folgende Struktur:

Das Modell-Team verfügt als Rahmenparameter über 5 Teammitglieder, die durch Big Five Profile mit binärer Typologie beschrieben werden, d.h. z.B. dass Extraversion mit voll ausgebildet (1) oder überhaupt nicht ausgebildet (0) abgebildet wird. Den Teammitgliedern werden auch drei Rollen zugewiesen: Projektleiter, Experte, Support

Die so definierten Big Five Profile und Rollen beeinflussen zwei Kontrollparameter pro Teammitglied: mentale Energie und Stimmung. Auch diese werden vereinfacht als Bits (an/aus) modelliert: Die Kontrollparameter repräsentieren die Zustände des Systems Team. Da wir zwei Kontrollparameter pro Teammitglied haben, wird die Phi-relevante Struktur durch 10 Bits beschrieben.

Als fokussierenden Attraktor wird eine einfache Ziel-Hierarchie verwendet, die aus 4 Bits besteht: 1 Bit für die Vision, 2 Bits für die Epics (kein Epic, Epic in frühem Stadium, Epic fast fertig, Epic vollständig), 1 Bit für die Features.

Die Beeinflussung der Kontrollparameter und der Ziel-Hierarchie erfolgt durch Regeln: z.B.

  • Die Wahrscheinlichkeit für den Stimmungsverlust von Teammitgliedern mit hoher Verträglichkeit erhöht sich um 15%, wenn weniger als 3 Teammitglieder eine hohe Stimmung im Team haben.
  • Im Fall eines Teammitgliedes, das eine hohe Gewissenhaftigkeit hat, erhöht sich die Wahrscheinlichkeit für Energieverlust um 15%, wenn noch keine Vision definiert ist, aber die Epics schon fast fertig oder fertig sind.

Die Berechnung der Übergangswahrscheinlichkeiten der Zustände, beschrieben über den Stimmungs- und Energie-Zustand pro Teammitglied, erfolgt innerhalb eines Laufzeitsettings von bis zu 200 Episoden mit jeweils 200 Zeitschritten. Das ist nicht viel, um eine ‚gute‘ Statistik zu erhalten. – Eine entsprechende Erhöhung führt jedoch schnell in Laufzeiten von einem Tag oder mehr.

Abbildung 1 verdeutlicht die Φ-Berechnungen im ABM Programm.

Abbildung 1: Die Abbildung verdeutlicht die beiden o.g. Warum-Prinzipien: In der Mitte ist ein herausgegriffener aktueller Zustand ‚s‘ für 5 Teammitglieder skizziert. Jedes Teammitglied wird binär über seine mentale Energie und seine Stimmung beschrieben. Die Persönlichkeitsprofile und die zugewiesenen Rollen beeinflussen über Regeln Energie und Stimmung jedes Teammitgliedes. Zusätzlich beeinflussen die Teammitglieder den Ausbau der Ziel-Hierarchie. Die Ziel-Hierarchie hat über den Grad ihrer Vollständigkeit auch Einfluss auf Energie und Stimmung. Die Kreise um die Zustände verdeutlichen beispielhaft welche Eigenschaften Einfluss auf Phi haben. Im gezeigten System-Zustand ‚s‘ hat keine der Eigenschaften des 3ten Teammitgliedes Einfluss auf die Phi Berechnung. Weiter unten werden zwei mögliche Partitionen angezeigt. Eine dritte Partition mit dem dritten Teammitglied hat keinerlei Einfluss auf die Phi-Berechnung. Rechts in der Abbildung werden die zentralen Formeln für die Phi-Berechnung gezeigt. Ich erläutere sie hier der Einfachheit wegen nicht, sie dienen dem mathematisch Interessierten der Verdeutlichung der Kausalkette s past -> s -> s future und der verwendeten Berechnungen der Übergangswahrscheinlichkeiten P.

Nun zu den Ergebnissen:

Ich habe mit dem ABM zwei verschiedene Arten der Berechnung durchgeführt. Aus Vergleichsgründen wurde die sogenannte Minimal Mutual Information (MMI) auf der Basis einer Entropieberechnung erstellt. Wie für die Phi-Berechnung werden Partitionen gebildet und die damit verbundene Entropieänderung gegenüber dem vollständigen System ermittelt: Das integrierte System sollte eine kleinere Entropie haben als die Summe der Entropien der Partitionen.

Die MMI- und die Phi-Berechnung für einzelne Zustände ‚s‘ zeigen beide Werte im Bereich 0 bis 1 bit. Das ist schon eine merkliche Größe. Keine der Berechnungen zeigt jedoch über eine größere Anzahl von Zuständen einen merklichen Informationsgewinn. – Außerdem werden die Informationsgewinne für beide Berechnungen für unterschiedliche Zustände angezeigt. Die gesamte Integrierte Information über alle Zustände ist sehr unterschiedlich. MMI misst eher Korrelationen, Phi dagegen Kausalzusammenhänge. Die Phi-Werte für ganz bestimmte Zustände (also bei ganz bestimmten Energie- und Stimmungsausprägungen) liegen im Wertebereich 0,1-0,4 bit. – Über alle Zustände gemittelt ist Phi jedoch nahe 0 bit. Die Team-Zustände geraten leider sehr schnell in eine positive Sättigung (alle Bits =1) oder in eine negative Sättigung (alle Bits = 0). Die verwendeten Rahmenparameter und die damit verbundenen Regeln ermöglich in meinen Testfällen keine hinreichende exklusive Diversität: Die Zustände müssen nämlich hinreichend exklusiv und diverse sein, um eine klare Kausalkette zu bilden. – Eine vollständige (klassische) Verschränkung aller Bits in einem Zeitschritt ‚s‘, also alle Teammitglieder haben eine positive mentale Energie und Stimmung, erzeugt nach der IIT kein Bewusstsein.- Diejenigen, die vorherige Blog-Artikel von mir gelesen haben, erinnern sich, dass in quantenmechanischen Modellen sehr wohl die Verschränkung als Kriterium für den Collective Mind angenommen wird.- Dies korrespondiert auch zur o.g. Quantenbewusstseins-Theorie.

Das Einschalten der Ziel-Hierarchie erzeugt des öftern in etwa eine Verdopplung des Phi. – Dies ist ein durchaus bemerkenswertes Ergebnis. Das Konzept der Ziel-Hierarchie gehört zur Collective Mind Theorie und hat eine gewisse Ähnlichkeit mit dem übergeordneten Zustand der oben erwähnten Bewusstseinstheorie HOT.

Auf der Internetseite zur Phi-Python-Bibliothek [4] und der zugrundeliegenden Veröffentlichung [5] werden einige künstliche neuronale binäre Netzwerke vorgestellt, die deutlich höhere Phi-Werte (Faktor 10 und mehr) haben. Man könnte diese als Vorlage nehmen, und so lange an den Parametern meines ABM ‚drehen‘ bis eventuell Netzwerk-Konstellationen und damit ähnliche Phi-Werte auftauchen. – Dies erscheint mir wenig befriedigend, zumal ich erwarte, dass sich ein Erfolg kaum einstellen dürfte – es sind einfach zu viele Konfigurationen möglich!

Meine Berechnung benutzen nicht alle der vielen mathematischen Konstrukte zur Phi-Berechnung. – Dies hat sicherlich einen Einfluss auf die Größe von Phi, jedoch kaum einen Faktor von 10 und mehr [5]. Wesentlich dürfte eher das bewusste Gestalten der Netzwerke hin zu mehr Exklusivität und Diversität sein u.a. durch Rückkopplungen, so dass sich gute Kausalketten ausbilden. Dies heißt, dass es für ein Team-IIT eher sinnvoll ist, sich das Team-Kommunikationsnetzwerk auf Kausalketten begünstigende Mechanismen anzusehen. – Eine Aufgabe für spätere Blog-Aktivitäten.

Die Integrierte Information spielt wahrscheinlich beim Bewusstsein eine Rolle, jedoch, ob es die alles entscheidende Rolle ist, wage ich zu bezweifeln: Es gibt leider keine Aussagen zur Größenordnung von Phi des menschlichen Bewusstseins. Legt man 80 Milliarden Neuronen mit binären Zuständen zugrunde, so ergeben sich 2 hoch 80 Milliarden Zustände. Geht man weiterhin davon aus, dass Phi in etwa in der selben Größenordnung liegt, was die Netzwerke aus [5] nahelegen, dann ergibt sich für Phi eine unglaublich große Zahl. Selbst wenn man annimmt, dass nur etwa 10 Prozent des Gehirns am Bewusstsein beteiligt sind, bleibt der Phi-Wert immer noch unglaublich hoch. Dies zeigt aber auch, dass das Phi des menschlichen Bewusstseins und der bisherigen Netzwerk-Überlegungen unglaublich weit auseinander liegen. – Ein Umstand, der mir zeigt, dass die Überlegungen lückenhaft sind.

Es ist einerseits beruhigend festzustellen, dass ich mit einem einfachen ABM keine hohen Phi Werte erhalte – es wäre auch zu einfach gewesen 😊,  andererseits kommt mit IIT meines Erachtens eine neue Qualität in die Auseinandersetzung zum Verständnis von Bewusstsein. Bewusstsein wird entmystifiziert und es wird versucht dieses über mathematische Mechanismen abzubilden. Ich glaube, dass die IIT eine gute Messvorschrift ist für ‚Das Ganze ist mehr als die Summe seiner Teile‘. – Ich glaube aber auch, dass die IIT Bewusstsein nicht hinreichend beschreibt. – Ich vermute, dass alle die oben genannten Bewusstseinskonzepte weitere Körnchen Wahrheit darstellen und vielleicht auch noch etwas grundsätzlich Neues hinzukommen muss.

[1] IIT-Integrated Information Theory (2025) https://integratedinformationtheory.org/ oder https://www.iit.wiki/home

[2] Greene B, Chalmers D, Seth A (2024) What creates Consciousness, Youtube, https://www.youtube.com/watch?v=06-iq-0yJNM

[3] Henriques G, Vervaeke J (2024) Understanding Consciousness, Blog auf medium.com

[4] PyPhi (2024) Phi Python Bibliothek, https://pyphi.readthedocs.io/en/latest/index.html

[5] Albantakis L, et al. (2023) Integrated information theory (IIT) 4.0: Formulating the properties of phenomenal existence in physical terms. PLoS Comput Biol 19(10): e1011465, https://doi.org/10.1371/journal.pcbi.1011465

AI & QC & M 4.0: Die Welt der Unbestimmtheit nutzen oder vom Nutzen des Quantum Computing für das Team-Management

Der Blog-Beitrag wurde unter Mithilfe von OpenAI ChatGPT 4o1-preview erstellt: ChatGPT erzeugte den Code fehlerfrei und klärte alle meine wissenschaftlichen Fragen. Mittels ChatGPT 4o habe ich den Beitrag überprüft.

Die nachfolgende Audiodatei fasst den Inhalt als englischen Podcast, erstellt von Google’s notebookLM, zusammen und schlägt – ohne mein Zutun – diverse Brücken zu meinen anderen Blog-Beiträgen:

Abbildung 0: Dies ist eine Bild-Umsetzung des Blog-Beitrages von ChatGPT 4o/Dall-E

Grundlegende Ansätze des Quantum Computing (QC) wurden schon in der 80er Jahren formuliert. Erst in den letzten 10 Jahren hat diese Disziplin einen enormen Sprung in die Anwendbarkeit für Jedermann vollzogen. – Wobei, … diese Technologie sicherlich immer noch am Anfang steht.

Anwendbarkeit für Jedermann bedeutet, dass, ähnlich wie beim Thema Künstliche Intelligenz mittels klassischer Neuronaler Netzwerke (u.a. Copilot, ChatGPT, Gemini, Mistral usw.),  inzwischen in Nordamerika ein QC-Ecosystem existiert, das für mich zugänglich ist.

IBM, Microsoft und Google bieten entsprechende Umgebungen an. Das wohl bekannteste Startup im Bereich QC ist die kanadische Firma d-wave, die seit ca. 15 Jahren am  Markt ist [1].

Im QC gibt es zwei große Richtungen: Das Gate QC und das Quantum Annealing QC. Das Gate QC wird von IBM, Microsoft und Google favorisiert. D-wave hat sich auf das Quantum Annealing (QA) spezialisiert. Das Gate QC beruht auf der Idee von Schaltkreisen, wie von klassischen Rechnern bekannt. Jedoch ist die Funktionalität der QC Schaltkreise völlig anders als diejenige der klassischen Schaltkreise. Der Begriff ‚klassisch‘ bedeutet hier, dass nicht explizit die Eigenschaften der Quantenwelt ausgenutzt werden. – Wohl wissend, dass auch ein klassischer Schaltkreis auf den Erkenntnissen der Quantenmechanik beruht und ein sogenannter klassischer Computer ohne Quantenmechanik nicht existieren würde.

Das explizite Ausnutzen der Quantenwelt-Eigenschaften bedeutet, die Eigenschaften von Quantenobjekten, wie Elementarteilchen, Atomen oder anderen einzelnen Objekten, die sich entsprechend der Quantenmechanik verhalten, zu nutzen. Die QC-Objekte werden als Qubits bezeichnet, die nicht nur, wie Bits, die Zustände 1 und 0 annehmen können, sondern sogenannte kohärente Zustände, die eine Mischung von 1 und 0 sind. Diese Mischung sorgt für die Unbestimmtheit der Qubits und ermöglicht damit, dass in einem Qubit eine unendliche Welt an Möglichkeiten enthalten ist. – Kohärenz beschreibt also die Fähigkeit eines Quantensystems, in mehreren Zuständen gleichzeitig zu existieren. Diese Fähigkeit ermöglicht komplexe Quantenberechnungen, bis äußere Einflüsse die Zustände stören und die Kohärenz zerstören.

D-Wave verwendet Qubits auf der Basis von supraleitenden Ringströmen, die zudem über supraleitende Koppler verbunden sind. – Die Qubits kann man nach jetzigem Stand der Technik nur bei Temperaturen nahe dem absoluten Nullpunkt erhalten.  Sind die Ringströme in einem kohärenten Zustand, haben wir eine Mischung von Uhrzeiger-drehenden und Gegenuhrzeiger-drehenden Ringströmen. – Es liegt dann maximale Unbestimmtheit vor.

Allein diese wenigen Ausführungen zeigen, dass QC eine völlig andere Welt ist, als der sogenannte klassische Computer. Ich vermute, dass die Hürde für jemand, der keine Physikausbildung hat, recht hoch sein dürfte: Die Grundlagen der Quantenmechanik sind sehr umfangreich und erfahrungsgemäß erst nach einer gewissen Gewöhnungszeit ‚zu verstehen‘.- Ich verweise deshalb auf entsprechende Fachliteratur [2, 3, 4, 5, 6, 7]. Eine Behandlung der Grundlagen würde den Rahmen dieses Blog-Artikels bei weitem sprengen.

Setzt man die Kenntnis der quantenmechanischen Grundlagen voraus, so ist die Handhabung der Programme, um auf einem Quantencomputer zu ‚rechnen‘, erstaunlich einfach. Das ‚Rechnen‘ auf Quantencomputern ist nach wie vor noch sehr exklusiv und ist meistens eingeschränkt. Jedoch stellen alle Anbieter Quantensimulatoren zur Verfügung, die die quantenmechanischen Rechnungen (wie sie ein Physiker von Hand tun würde) auf einem klassischen Computer durchführen. Ab etwa 8-10 Qubits ist es jedoch meistens nicht mehr möglich die ‚Rechnungen‘ auf einem klassischen Computer durchzuführen, da die Komplexität der ‚Rechnungen‘ exponentiell steigt. – Für das Austesten der QC-Algorithmen reicht dies jedoch oft. – Nach der Testphase kann man dann ggf. auf einem exklusiven Quantencomputer ‚rechnen‘.

Ich habe für diesen Blog-Beitrag mit der d-wave Umgebung gearbeitet: Für die Erstellung der Algorithmen habe ich deren QC-Simulatoren verwendet und danach die d-wave QC-Hardware. Die Übergang ist sehr einfach, da lediglich 1-2 Programmzeilen ausgetauscht werden, in denen der QC-Simulator oder die QC-Hardware angesprochen wird.

Auf den d-wave Internetseiten sind sehr viele Beispiele zum QC mittels Quantum Annealing enthalten: u.a. logistische Lösungen, Suche nach geeigneten Materialien oder Medikamenten, Suche nach optimalen Finanzportfolios, usw..

QC kann immer dann ihre Vorteile ausspielen, wenn aus einer sehr großen Anzahl an Möglichkeiten die beste Lösung oder die besten Lösungen herausgefunden werden sollen. Nehmen wir an, wir wollten aus einem Pool von 100 Mitarbeitern ein Team zusammenstellen. Falls das Team drei Teammitglieder hat, ergeben sich schon 161.700 mögliche Teams. Erhöhen wir das Team auf 7 Teammitglieder ergeben sich ca. 16 Milliarden Team-Möglichkeiten. Die möglichen Teams im Falle von drei Teammitgliedern zu überprüfen ist auf klassischer Hardware noch möglich, im Fall des Teams mit 7 Teammitgliedern nicht mehr.

Quantum Annealing wird eingesetzt, wenn die Lösung aus einem sehr großen potentiellen Lösungsraum herausgefunden werden soll und sich das Problem als ein Netzwerk-Problem formulieren lässt. Im Falle unseres Team-Management-Problems besteht das Netzwerk aus 100 Teammitgliedern, die mehr oder weniger gut miteinander zusammenarbeiten können. Dieses mehr oder weniger gut wird vom Management über eine Zahl zwischen -1 und 1 bewertet und in eine Matrix eingetragen. Zusätzlich können auch Kompetenzen der Teammitglieder (zum Beispiel Programmierkenntnisse, Designkenntnisse oder Persönlichkeitseigenschaften) in einer Skala von 0 bis 1 erfasst werden. Für das Team lässt sich auf dieser Basis angeben, wieviel Teamkompetenz in den einzelnen Kompetenzbereichen vorhanden sein soll.

Das Management-Problem wird mittels einer Zielfunktion, die die Wechselwirkung der Qubits beschreibt, auf ein Qubit-Netzwerk transformiert: Die 100 Teammitglieder werden zu 100 Qubits, die Matrix der Zusammenarbeit wird auf eine Koppler-Matrix zwischen den Qubits abgebildet und die Kompetenzanforderungen werden als Constraints des Optimierungsproblems verwendet.

Zu Beginn der ‚Rechnung‘ wird das 100 Qubit-Netzwerk in einen Anfangszustand gebracht, der in sich! sogar 2hoch100 also ca. 10 hoch 30 Zustände enthält: Man spricht von einer Superposition des Qubit-Netzwerkes. Dann wird das Netzwerk extrem langsam ‚ausgeglüht’ und die Wechselwirkung zwischen den Qubits sehr langsam hochgefahren. Sehr langsam bedeutet hier sehr langsam in Relation zu den charakteristischen Qubit-Systemzeiten: Die sind, verglichen mit unseren Tageszeiten, sehr kleine Zeiten.

Man spricht von dem Ausglüh-Prozess: dem Annealing-Prozess. Der Begriff stammt von klassischen Optimierungsalgorithmen, in denen man zuerst mit einer hohen Temperatur startet, die viele Zustände enthält. Es wird extrem langsam (adiabatisch) ausgeglüht, um in einem ‚kühlen‘ Lösungszustand zu enden. Im Falle des Quantum Annealing, das ja bei sehr tiefen Temperaturen durchgeführt wird, um die Qubits zu bekommen, wird mit einem sogenannten transversalen Magnetfeld gearbeitet, das die 100 Qubits in eine vollständige Superposition bringt. – Der Quantum Annealing-Prozess minimiert langsam das Magnetfeld, wodurch das System in den Zustand der niedrigsten Energie gebracht wird – vergleichbar mit einem Stein, der in das tiefste Tal eines Hügels rollt. Der Prozess verläuft extrem langsam, um sicherzustellen, dass der optimale Zustand erreicht wird. Liegt die sehr langsam hochgefahrene Wechselwirkung zwischen den Qubits vollständig vor, ist der ausgeglühte 100 Qubit-Zustand erreicht. – Die optimale Lösung ist gefunden: Alle Qubits werden jetzt (erst) gemessen und zeigen jetzt eine 0 oder 1. Es ist jetzt möglich, für alle möglichen Kombinationen, die 7 Qubits enthalten und die weiteren festgelegten Rahmenbedingungen erfüllen, die Energie zu berechnen. Aus diesen Energien werden die niedrigsten Energiewerte oder der niedrigste Energiewert ausgewählt. 

Im Idealfall ist dies nur ein Zustand. Dies beruht auf der grundlegenden Annahme, dass die (natürliche) Lösung durch den Zustand oder die Zustände repräsentiert wird, die die niedrigsten Energiewerte besitzen.

Der QC Annealing Prozess ist ein Selbstorganisationsprozess, d.h. es kann auch vorkommen, dass der Prozess kein Energieminimum in der Energielandschaft findet. Aus diesem Grunde ist es notwendig, mit im Algorithmus enthaltenen Kontrollparametern etwas zu spielen, um ein Energieminimum zu finden. Hierzu werden die Kontrollparameter variiert, um in der durch die vorgegebenen Rahmenparametern (z.B. Teamgröße, Kompetenzprofile, Zusammenarbeits-Matrix) eingeschränkten Energielandschaft die Energieminima zu suchen. Das gefundene Energieminium ist hierbei der Ordnungsparameter zur Zielfunktion, die die Wechselwirkung der Qubits unter den gegebenen Rahmenbedingungen beschreibt.         

Das Team-Management Problem habe ich in einer Colab-Python-Umgebung laufen lassen. Ich habe Tests mit kleinen Pool- und Team-Größen durchgeführt. In diesem Fall kann man die Ergebnisse auch noch klassisch überprüfen. Ich gehe nicht weiter auf diese Ergebnisse ein: Liegen die oben beschriebenen Ausgangsdaten für das Team-Management-Problem vor, ist das ‚beste‘ Team innerhalb von Sekunden gefunden. Es funktioniert einfach!

Statt dessen möchte ich die Ergebnisse zu einer anderen Fragestellung skizzieren. Ich nehme Bezug auf den Blog-Beitrag ‚AI & M 4.0: Markus Lanz vom 30. Mai 2024: Eine Collective Mind Analyse‘ vom Juni 2024.

Es geht in diesem Beitrag um die Berechnung des Collective Mind einer Diskussionsrunde mit fünf Teilnehmern. Auch hier macht die Größe von fünf Teilnehmern kein QC erforderlich. Jedoch kann man bei dieser Größe Theorien austesten und die Skalierung auf größere Teilnehmerzahlen ist bei Bedarf völlig mühelos.

In dem vorherigen Blog-Beitrag habe ich eine sogenannte Ähnlichkeitsmatrix S benutzt. Diese Matrix S ist komplex: S = Matrix A der Textähnlichkeiten + i*Matrix der Emotionsähnlichkeiten. Die Fragestellung, die ich hier diskutieren möchte lautet: Könnte ich die Anzahl der Diskussionsteilnehmer reduzieren und würde dies den Collective Mind erhöhen und welche Teilnehmer sollte ich hierfür auswählen. Dies ist wieder ein Optimierungsproblem: Da das Collective Mind über die positive Energie, die im Team ist, gemessen wird, müssen wir -S (minus S) für die Optimierung verwenden. Außerdem können wir für das Quantum Annealing (derzeit) nur den Realteil der Matrix benutzen: Die Verwendung komplexer Matrizen wird von dem d-wave System nicht unterstützt, u.a. deswegen, weil damit die Energieerhaltung verletzt wird. – Moderne Forschungen in der nicht-hermiteschen Quantenmechanik untersuchen, wie komplexe Energieeigenwerte physikalische Systeme beeinflussen könnten. Diese Entwicklungen sind besonders spannend in Bereichen wie optischen Systemen und dissipativen Quantenphasen. Es ist also noch Raum für Ergänzungen vorhanden 😉.

Die Ergebnisse im vorherigen Blog legen nahe, dass ein Team aus drei Diskussionsteilnehmern ein Energieminimum (also ein Collective Mind Maximum) zeigen sollte: Die Sprecher 2  (B), Sprecher 4 (D) und Sprecher (5) (E) sollten gute Kandidaten sein.

Abbildung 1 zeigt eine Simulation mit 3 Teilnehmern: Die Ergebnisse sind identisch oder zumindest sehr ähnlich den Ergebnissen des vorherigen Block-Beitrages: Alle tragen zum Collective Mind bei. Falls man jedoch eine Diskussionsgruppe aus drei Teilnehmern zusammenstellen wollte, so wären dies die Sprecher 2 (B), Sprecher 4 (D) und Sprecher 5 (E).  

Abbildung 1: Sie zeigt eine ‚Rechnung‘ mit 3 Teilnehmern: Wie man sehen kann liefert das Quantum Annealing mehrere Lösungen (BDE, ADE und ABE), die sehr dicht beieinander liegen. Es gibt auch Kombinationen (ACD, und BCD), die nicht favorisiert werden.

Für die Teambildung ist die Energie pro Teilnehmer entscheidend. Abbildung 2 zeigt die Energie pro Teilnehmer falls nur zwei Teilnehmer für die Diskussionsrunde ausgewählt werden.

Abbildung 2: Diese Abbildung zeigt eine ‚Rechnung‘ mit 2 Teilnehmern. Hier ist die Energie pro Teilnehmer aufgetragen. Diese Energie zeigt an, wieviel Energie in diesen Kombinationen jeder Teilnehmer hat. Vergleicht man diese Energie von 45 mit einer Energie von ca. 33 im Falle einer Diskussionsrunde von drei Teilnehmern, so ergibt sich, dass im Übergang von 2 Teilnehmern zu 3 Teilnehmern die Energie pro Teilnehmer um ca. 25% abnimmt. Kommen weitere Teilnehmer hinzu nimmt die Energie pro Teilnehmer weiter ab. – Ein Collective Mind aufzubauen wird mit jedem hinzukommenden Teilnehmer schwieriger, kleine Teams sind günstiger für den Collective Mind Aufbau.

Zusammenfassend stelle ich fest:

  1. Das Arbeiten mit ChatGPT 4o1-preview ist eine enorme Bereicherung für mich. ChatGPT 4o1-preview hat Qualitäten eines PhD-Physikers und -Entwicklers. Das Arbeiten mit dem KI-System trägt im Falle eines schwierigen wissenschaftlichen Themas zu einer enormen Leistungssteigerung bei. – Die Zusammenarbeit mit ChatGPT hat nicht nur den Recherche- und Codeentwicklungs-Prozess beschleunigt, sondern auch neue Perspektiven auf die Themen ermöglicht.
  2. Das Quantum Computing, hier das Quantum Annealing, ist über Colab und d-wave wirklich sehr einfach zu handhaben. – Es macht einfach Spaß, Management-Fragestellungen auf diese Weise zu beleuchten und in die Quantenwelt einzutauchen, die noch bis vor kurzem der modernsten Forschung vorbehalten war. – Man beginnt sowohl die Quantenwelt besser zu verstehen als auch die Managementwelt. – Theorien, wie die Collective Mind Theorie, machen einen angreifbar, sind aber auch der einzige Weg, um Erfahrungen in Erkenntnisse zu transformieren.
  3. Die QA ‚Rechnungen‘ bestätigen meine bisherigen Ergebnisse und liefern weitere Management-Erkenntnisse: Eine Skalierung auf Fragestellungen mit mehr Daten (hier mehr Personen) ist sehr einfach und die Ergebnisse liegen bei Bedarf nahezu unmittelbar vor.    

[1] d-wave (2024) dwavesys.com, cloud.dwavesys.com/leap/, docs.dwavessys.com docs.ocean.dwavesys.com     

[2] Nielsen M L und Chuang I L (2021) Quantum Computation and Quantum Information, 10te Auflage von 2002, Cambridge University Press, UK

[3] Georgescu I M, Ashhaby S, Noriz F(2014) Quantum Simulation, arXiv:1308.6253v3

[4] Broughton M et al. (2021) TensorFlow Quantum: A Software Framework for Quantum Machine Learning, arXiv:2003.02989v2

[5] Rajak A et al. (2023) Quantum Annealing: An Overview, Philosophical Transactions A, arXiv:2207.01827v4

[6] Xu  et al. (2023) A Herculean task: Classical simulation of quantum computers, arXiv:2302.08880v1

[7] Young K, Scese M, Ebnenasir A (2023) Simulating Quantum Computations on Classical Machines: A Survey, arXiv:2311.16505v1