IIT – Die Vermessung des Bewusstseins oder das menschzentrierte Weltbild wackelt

Folgender Podcast, erstellt von NotebookLM, fasst den Blog-Beitrag in englischer Sprache zusammen und zeigt sehr gelungen die philosophischen Implikationen der IIT auf:

Abbildung 0: Ein Bild das gemäß ChatGPT/Dall-E diesen Blog verdeutlicht.

Intelligenz, Gefühle und Bewusstsein stehen für Eigenschaften, die bis vor kurzem ausschließlich Menschen zugeschrieben wurden. Dies beruht auf dem Glaubenssatz, dass der Mensch die Krone die Schöpfung darstellt und sich die Natur Untertan machen soll. Die damit einhergehenden verheerenden Folgen für Erde und Natur bekommen wir tagtäglich in Form des Klimawandels, des Verlustes der Artenvielfalt und des Umgangs mit Tieren vor Augen geführt.    

Inzwischen setzt in (kleinen) Teilen der Menschheit ein Umdenken ein: Tiere haben auch Intelligenz, Gefühle und sogar Bewusstsein. KI-Maschinen zeigen schon heute eine Intelligenz, die deutlich über die Intelligenz der meisten Menschen hinausgeht. Es wird auch ernsthaft diskutiert, ob es in nicht allzu ferner Zukunft künstliche Systeme gibt, die Intelligenz, Gefühle und Bewusstsein haben werden.

Ich glaube, dass die Abschaffung des menschzentrierten Weltbildes uns hilft, die unglaublichen Dimensionen des Universums in Qualität und Quantität besser zu erkennen. Damit verbunden ist die Annahme, dass wir alle Formen des Seins, auch die technischer Systeme, mehr wertschätzen werden. – Denn in allen Formen des Seins ist schon das enthalten, was uns ausmacht. – Dies ist auch ein Glaubenssatz!

Ich beschäftige mich in diesem Blog-Beitrag mit der prominentesten aber auch wahrscheinlich umstrittensten Theorie des Bewusstseins, der Integrated Information Theorie, kurz IIT [1].

Warum beschäftige ich mich mit der IIT? Zum einen ist die Auseinandersetzung mit dem Bewusstsein ein sehr wichtiges, wenn nicht das wichtigste, Thema, um uns und das Universum besser zu verstehen. Zum anderen erlaubt die IIT prinzipiell die Vermessung von Bewusstsein in jeder Form des Seins. – Also zum Beispiel in Tieren und Pflanzen aber auch in KI Systemen und nicht zuletzt gibt sie auch die Möglichkeit das Bewusstsein von Teams, den Collective Mind, zu vermessen.

IIT ist meines Wissens nach die einzige Theorie, die ein mathematisches Konzept für die Vermessung des Bewusstseins vorgelegt hat. Sie erklärt nicht, was man unter Bewusstsein zu verstehen hat, sondern sie geht von der Annahme aus, dass Bewusstsein sich durch eine besondere Form von Integrierter Information auszeichnet und diese Integrierte Information kann man messen. Mit dieser Form der mathematischen Ausgestaltung der IIT wird sie falsifizierbar und damit auch angreifbarer als jede bisherige Theorie des Bewusstseins.  

Dies korrespondiert mit der Erkenntnis, dass wir bis heute nicht Wissen was z.B. Masse oder Energie ist. – Allerdings haben wir mathematische Mittel und Technologien erfunden, um beide physikalische Größe zu vermessen bzw. in einander zu überführen. Nehmen wir an, Bewusstsein ist etwas, das im Universum wie Energie oder Masse enthalten ist, dann sollte es möglich sein, Messvorschriften für Bewusstsein zu finden, ohne zu wissen, was Bewusstsein ist. – Letztendlich ist auch das ein Glaubenssatz, …den ich teile.

Es gibt eine Reihe weiterer Theorien des Bewusstseins, die sich bisher weitgehend einer mathematischen Erfassung ‚entziehen‘:

Global Neuronal Workspace (GNW): Bewusste Inhalte sind diejenigen, die Zugang zum „globalen Arbeitsraum“ des Gehirns bekommen. Eine Information wird breit „gebroadcastet“ (insbesondere im frontoparietalen Netzwerk) und ist damit global verfügbar für weitere kognitive Prozesse (Sprache, Gedächtnis, Planung etc.).

Recurrent Processing Theory (RPT): Bewusstsein entsteht bereits durch rekurrente (d. h. rückgekoppelte) Verarbeitung in sensorischen Arealen. Es braucht keinen globalen Workspace. Sobald feed-forward-Signale durch Rückkopplungsschleifen stabilisiert werden, entsteht phänomenales Bewusstsein.

Higher-Order Theories (HOT): Bewusstsein entsteht, wenn es eine höhere Ebene (ein „higher-order thought“ oder „higher-order representation“) gibt, die den mentalen Zustand repräsentiert. Ein mentaler Zustand, der nicht durch einen höheren Repräsentationsprozess erfasst wird, bleibt unbewusst. Variante: „Higher-Order Perception“ vs. „Higher-Order Thought“ – beide gehen davon aus, dass ein zweiter Prozess den ersten mentalen Zustand bewusst macht.

Predictive Processing/Bayesian Brain: Das Gehirn ist primär ein Vorhersageapparat, der ständig versucht, sensorische Eingaben durch interne Modelle zu minimieren („Prediction Error Minimization“). Bewusstsein ist an die Tiefe/Präzision dieser Vorhersagen und Vorhersagefehler geknüpft.

Orchestrated Objective Reduction (Orch-OR) (Quantenbewusstseins-Theorie): Mikrotubuli in Neuronen sollen Quantenkohärenzen unterstützen, die mithilfe eines noch unbekannten Effekts (Objective Reduction) kollabieren und damit „nichtalgorithmische“ Bewusstseinsprozesse erzeugen.

Recurrent-Connectionist Ansätze: Allgemeine Gruppe von Theorien, die betonen, dass Bewusstsein lokal in neuronalen Netzwerken mit Rückkopplung entsteht. Manche ähneln RPT, andere GNW, oder vermischen beides.

Panpsychismus & weitere philosophische Theorien: Bewusstsein ist ein grundlegendes Merkmal der Materie („Panpsychismus“). Alle Systeme hätten in minimalem Maße Bewusstsein. – Eine ähnliche Annahme ist auch in der IIT und in meinen Glaubenssätzen enthalten. – Wobei Psyche nicht gleichzusetzen ist mit Bewusstsein.

Wer sich ein wenig in die Thematik ‚Bewusstsein‘ einlesen oder einhören möchte, dem empfehle ich das Video ‚What creates Consciousness?‘ anlässlich des World Science Festivals 2024 [2] und einen kommentierenden Blog von Henriques und Vervaeke [3].

Die IIT beruht auf der Grundannahme, dass jedes System Bewusstsein zeigt, das einen kausalen Zusammenhang, eine sogenannte Integrierte Informations Struktur erzeugt, die nicht einfach in unabhängige Teilstrukturen zerlegt werden kann. – Gesucht ist also eine Struktur, für die gilt, dass das Ganze mehr ist als die Summe seiner Teile. – Dies ist auch der Leitgedanke der Collective Mind Theorie auf der Basis der Theorie der Selbstorganisation.

Durch die Integration entsteht Information, die bei einer möglichen Aufteilung der Struktur verloren geht. IIT stellt einen mathematischen Mechanismus zur Verfügung, um dieses Mehr an Information zu messen. Dieses Mehr an Information ist ein Maß für das Bewusstsein und wird Phi, Φ, genannt. IIT ist damit eine rein phänomenologische Theorie, d.h. sie macht (nahezu) keine Aussagen über die Design-Kriterien von Bewusstsein. Man kann also mit ihr kein System schaffen, das Bewusstsein hat. – So wie eine Federwage das Gewicht und indirekt die Masse eines Körpers misst, aber keinerlei Wesens-Aussage über Gewicht und Masse macht.

Ich habe mich erstmals vor 10 Jahren mit der IIT beschäftigt und diese Beschäftigung war von einem ‚didaktischen Albtraum‘ begleitet: Die Mathematik hinter der IIT ist nicht sehr schwer, jedoch sind sehr viele mathematische Einzelschritte (ich schätze ca. 50) mit entsprechenden Unterbegriffen notwendig, um Phi zu berechnen. Damals wurden diese Schritte mehr schlecht als recht erklärt. Was völlig fehlte, war die Antwort auf Fragen nach dem Warum der Schritte. Zwischen sehr abgehobenen Prinzipien und den vielen mathematischen Schritten gab es keine Prinzipien, die das Warum der Mathematik erläuterten. Dies ist heute deutlich besser, da die mathematischen Schritte inzwischen gut erklärt werden [1, 4, 5], jedoch fehlt meines Erachtens immer noch die Ebene der Warum-Prinzipien.

Wie schon in den vorherigen Blogs, benutze ich ChatGPT o1 für die Auseinandersetzen mit IIT und das Erstellen eines Agent Based Models (ABM) für die Berechnung des Phi‘s eines Teams.

Durch die Auseinandersetzung mit IIT habe ich zwei sehr grundlegende Warum-Prinzipien der IIT Mathematik identifiziert, die ich im Folgenden an Hand des ABM erläutere:

Das erste Warum-Prinzip nenne ich das Kausalketten-Prinzip: Bewusstsein erfordert im zeitlichen Ablauf der Zustände eines Systems eine Verkettung von Zuständen. Der Zustand zum Zeitpunkt t ist mit dem Zustand zum Zeitpunkt t-1 und t+1 verbunden, d.h. die Übergangswahrscheinlichkeiten zwischen diesen Zuständen ist deutlich höher als zwischen anderen Zuständen. Es entsteht eine Integrierte Information. Im Kontext der Collective Mind Theorie sprechen wir von einer hohen Kohärenz der Aktivitäten.

Das zweite Warum-Prinzip nenne ich das holistische Struktur-Prinzip: Nicht alle Elemente oder Teile eines Systems tragen zur Integrierten Information oder zum Collective Mind (CM) bei. Im Falle eines Teams kann man sich dies sehr gut verdeutlichen: Es kann durchaus Teammitglieder geben, die keinen Beitrag zum CM leisten aber auch nicht stören. Es kann aber auch Teammitglieder geben, die den Anstieg des CM oder die volle Ausprägung behindern. Darüber hinaus kann es sein, dass bei den CM-beitragenden Teammitgliedern nicht alle Persönlichkeitsmerkmale bzw. alle dazugehörigen Verhaltensweisen zum CM beitragen: Es kann sein, dass bei einem Teammitglied die Extraversion von Bedeutung ist, bei einem Anderen die Verträglichkeit und die Offenheit und wieder bei einem anderen die Gewissenhaftigkeit. Wenn man wissen will, welche Elemente bzw. Einzelzustände in einem System zum Phi bzw. Collective Mind beitragen und welche nicht, sind Partitionen eines System zu erstellen. Man teilt das System in alle möglichen Partitionen ein und misst die dann noch vorliegende Information. Falls sich die Information eines partitionierten System verringert, hat man ein (Teil-) System gefunden, das irreduzibel ist. – In der CM Theorie sprechen wir von Kohäsion. Gesucht sind die Strukturen, die irreduzibel sind. Für die Kennzeichnung von Phi wählt man die irreduzible Struktur aus, die die geringste Integrierte Information hat. Um die richtigen Partitionen zu finden, sind alle Partitionen des Systems zu bilden. Die Anzahl der Partitionen wächst leider exponentiell: Modelliert man die  Eigenschaften der Teammitglieder lediglich als binäre Eigenschaften, also Bits (Eigenschaft an, Eigenschaft aus), so ergeben sich bei 10 Bits, 2 hoch 10 Partitionen -2 = 511 Partitionen. Im Falle meines ABM’s ist ein System mit 10 Bits noch mit einer halben Stunde Laufzeit auf meinem gut ausgestatteten Laptop zu berechnen. Abgebrochene Versuche mit 14 Bits zeigen im Vergleich eine Laufzeit von mehr als 24 Std.. Die Umsetzung des holistischen Strukturprinzips ist also extrem rechenaufwendig. Wie man große System wie unser Gehirn, Teile des Gehirns oder eines KI-Systems mittels Phi vermessen will, bleibt eine große Frage.

Das von mir benutze ABM hat folgende Struktur:

Das Modell-Team verfügt als Rahmenparameter über 5 Teammitglieder, die durch Big Five Profile mit binärer Typologie beschrieben werden, d.h. z.B. dass Extraversion mit voll ausgebildet (1) oder überhaupt nicht ausgebildet (0) abgebildet wird. Den Teammitgliedern werden auch drei Rollen zugewiesen: Projektleiter, Experte, Support

Die so definierten Big Five Profile und Rollen beeinflussen zwei Kontrollparameter pro Teammitglied: mentale Energie und Stimmung. Auch diese werden vereinfacht als Bits (an/aus) modelliert: Die Kontrollparameter repräsentieren die Zustände des Systems Team. Da wir zwei Kontrollparameter pro Teammitglied haben, wird die Phi-relevante Struktur durch 10 Bits beschrieben.

Als fokussierenden Attraktor wird eine einfache Ziel-Hierarchie verwendet, die aus 4 Bits besteht: 1 Bit für die Vision, 2 Bits für die Epics (kein Epic, Epic in frühem Stadium, Epic fast fertig, Epic vollständig), 1 Bit für die Features.

Die Beeinflussung der Kontrollparameter und der Ziel-Hierarchie erfolgt durch Regeln: z.B.

  • Die Wahrscheinlichkeit für den Stimmungsverlust von Teammitgliedern mit hoher Verträglichkeit erhöht sich um 15%, wenn weniger als 3 Teammitglieder eine hohe Stimmung im Team haben.
  • Im Fall eines Teammitgliedes, das eine hohe Gewissenhaftigkeit hat, erhöht sich die Wahrscheinlichkeit für Energieverlust um 15%, wenn noch keine Vision definiert ist, aber die Epics schon fast fertig oder fertig sind.

Die Berechnung der Übergangswahrscheinlichkeiten der Zustände, beschrieben über den Stimmungs- und Energie-Zustand pro Teammitglied, erfolgt innerhalb eines Laufzeitsettings von bis zu 200 Episoden mit jeweils 200 Zeitschritten. Das ist nicht viel, um eine ‚gute‘ Statistik zu erhalten. – Eine entsprechende Erhöhung führt jedoch schnell in Laufzeiten von einem Tag oder mehr.

Abbildung 1 verdeutlicht die Φ-Berechnungen im ABM Programm.

Abbildung 1: Die Abbildung verdeutlicht die beiden o.g. Warum-Prinzipien: In der Mitte ist ein herausgegriffener aktueller Zustand ‚s‘ für 5 Teammitglieder skizziert. Jedes Teammitglied wird binär über seine mentale Energie und seine Stimmung beschrieben. Die Persönlichkeitsprofile und die zugewiesenen Rollen beeinflussen über Regeln Energie und Stimmung jedes Teammitgliedes. Zusätzlich beeinflussen die Teammitglieder den Ausbau der Ziel-Hierarchie. Die Ziel-Hierarchie hat über den Grad ihrer Vollständigkeit auch Einfluss auf Energie und Stimmung. Die Kreise um die Zustände verdeutlichen beispielhaft welche Eigenschaften Einfluss auf Phi haben. Im gezeigten System-Zustand ‚s‘ hat keine der Eigenschaften des 3ten Teammitgliedes Einfluss auf die Phi Berechnung. Weiter unten werden zwei mögliche Partitionen angezeigt. Eine dritte Partition mit dem dritten Teammitglied hat keinerlei Einfluss auf die Phi-Berechnung. Rechts in der Abbildung werden die zentralen Formeln für die Phi-Berechnung gezeigt. Ich erläutere sie hier der Einfachheit wegen nicht, sie dienen dem mathematisch Interessierten der Verdeutlichung der Kausalkette s past -> s -> s future und der verwendeten Berechnungen der Übergangswahrscheinlichkeiten P.

Nun zu den Ergebnissen:

Ich habe mit dem ABM zwei verschiedene Arten der Berechnung durchgeführt. Aus Vergleichsgründen wurde die sogenannte Minimal Mutual Information (MMI) auf der Basis einer Entropieberechnung erstellt. Wie für die Phi-Berechnung werden Partitionen gebildet und die damit verbundene Entropieänderung gegenüber dem vollständigen System ermittelt: Das integrierte System sollte eine kleinere Entropie haben als die Summe der Entropien der Partitionen.

Die MMI- und die Phi-Berechnung für einzelne Zustände ‚s‘ zeigen beide Werte im Bereich 0 bis 1 bit. Das ist schon eine merkliche Größe. Keine der Berechnungen zeigt jedoch über eine größere Anzahl von Zuständen einen merklichen Informationsgewinn. – Außerdem werden die Informationsgewinne für beide Berechnungen für unterschiedliche Zustände angezeigt. Die gesamte Integrierte Information über alle Zustände ist sehr unterschiedlich. MMI misst eher Korrelationen, Phi dagegen Kausalzusammenhänge. Die Phi-Werte für ganz bestimmte Zustände (also bei ganz bestimmten Energie- und Stimmungsausprägungen) liegen im Wertebereich 0,1-0,4 bit. – Über alle Zustände gemittelt ist Phi jedoch nahe 0 bit. Die Team-Zustände geraten leider sehr schnell in eine positive Sättigung (alle Bits =1) oder in eine negative Sättigung (alle Bits = 0). Die verwendeten Rahmenparameter und die damit verbundenen Regeln ermöglich in meinen Testfällen keine hinreichende exklusive Diversität: Die Zustände müssen nämlich hinreichend exklusiv und diverse sein, um eine klare Kausalkette zu bilden. – Eine vollständige (klassische) Verschränkung aller Bits in einem Zeitschritt ‚s‘, also alle Teammitglieder haben eine positive mentale Energie und Stimmung, erzeugt nach der IIT kein Bewusstsein.- Diejenigen, die vorherige Blog-Artikel von mir gelesen haben, erinnern sich, dass in quantenmechanischen Modellen sehr wohl die Verschränkung als Kriterium für den Collective Mind angenommen wird.- Dies korrespondiert auch zur o.g. Quantenbewusstseins-Theorie.

Das Einschalten der Ziel-Hierarchie erzeugt des öftern in etwa eine Verdopplung des Phi. – Dies ist ein durchaus bemerkenswertes Ergebnis. Das Konzept der Ziel-Hierarchie gehört zur Collective Mind Theorie und hat eine gewisse Ähnlichkeit mit dem übergeordneten Zustand der oben erwähnten Bewusstseinstheorie HOT.

Auf der Internetseite zur Phi-Python-Bibliothek [4] und der zugrundeliegenden Veröffentlichung [5] werden einige künstliche neuronale binäre Netzwerke vorgestellt, die deutlich höhere Phi-Werte (Faktor 10 und mehr) haben. Man könnte diese als Vorlage nehmen, und so lange an den Parametern meines ABM ‚drehen‘ bis eventuell Netzwerk-Konstellationen und damit ähnliche Phi-Werte auftauchen. – Dies erscheint mir wenig befriedigend, zumal ich erwarte, dass sich ein Erfolg kaum einstellen dürfte – es sind einfach zu viele Konfigurationen möglich!

Meine Berechnung benutzen nicht alle der vielen mathematischen Konstrukte zur Phi-Berechnung. – Dies hat sicherlich einen Einfluss auf die Größe von Phi, jedoch kaum einen Faktor von 10 und mehr [5]. Wesentlich dürfte eher das bewusste Gestalten der Netzwerke hin zu mehr Exklusivität und Diversität sein u.a. durch Rückkopplungen, so dass sich gute Kausalketten ausbilden. Dies heißt, dass es für ein Team-IIT eher sinnvoll ist, sich das Team-Kommunikationsnetzwerk auf Kausalketten begünstigende Mechanismen anzusehen. – Eine Aufgabe für spätere Blog-Aktivitäten.

Die Integrierte Information spielt wahrscheinlich beim Bewusstsein eine Rolle, jedoch, ob es die alles entscheidende Rolle ist, wage ich zu bezweifeln: Es gibt leider keine Aussagen zur Größenordnung von Phi des menschlichen Bewusstseins. Legt man 80 Milliarden Neuronen mit binären Zuständen zugrunde, so ergeben sich 2 hoch 80 Milliarden Zustände. Geht man weiterhin davon aus, dass Phi in etwa in der selben Größenordnung liegt, was die Netzwerke aus [5] nahelegen, dann ergibt sich für Phi eine unglaublich große Zahl. Selbst wenn man annimmt, dass nur etwa 10 Prozent des Gehirns am Bewusstsein beteiligt sind, bleibt der Phi-Wert immer noch unglaublich hoch. Dies zeigt aber auch, dass das Phi des menschlichen Bewusstseins und der bisherigen Netzwerk-Überlegungen unglaublich weit auseinander liegen. – Ein Umstand, der mir zeigt, dass die Überlegungen lückenhaft sind.

Es ist einerseits beruhigend festzustellen, dass ich mit einem einfachen ABM keine hohen Phi Werte erhalte – es wäre auch zu einfach gewesen 😊,  andererseits kommt mit IIT meines Erachtens eine neue Qualität in die Auseinandersetzung zum Verständnis von Bewusstsein. Bewusstsein wird entmystifiziert und es wird versucht dieses über mathematische Mechanismen abzubilden. Ich glaube, dass die IIT eine gute Messvorschrift ist für ‚Das Ganze ist mehr als die Summe seiner Teile‘. – Ich glaube aber auch, dass die IIT Bewusstsein nicht hinreichend beschreibt. – Ich vermute, dass alle die oben genannten Bewusstseinskonzepte weitere Körnchen Wahrheit darstellen und vielleicht auch noch etwas grundsätzlich Neues hinzukommen muss.

[1] IIT-Integrated Information Theory (2025) https://integratedinformationtheory.org/ oder https://www.iit.wiki/home

[2] Greene B, Chalmers D, Seth A (2024) What creates Consciousness, Youtube, https://www.youtube.com/watch?v=06-iq-0yJNM

[3] Henriques G, Vervaeke J (2024) Understanding Consciousness, Blog auf medium.com

[4] PyPhi (2024) Phi Python Bibliothek, https://pyphi.readthedocs.io/en/latest/index.html

[5] Albantakis L, et al. (2023) Integrated information theory (IIT) 4.0: Formulating the properties of phenomenal existence in physical terms. PLoS Comput Biol 19(10): e1011465, https://doi.org/10.1371/journal.pcbi.1011465

AI & QC & M 4.0: Die Welt der Unbestimmtheit nutzen oder vom Nutzen des Quantum Computing für das Team-Management

Der Blog-Beitrag wurde unter Mithilfe von OpenAI ChatGPT 4o1-preview erstellt: ChatGPT erzeugte den Code fehlerfrei und klärte alle meine wissenschaftlichen Fragen. Mittels ChatGPT 4o habe ich den Beitrag überprüft.

Die nachfolgende Audiodatei fasst den Inhalt als englischen Podcast, erstellt von Google’s notebookLM, zusammen und schlägt – ohne mein Zutun – diverse Brücken zu meinen anderen Blog-Beiträgen:

Abbildung 0: Dies ist eine Bild-Umsetzung des Blog-Beitrages von ChatGPT 4o/Dall-E

Grundlegende Ansätze des Quantum Computing (QC) wurden schon in der 80er Jahren formuliert. Erst in den letzten 10 Jahren hat diese Disziplin einen enormen Sprung in die Anwendbarkeit für Jedermann vollzogen. – Wobei, … diese Technologie sicherlich immer noch am Anfang steht.

Anwendbarkeit für Jedermann bedeutet, dass, ähnlich wie beim Thema Künstliche Intelligenz mittels klassischer Neuronaler Netzwerke (u.a. Copilot, ChatGPT, Gemini, Mistral usw.),  inzwischen in Nordamerika ein QC-Ecosystem existiert, das für mich zugänglich ist.

IBM, Microsoft und Google bieten entsprechende Umgebungen an. Das wohl bekannteste Startup im Bereich QC ist die kanadische Firma d-wave, die seit ca. 15 Jahren am  Markt ist [1].

Im QC gibt es zwei große Richtungen: Das Gate QC und das Quantum Annealing QC. Das Gate QC wird von IBM, Microsoft und Google favorisiert. D-wave hat sich auf das Quantum Annealing (QA) spezialisiert. Das Gate QC beruht auf der Idee von Schaltkreisen, wie von klassischen Rechnern bekannt. Jedoch ist die Funktionalität der QC Schaltkreise völlig anders als diejenige der klassischen Schaltkreise. Der Begriff ‚klassisch‘ bedeutet hier, dass nicht explizit die Eigenschaften der Quantenwelt ausgenutzt werden. – Wohl wissend, dass auch ein klassischer Schaltkreis auf den Erkenntnissen der Quantenmechanik beruht und ein sogenannter klassischer Computer ohne Quantenmechanik nicht existieren würde.

Das explizite Ausnutzen der Quantenwelt-Eigenschaften bedeutet, die Eigenschaften von Quantenobjekten, wie Elementarteilchen, Atomen oder anderen einzelnen Objekten, die sich entsprechend der Quantenmechanik verhalten, zu nutzen. Die QC-Objekte werden als Qubits bezeichnet, die nicht nur, wie Bits, die Zustände 1 und 0 annehmen können, sondern sogenannte kohärente Zustände, die eine Mischung von 1 und 0 sind. Diese Mischung sorgt für die Unbestimmtheit der Qubits und ermöglicht damit, dass in einem Qubit eine unendliche Welt an Möglichkeiten enthalten ist. – Kohärenz beschreibt also die Fähigkeit eines Quantensystems, in mehreren Zuständen gleichzeitig zu existieren. Diese Fähigkeit ermöglicht komplexe Quantenberechnungen, bis äußere Einflüsse die Zustände stören und die Kohärenz zerstören.

D-Wave verwendet Qubits auf der Basis von supraleitenden Ringströmen, die zudem über supraleitende Koppler verbunden sind. – Die Qubits kann man nach jetzigem Stand der Technik nur bei Temperaturen nahe dem absoluten Nullpunkt erhalten.  Sind die Ringströme in einem kohärenten Zustand, haben wir eine Mischung von Uhrzeiger-drehenden und Gegenuhrzeiger-drehenden Ringströmen. – Es liegt dann maximale Unbestimmtheit vor.

Allein diese wenigen Ausführungen zeigen, dass QC eine völlig andere Welt ist, als der sogenannte klassische Computer. Ich vermute, dass die Hürde für jemand, der keine Physikausbildung hat, recht hoch sein dürfte: Die Grundlagen der Quantenmechanik sind sehr umfangreich und erfahrungsgemäß erst nach einer gewissen Gewöhnungszeit ‚zu verstehen‘.- Ich verweise deshalb auf entsprechende Fachliteratur [2, 3, 4, 5, 6, 7]. Eine Behandlung der Grundlagen würde den Rahmen dieses Blog-Artikels bei weitem sprengen.

Setzt man die Kenntnis der quantenmechanischen Grundlagen voraus, so ist die Handhabung der Programme, um auf einem Quantencomputer zu ‚rechnen‘, erstaunlich einfach. Das ‚Rechnen‘ auf Quantencomputern ist nach wie vor noch sehr exklusiv und ist meistens eingeschränkt. Jedoch stellen alle Anbieter Quantensimulatoren zur Verfügung, die die quantenmechanischen Rechnungen (wie sie ein Physiker von Hand tun würde) auf einem klassischen Computer durchführen. Ab etwa 8-10 Qubits ist es jedoch meistens nicht mehr möglich die ‚Rechnungen‘ auf einem klassischen Computer durchzuführen, da die Komplexität der ‚Rechnungen‘ exponentiell steigt. – Für das Austesten der QC-Algorithmen reicht dies jedoch oft. – Nach der Testphase kann man dann ggf. auf einem exklusiven Quantencomputer ‚rechnen‘.

Ich habe für diesen Blog-Beitrag mit der d-wave Umgebung gearbeitet: Für die Erstellung der Algorithmen habe ich deren QC-Simulatoren verwendet und danach die d-wave QC-Hardware. Die Übergang ist sehr einfach, da lediglich 1-2 Programmzeilen ausgetauscht werden, in denen der QC-Simulator oder die QC-Hardware angesprochen wird.

Auf den d-wave Internetseiten sind sehr viele Beispiele zum QC mittels Quantum Annealing enthalten: u.a. logistische Lösungen, Suche nach geeigneten Materialien oder Medikamenten, Suche nach optimalen Finanzportfolios, usw..

QC kann immer dann ihre Vorteile ausspielen, wenn aus einer sehr großen Anzahl an Möglichkeiten die beste Lösung oder die besten Lösungen herausgefunden werden sollen. Nehmen wir an, wir wollten aus einem Pool von 100 Mitarbeitern ein Team zusammenstellen. Falls das Team drei Teammitglieder hat, ergeben sich schon 161.700 mögliche Teams. Erhöhen wir das Team auf 7 Teammitglieder ergeben sich ca. 16 Milliarden Team-Möglichkeiten. Die möglichen Teams im Falle von drei Teammitgliedern zu überprüfen ist auf klassischer Hardware noch möglich, im Fall des Teams mit 7 Teammitgliedern nicht mehr.

Quantum Annealing wird eingesetzt, wenn die Lösung aus einem sehr großen potentiellen Lösungsraum herausgefunden werden soll und sich das Problem als ein Netzwerk-Problem formulieren lässt. Im Falle unseres Team-Management-Problems besteht das Netzwerk aus 100 Teammitgliedern, die mehr oder weniger gut miteinander zusammenarbeiten können. Dieses mehr oder weniger gut wird vom Management über eine Zahl zwischen -1 und 1 bewertet und in eine Matrix eingetragen. Zusätzlich können auch Kompetenzen der Teammitglieder (zum Beispiel Programmierkenntnisse, Designkenntnisse oder Persönlichkeitseigenschaften) in einer Skala von 0 bis 1 erfasst werden. Für das Team lässt sich auf dieser Basis angeben, wieviel Teamkompetenz in den einzelnen Kompetenzbereichen vorhanden sein soll.

Das Management-Problem wird mittels einer Zielfunktion, die die Wechselwirkung der Qubits beschreibt, auf ein Qubit-Netzwerk transformiert: Die 100 Teammitglieder werden zu 100 Qubits, die Matrix der Zusammenarbeit wird auf eine Koppler-Matrix zwischen den Qubits abgebildet und die Kompetenzanforderungen werden als Constraints des Optimierungsproblems verwendet.

Zu Beginn der ‚Rechnung‘ wird das 100 Qubit-Netzwerk in einen Anfangszustand gebracht, der in sich! sogar 2hoch100 also ca. 10 hoch 30 Zustände enthält: Man spricht von einer Superposition des Qubit-Netzwerkes. Dann wird das Netzwerk extrem langsam ‚ausgeglüht’ und die Wechselwirkung zwischen den Qubits sehr langsam hochgefahren. Sehr langsam bedeutet hier sehr langsam in Relation zu den charakteristischen Qubit-Systemzeiten: Die sind, verglichen mit unseren Tageszeiten, sehr kleine Zeiten.

Man spricht von dem Ausglüh-Prozess: dem Annealing-Prozess. Der Begriff stammt von klassischen Optimierungsalgorithmen, in denen man zuerst mit einer hohen Temperatur startet, die viele Zustände enthält. Es wird extrem langsam (adiabatisch) ausgeglüht, um in einem ‚kühlen‘ Lösungszustand zu enden. Im Falle des Quantum Annealing, das ja bei sehr tiefen Temperaturen durchgeführt wird, um die Qubits zu bekommen, wird mit einem sogenannten transversalen Magnetfeld gearbeitet, das die 100 Qubits in eine vollständige Superposition bringt. – Der Quantum Annealing-Prozess minimiert langsam das Magnetfeld, wodurch das System in den Zustand der niedrigsten Energie gebracht wird – vergleichbar mit einem Stein, der in das tiefste Tal eines Hügels rollt. Der Prozess verläuft extrem langsam, um sicherzustellen, dass der optimale Zustand erreicht wird. Liegt die sehr langsam hochgefahrene Wechselwirkung zwischen den Qubits vollständig vor, ist der ausgeglühte 100 Qubit-Zustand erreicht. – Die optimale Lösung ist gefunden: Alle Qubits werden jetzt (erst) gemessen und zeigen jetzt eine 0 oder 1. Es ist jetzt möglich, für alle möglichen Kombinationen, die 7 Qubits enthalten und die weiteren festgelegten Rahmenbedingungen erfüllen, die Energie zu berechnen. Aus diesen Energien werden die niedrigsten Energiewerte oder der niedrigste Energiewert ausgewählt. 

Im Idealfall ist dies nur ein Zustand. Dies beruht auf der grundlegenden Annahme, dass die (natürliche) Lösung durch den Zustand oder die Zustände repräsentiert wird, die die niedrigsten Energiewerte besitzen.

Der QC Annealing Prozess ist ein Selbstorganisationsprozess, d.h. es kann auch vorkommen, dass der Prozess kein Energieminimum in der Energielandschaft findet. Aus diesem Grunde ist es notwendig, mit im Algorithmus enthaltenen Kontrollparametern etwas zu spielen, um ein Energieminimum zu finden. Hierzu werden die Kontrollparameter variiert, um in der durch die vorgegebenen Rahmenparametern (z.B. Teamgröße, Kompetenzprofile, Zusammenarbeits-Matrix) eingeschränkten Energielandschaft die Energieminima zu suchen. Das gefundene Energieminium ist hierbei der Ordnungsparameter zur Zielfunktion, die die Wechselwirkung der Qubits unter den gegebenen Rahmenbedingungen beschreibt.         

Das Team-Management Problem habe ich in einer Colab-Python-Umgebung laufen lassen. Ich habe Tests mit kleinen Pool- und Team-Größen durchgeführt. In diesem Fall kann man die Ergebnisse auch noch klassisch überprüfen. Ich gehe nicht weiter auf diese Ergebnisse ein: Liegen die oben beschriebenen Ausgangsdaten für das Team-Management-Problem vor, ist das ‚beste‘ Team innerhalb von Sekunden gefunden. Es funktioniert einfach!

Statt dessen möchte ich die Ergebnisse zu einer anderen Fragestellung skizzieren. Ich nehme Bezug auf den Blog-Beitrag ‚AI & M 4.0: Markus Lanz vom 30. Mai 2024: Eine Collective Mind Analyse‘ vom Juni 2024.

Es geht in diesem Beitrag um die Berechnung des Collective Mind einer Diskussionsrunde mit fünf Teilnehmern. Auch hier macht die Größe von fünf Teilnehmern kein QC erforderlich. Jedoch kann man bei dieser Größe Theorien austesten und die Skalierung auf größere Teilnehmerzahlen ist bei Bedarf völlig mühelos.

In dem vorherigen Blog-Beitrag habe ich eine sogenannte Ähnlichkeitsmatrix S benutzt. Diese Matrix S ist komplex: S = Matrix A der Textähnlichkeiten + i*Matrix der Emotionsähnlichkeiten. Die Fragestellung, die ich hier diskutieren möchte lautet: Könnte ich die Anzahl der Diskussionsteilnehmer reduzieren und würde dies den Collective Mind erhöhen und welche Teilnehmer sollte ich hierfür auswählen. Dies ist wieder ein Optimierungsproblem: Da das Collective Mind über die positive Energie, die im Team ist, gemessen wird, müssen wir -S (minus S) für die Optimierung verwenden. Außerdem können wir für das Quantum Annealing (derzeit) nur den Realteil der Matrix benutzen: Die Verwendung komplexer Matrizen wird von dem d-wave System nicht unterstützt, u.a. deswegen, weil damit die Energieerhaltung verletzt wird. – Moderne Forschungen in der nicht-hermiteschen Quantenmechanik untersuchen, wie komplexe Energieeigenwerte physikalische Systeme beeinflussen könnten. Diese Entwicklungen sind besonders spannend in Bereichen wie optischen Systemen und dissipativen Quantenphasen. Es ist also noch Raum für Ergänzungen vorhanden 😉.

Die Ergebnisse im vorherigen Blog legen nahe, dass ein Team aus drei Diskussionsteilnehmern ein Energieminimum (also ein Collective Mind Maximum) zeigen sollte: Die Sprecher 2  (B), Sprecher 4 (D) und Sprecher (5) (E) sollten gute Kandidaten sein.

Abbildung 1 zeigt eine Simulation mit 3 Teilnehmern: Die Ergebnisse sind identisch oder zumindest sehr ähnlich den Ergebnissen des vorherigen Block-Beitrages: Alle tragen zum Collective Mind bei. Falls man jedoch eine Diskussionsgruppe aus drei Teilnehmern zusammenstellen wollte, so wären dies die Sprecher 2 (B), Sprecher 4 (D) und Sprecher 5 (E).  

Abbildung 1: Sie zeigt eine ‚Rechnung‘ mit 3 Teilnehmern: Wie man sehen kann liefert das Quantum Annealing mehrere Lösungen (BDE, ADE und ABE), die sehr dicht beieinander liegen. Es gibt auch Kombinationen (ACD, und BCD), die nicht favorisiert werden.

Für die Teambildung ist die Energie pro Teilnehmer entscheidend. Abbildung 2 zeigt die Energie pro Teilnehmer falls nur zwei Teilnehmer für die Diskussionsrunde ausgewählt werden.

Abbildung 2: Diese Abbildung zeigt eine ‚Rechnung‘ mit 2 Teilnehmern. Hier ist die Energie pro Teilnehmer aufgetragen. Diese Energie zeigt an, wieviel Energie in diesen Kombinationen jeder Teilnehmer hat. Vergleicht man diese Energie von 45 mit einer Energie von ca. 33 im Falle einer Diskussionsrunde von drei Teilnehmern, so ergibt sich, dass im Übergang von 2 Teilnehmern zu 3 Teilnehmern die Energie pro Teilnehmer um ca. 25% abnimmt. Kommen weitere Teilnehmer hinzu nimmt die Energie pro Teilnehmer weiter ab. – Ein Collective Mind aufzubauen wird mit jedem hinzukommenden Teilnehmer schwieriger, kleine Teams sind günstiger für den Collective Mind Aufbau.

Zusammenfassend stelle ich fest:

  1. Das Arbeiten mit ChatGPT 4o1-preview ist eine enorme Bereicherung für mich. ChatGPT 4o1-preview hat Qualitäten eines PhD-Physikers und -Entwicklers. Das Arbeiten mit dem KI-System trägt im Falle eines schwierigen wissenschaftlichen Themas zu einer enormen Leistungssteigerung bei. – Die Zusammenarbeit mit ChatGPT hat nicht nur den Recherche- und Codeentwicklungs-Prozess beschleunigt, sondern auch neue Perspektiven auf die Themen ermöglicht.
  2. Das Quantum Computing, hier das Quantum Annealing, ist über Colab und d-wave wirklich sehr einfach zu handhaben. – Es macht einfach Spaß, Management-Fragestellungen auf diese Weise zu beleuchten und in die Quantenwelt einzutauchen, die noch bis vor kurzem der modernsten Forschung vorbehalten war. – Man beginnt sowohl die Quantenwelt besser zu verstehen als auch die Managementwelt. – Theorien, wie die Collective Mind Theorie, machen einen angreifbar, sind aber auch der einzige Weg, um Erfahrungen in Erkenntnisse zu transformieren.
  3. Die QA ‚Rechnungen‘ bestätigen meine bisherigen Ergebnisse und liefern weitere Management-Erkenntnisse: Eine Skalierung auf Fragestellungen mit mehr Daten (hier mehr Personen) ist sehr einfach und die Ergebnisse liegen bei Bedarf nahezu unmittelbar vor.    

[1] d-wave (2024) dwavesys.com, cloud.dwavesys.com/leap/, docs.dwavessys.com docs.ocean.dwavesys.com     

[2] Nielsen M L und Chuang I L (2021) Quantum Computation and Quantum Information, 10te Auflage von 2002, Cambridge University Press, UK

[3] Georgescu I M, Ashhaby S, Noriz F(2014) Quantum Simulation, arXiv:1308.6253v3

[4] Broughton M et al. (2021) TensorFlow Quantum: A Software Framework for Quantum Machine Learning, arXiv:2003.02989v2

[5] Rajak A et al. (2023) Quantum Annealing: An Overview, Philosophical Transactions A, arXiv:2207.01827v4

[6] Xu  et al. (2023) A Herculean task: Classical simulation of quantum computers, arXiv:2302.08880v1

[7] Young K, Scese M, Ebnenasir A (2023) Simulating Quantum Computations on Classical Machines: A Survey, arXiv:2311.16505v1