QAPO – Quantum Asset Portfolio Optimisation II: Überlegungen zur Anwendbarkeit und D-Wave Simulationen

Kurzfassung: In diesem Beitrag untersuche ich die praktische Anwendung von Quantencomputern im Finanzsektor mittels einer hybriden Quantum Asset Portfolio Optimisation (QAPO). Ich kombiniere die quantenmechanische Asset-Selektion eines D-Wave-Systems mit einer klassischen Minimum-Variance-Kapitalallokation. Durch ein strenges Out-of-Sample-Backtesting unter realen Transaktionskosten demonstriere ich transparent, wie das Modell auf unterschiedliche Marktphasen reagiert. Ein besonderer Fokus liegt auf der Architektur von ‚All-Wetter-Portfolios‘ und dem Verhalten unkorrelierter Assets wie Gold, die als Volatilitäts-Stoßdämpfer fungieren. Zudem erkläre ich anschaulich die physikalischen Vorteile des makroskopischen Quantentunnelns gegenüber klassischer Optimierung. Der Beitrag zeigt, wie Quantum Finance schon heute für (private) Anleger in die Praxis umgesetzt werden kann.

Den folgenden Blog-Beitrag habe ich noch überwiegend mit ChatGPT erstellt. Während der Erstellung nahm die KI-Demenz des Systems enorm zu: ChatGPT hat immer wieder schon erarbeitete Zusammenhänge vergessen. Außerdem hat sich an der schlechten Qualität des Codes für Latex unter WordPress nichts geändert. Dies hat mich bewogen, auf Google Gemini 3 Pro umzusteigen: Das System vergisst (aktuell) nichts, macht mich sogar auf Zusammenhänge zu vergangenen Ergebnissen aufmerksam und erzeugt lauffähigen Latex Code für WordPress. – Gemini hat den Prompt für das Eingangsbild erzeugt und ChatGPT hat diesen umgesetzt.

Dieser Blog-Beitrag ist der zweite Beitrag in der Blog Reihe ‚Quantum Asset Portfolio Optimisation‘ (QAPO). Ziel dieses Beitrages ist es, einen Algorithmus zu entwickeln, der eine persönliche Anlagestrategie von Assets (u.a. Aktien, ETFs) unterstützen kann. 

Schaut man sich die Entwicklung der letzten Wochen und Tage an, so nehmen die (medialen) Veröffentlichungen zum Thema Quantum Computing (QC) immer mehr Fahrt auf. 

Ich sehe drei große Themenbereiche, in denen sich das QC entwickelt:

  • Der Aufbau von großen stabilen Qubit Hardware Systemen: Dieser Bereich erfährt derzeit die meiste mediale Aufmerksamkeit
  • Die Entwicklung von Anwendungsfällen, in denen QC seine ungeheuren Möglichkeiten zeigen kann. Dieser Bereich zeigt meines Erachtens in den letzten Wochen enorme Fortschritte: QC wird u.a. mit KI Systemen kombiniert und liefert bahnbrechende Erkenntnisse. Nimmt man zum Beispiel die Likes auf Linkedin zu Veröffentlichungen als Indikator für die mediale Aufmerksamkeit, so ist diese allerdings sehr gering. – In meinem nächsten Blog-Beitrag werde ich deshalb hierzu einen faszinierenden Anwendungsfall behandeln.
  • Die Optimierung des Wechselspiels von klassischen Systemen und QC: Im letzten Blog habe ich schon erwähnt, dass die Anwendung eines QAOA Qiskit Python Codes auf entsprechender IBM Hardware wenig erfolgreich war, da mein Rechenbudget nahezu vollständig vom klassischen Rechnen ‚aufgefressen‘ wurde. Die typischen QC Gate Laufzeiten liegen im Mikro- bis Milli-Sekunden Bereich, so dass 1000 bis 1 Mio. Wiederholungen zusammenkommen müssen, damit sich im QC eine Gesamtlaufzeit von einer Sekunde aufbaut. Im Anhang 1 habe ich deshalb die ‚Zeitfaktoren‘ pro QC Methode zusammengestellt. Man kann sehr schnell erkennen, dass für Gesamtlaufzeiten (also klassisch+quantum Laufzeit) von maximal einer Stunde ein überwiegender Teil der Rechenzeit in die klassische Aufbereitungs- und Nachbearbeitungszeit fließt.

Im Jahre 2024 habe ich erstmals mit QC Hardware gerechnet. Damals war es noch sehr einfach und schnell ein kleines aber ausreichendes Kontingent an (kostenloser) QC Rechenzeit zu erhalten. Heute ist dies ungleich schwieriger. Da die Simulations-Rechenzeit für das QAOA schon im Stundenbereich liegt und das Laufzeitverhalten auf der IBM Hardware für mich nicht transparent ist, verzichte ich für diesen Blog auf die QAOA Methode und konzentriere mich lediglich auf die D-Wave Methode.

Aber auch hier habe ich bisher keinen Hardware Zugang erhalten. Der Übergang auf die D-Wave Hardware macht evtl. aus zwei Gründen Sinn:

  • Das Problem ist so groß, dass eine Simulation in 1-2 Stunden zu keinem guten Ergebnis kommt. Die Einschränkung von 1-2 Stunden erscheint sinnvoll, da ich das QAPO für meine persönliche Anlagenstrategie verwenden will. Da die Rechenzeiten auf meinem Laptop, für 44 Assets und einer Portfolio Auswahl von 4 Assets, im Ein-Minutenbereich liegen, ist der Wechsel auf eine D-Wave Hardware aus diesem Grunde noch nicht notwendig. 
  • Man möchte den energetisch tiefsten Zustand finden, also das beste Portfolio aus einer gegebenen Anzahl an Assets. Quantenmechanische Systeme können nicht nur unglaublich große Probleme bearbeiten, sie tun dies auch anders als klassische Systeme: Energetisch tiefe Zustände (also Täler) sind durch energetische hohe Zustände (also Berge) voneinander getrennt. In klassischen Systemen muss Energie zugeführt werden um ein System über einen Berg in ein neues Tal zu hieven. Es kostet also viel Zeit, immer wieder so einen Hebeprozess durchzuführen, um schließlich in der gesamten Energielandschaft den niedrigsten Zustand zu finden. Quantensysteme können durch die Energiebarrieren (Berge) hindurchtunneln. Sie sparen sich also sehr viel Zeit, um das niedrigste Tal zu finden. Leider ist die D-Wave Simulation eine solche klassische Simulation: Es könnte also sein, dass mit der Simulation nicht das niedrigste Tal, also das beste Portfolio gefunden wird. Da ich bisher keinen D-Wave Hardware Zugang habe, muss ich mit dieser Einschränkung arbeiten.- Falls ich den Zugang noch bekommen sollte, ist dies sicherlich später eine Beitragsergänzung wert.

Die Grundidee des D-Wave Algorithmus ist recht einfach: Mittels yahoo finance werden für 252 Tage vergangene Kurse einer Asset-Watchlist geladen und die Renditen und die Kovarianzen dieser Assets ermittelt. Es wird eine Hamiltonfunktion als Zielfunktion definiert und in der Energielandschaft dieser Funktion mittels Annealing nach dem niedrigsten Tal gesucht. – Die Hamiltonfunktion enthält als Nebenbedingung, dass nur K Assets aus der Watchlist auszuwählen sind. Der Annealing Teil des gesamten Alogrithmus wird entweder quantenmechanisch oder klassisch durchgeführt. In der Simulation werden die Qubits klassisch über kleine Magnete simuliert. Das niedrigste Tal innerhalb einer vorgegebenen Anzahl an Suchvorgängen (Annealing Vorgänge) liefert die unkorreliertesten und stärksten Assets innerhalb dieser Suchvorgänge. Mit Hilfe dieser K Assets verteilt ein weiterer klassischer Algorithmus ein vorgegebenes Kapital auf diese K Assets. Die Verteilung findet so statt, dass die Varianz der Assets minimiert wird. Theoretisch sollte diese Kapitalallokation auch über den quantenmechanischen Algorithmus stattfinden. Falls man die Kapitalallokation nur schon in 10% Schritten vornimmt, ist jedes bisherige Qubit, das lediglich angibt ob ein Asset ausgewählt wurde, durch 10 Qubits zu ersetzen. Die klassische Simulation hierzu scheitert an der Anzahl der Zustände, die größer ist als die geschätzte Anzahl an Atomen im Universum. Und die quantenmechanische Rechnung scheitert derzeit noch an der Anzahl an kohärenten Qubits in aktuellen Hardwaresystemen. Durch die Aufteilung in Asset-Auswahl (Quantum, in der Simulation auch klassisch) und Kapitalallokation (klassisch) schneiden wir theoretisch einen Teil des Lösungsraums ab. Wir finden eine heuristische Näherung, und nicht das globale Minimum. Aber genau dieser Kompromiss ist aktuell zwingend nötig, um reale Finanzprobleme auf heutigen Quantencomputern überhaupt berechnen zu können, ohne dass die Fragilität der Qubits (Noise) Ergebnisse verhindert.

Mit dieser Einschränkung konstruiere ich den Prognose-Algorithmus für die Wertentwicklung der ausgewählten K Assets: Bei 252 Handelstagen pro Jahr soll jeden Monat (21 Handelstage im Mittel) eine Überprüfung der K Assets vorgenommen werden und ggf. Assets ausgetauscht werden.  Natürlich fallen für den Austausch Transaktionskosten an, die die Gesamtrendite schmälern. Ich nehme 0,25 % des Anlagevolumens für die Transaktionskosten an. Vorherige Tests haben ergeben, dass eine wöchentliche Umschichtung zu teuer wird und eine Umschichtung pro Quartal weniger Rendite erwirtschaftet. Das Anlagevolumen habe ich auf 1 Million Euro gesetzt.

Auf dieser Basis starte ich mit 252 vergangenen Handelstagen als Trainingsdaten und ermittele das beste K Asset. Der Algorithmus schiebt die 252 Tage 21 Tage nach vorne und ermittelt wieder das beste K Asset, usw. – Es liegt also ein gleitendes Berechnungsfenster vor.  Der Algorithmus soll ein Jahr in die Zukunft prognostizieren (sogenanntes Out-of-Sample (OOS) für ein Jahr).
Ich verweise auf Anhang 2 für eine ergänzende Beschreibung des Algorithmus.

Ich benutze folgende Watchlist:  

„AAPL“, „AMZN“, „GOOGL“, „NVDA“, „QBTS“, „^DJI“, „^GDAXI“, „^IXIC“, „MSF.DE“, „^MDAXI“, „^TECDAX“,
„RHM.DE“, „EOS.AX“, „DRH.F“, „MBB.DE“, „RGTI“, „IONQ“, „5Q5.DE“, „ASM.F“, „LYMZ.DE“, „AHLA.DE“, „NFC.DE“, „639.DE“, „NVD.DE“, „307.F“, „UBER“, „FOO.F“, „^FTSE“, „^N225″,“^HSI“, „0PTN.IL“, „0LND.SG“, „SFT.F“, „PO0.F“, „RWE.DE“, „DTE.DE“, „2330.TW“, „IBM.F“, „HAG0.F“, „76J.F“, „22UA.F“, „R3NK.DE“,“CA1.DE“, „ABEA.DE“
 
Die Simulation liefert nach etwa einer Minute folgendes Ergebnis:
=== Lade Marktdaten (Benötigt: 504 Handelstage) ===
Zeitraum: 2024-04-01 bis 2026-03-09
Verbleibende Assets nach Filterung: 43

=======================================================
=== IN-SAMPLE DIAGNOSE beim Start MIT KAPITAL-ALLOKATION ===
=======================================================

Die D-Wave Simulation hat folgende 4 Assets am Start als optimal identifiziert (Minimum-Variance):
 - 2330.TW    | Gewicht: 15.00% | Budget: 150,000.00 €
 - ABEA.DE    | Gewicht: 17.95% | Budget: 179,481.81 €
 - RWE.DE     | Gewicht: 32.05% | Budget: 320,518.19 €
 - ^DJI       | Gewicht: 35.00% | Budget: 350,000.00 €

=======================================================
=== STARTE OUT-OF-SAMPLE BACKTEST (FORECASTING) ===
=======================================================
Trainingsfenster: 252 Tage
Rebalancing: Alle 21 Tage
Startkapital: 1,000,000.00 €
Transaktionsgebühren: 0.25% pro umschichtetes Volumen
Leitplanken: Min 15.0% / Max 35.0% pro Asset
Allokation: Minimum-Variance-Portfolio
Simuliere 12 Rebalancing-Zyklen (Monatlich)...

=== OUT-OF-SAMPLE PERFORMANCE ===
Zeitraum: 2025-03-20 bis 2026-03-09 (252 Tage)
Endkapital:            1,345,730.50 € (Gewinn: 345,730.50 €)
Rendite (annualisiert):+37.28%
Volatilität (ann.):    20.01%
Sharpe Ratio:          1.58
Max Drawdown:          -13.28%
Total Turnover:        8.66x umgeschlagen

Abbildung 1: Diese Abbildung zeigt die oben prognostizierte Out-of-Sample (OOS) Entwicklung der K Assets. Unten in der Abbildung wird monatlich die prognostizierte Rendite der realen Rendite gegenüber gestellt: Die Prognose kann natürlich keine geopolitischen Probleme (Zölle, Naher Osten) wie zum Beispiel im Juli 2025 vorhersehen. – Was sich in diesem speziellen Zeitraum sehr positiv auswirkt.

Da der Algorithmus Assets mit geringer Varianz bevorzugt, zeige ich im Folgendem, wie mit Aktien nahezu unkorrelierte Assets (wie Gold, Anleihen, Bitcoin, Immobilien) in die Prognose eingehen. Ich habe folgende unkorrelierte Assets, zusätzlich zu den obigen Assets, ausgewählt:

„GLD“, # Gold ETF (Sicherer Hafen)
„TLT“, # 20+ Year US Treasury Bonds (Krisen-Absicherung)
„BTC-USD“, # Bitcoin (Rendite-Booster)
„VNQ“ # US Real Estate ETF (Immobilien)

Auf dieser Basis ergeben sich die nachfolgenden Ergebnisse: Da Bitcoin auch an Feiertagen und nicht nur von Mo. bis Fr. gehandelt werden, ist der Zeitraum für die Markdaten nicht 100% identisch mit dem obigen Zeitraum, die Abweichung von 2 Tagen ist aber minimal. Zusätzlich enthält diese Ergebnis-Ausgabe die monatlich neu prognostizierten K Assets (siehe Bereich ‚Simuliere 12 Rebalancing-Zyklen).


=== Lade Marktdaten (Benötigt: 504 Handelstage) ===
Zeitraum: 2024-04-03 bis 2026-03-09
Verbleibende Assets nach Filterung: 47

=======================================================
=== IN-SAMPLE DIAGNOSE beim Start VIA Simulation ===
=======================================================

Die D-Wave Simulation hat folgende 4 Assets am Start als optimal identifiziert (Minimum-Variance Allokation):
 - GLD        | Gewicht: 35.00% | Budget: 350,000.00 €
 - GOOGL      | Gewicht: 15.00% | Budget: 150,000.00 €
 - MBB.DE     | Gewicht: 18.54% | Budget: 185,405.02 €
 - ^IXIC      | Gewicht: 31.46% | Budget: 314,594.98 €

=======================================================
=== STARTE OUT-OF-SAMPLE BACKTEST (FORECASTING) ===
=======================================================
Trainingsfenster: 252 Tage
Rebalancing: Alle 21 Tage
Startkapital: 1,000,000.00 €
Transaktionsgebühren: 0.25% pro umschichtetes Volumen
Leitplanken: Min 15.0% / Max 35.0% pro Asset

Simuliere 12 Rebalancing-Zyklen (Mode: 'sim')...
------------------------------------------------------------
-> Datum: 2025-03-21 | Portfolio: AHLA.DE (15.0%), DTE.DE (35.0%), RHM.DE (15.0%), ^HSI (35.0%)
-> Datum: 2025-04-21 | Portfolio: 639.DE (15.0%), RHM.DE (15.0%), TLT (35.0%), ^IXIC (35.0%)
-> Datum: 2025-05-20 | Portfolio: 2330.TW (15.3%), GLD (35.0%), RHM.DE (15.0%), ^IXIC (34.7%)
-> Datum: 2025-06-18 | Portfolio: DTE.DE (35.0%), IBM.F (15.0%), RHM.DE (15.0%), VNQ (35.0%)
-> Datum: 2025-07-17 | Portfolio: GLD (35.0%), GOOGL (15.0%), RHM.DE (15.0%), TLT (35.0%)
-> Datum: 2025-08-15 | Portfolio: GLD (35.0%), MBB.DE (35.0%), RHM.DE (15.0%), SFT.F (15.0%)
-> Datum: 2025-09-15 | Portfolio: 0PTN.IL (26.9%), EOS.AX (15.0%), GLD (35.0%), RHM.DE (23.1%)
-> Datum: 2025-10-14 | Portfolio: EOS.AX (15.0%), GLD (35.0%), RHM.DE (15.0%), ^IXIC (35.0%)
-> Datum: 2025-11-12 | Portfolio: GLD (35.0%), RHM.DE (15.0%), SFT.F (15.0%), ^IXIC (35.0%)
-> Datum: 2025-12-11 | Portfolio: DTE.DE (33.5%), GOOGL (24.3%), RHM.DE (15.0%), RWE.DE (27.2%)
-> Datum: 2026-01-09 | Portfolio: EOS.AX (15.0%), GLD (35.0%), RHM.DE (15.0%), RWE.DE (35.0%)
-> Datum: 2026-02-09 | Portfolio: GLD (25.5%), GOOGL (15.0%), RWE.DE (35.0%), ^IXIC (24.5%)
------------------------------------------------------------

=== OUT-OF-SAMPLE PERFORMANCE ===
Zeitraum: 2025-03-21 bis 2026-03-09 (252 Tage)
Endkapital:            1,168,157.89 € (Gewinn: 168,157.89 €)
Rendite (annualisiert):+19.32%
Volatilität (ann.):    20.57%
Sharpe Ratio:          0.86
Max Drawdown:          -15.86%
Total Turnover:        7.38x umgeschlagen

Abbildung 2: Diese Abbildung zeigt die oben prognostizierte Out-of-Sample (OOS) Entwicklung der 44+4 K Assets (ein Asset wurde entfernt, da nicht ausreichend Daten vorliegen). Unten in der Abbildung wird monatlich die prognostizierte Rendite der realen Rendite gegenüber gestellt.

Überraschender Weise zeigt dieses Portfolio eine leicht höhere Volatilität, es werden andere Fehler-Zeitpunkte zwischen Prognose und Realität angezeigt und die Rendite geht deutlich zurück:

Warum bricht die Gesamtrendite massiv ein? (37 % vs. 19 %)

Wir befinden uns in dem Zeitraum von April 2024 bis März 2026. In dieser Phase gab es an den Börsen massive, einseitige Bullenmärkte (insbesondere bei Tech-Werten wie Nvidia, TSMC, Google und Rüstungswerten wie Rheinmetall).

  • Ohne unkorrelierte Assets: Der Algorithmus war gezwungen, sein gesamtes Geld in den Aktienmarkt zu stecken. Er verwendete also voll die sehr gut laufenden Tech- und Rüstungs-Werte. Das brachte gigantische Gewinne.

  • Mit unkorrelierten Assets: Der Algorithmus sucht nach Minimum-Variance (minimalem Risiko). Er sieht, dass Tech-Aktien stark schwanken. Also nutzt er die neuen ’sicheren Häfen‘ wie Gold (GLD) oder langlaufende Staatsanleihen (TLT) und packt diese mit bis zu 35 % ins Portfolio.

  • Die Konsequenz: Diversifikation kostet in einem extremen Bullenmarkt immer Rendite! Parkt man 35 % des Geldes in Gold, das vielleicht ’nur‘ 10 % im Jahr an Rendite zeigt, fehlen diese 35 % bei den Tech-Aktien, die in derselben Zeit vielleicht 60 % Rendite erzielen. Der Algorithmus hat also Rendite für (vermeintliche) Sicherheit geopfert.

Warum ist die Volatilität dann trotzdem leicht höher? (20,5 % vs 20,0 %)

Korrelationen sind nicht stabil:

  • Die Theorie sagt: Anleihen (TLT) und Immobilien (VNQ) federn Aktienkrisen ab.

  • Die Realität der letzten Jahre (Zinswenden, Inflation) war aber: Wenn die Zentralbanken die Zinsen hochhielten oder überraschende Inflationsdaten kamen, sind Staatsanleihen (TLT) und Immobilien (VNQ) zusammen mit den Aktien abgestürzt.

  • Der Algorithmus hat in die Vergangenheit geschaut (seine 252 Tage) und dachte: „Ah, Anleihen sind ein toller Puffer!“ In der Realität der nächsten 21 Tage kam dann aber vielleicht ein Makro-Schock (z.B. Zinsangst), der plötzlich alle Anlageklassen gleichzeitig nach unten riss.

  • Weil das gemischte Portfolio nun Assets enthielt, die sehr empfindlich auf Zinsen reagieren (TLT, VNQ, Gold), entstanden neue, eigene Schwankungen, die das reine Aktien-Portfolio so gar nicht hatte.

Warum sind die Prognose-Fehler an völlig anderen Zeitpunkten?

Ein reines Aktien-Portfolio und ein gemischtes All-Wetter-Portfolio haben eine völlig unterschiedliche ‚DNA. Sie reagieren auf komplett andere Krisen-Auslöser:

  • Das reine Aktien-Portfolio crasht (die dunkelblauen Balken tief im Minus), wenn die Unternehmensgewinne enttäuschen, wenn die Arbeitslosigkeit steigt oder wenn ein Tech-Beben (z.B. schwache Halbleiter-Zahlen) durch den Markt geht.

  • Das gemischte Portfolio (mit Gold & Anleihen) reagiert darauf vielleicht völlig gelassen (Gold fängt es ab). Dafür crasht dieses Portfolio in Monaten, in denen z.B. die Inflation überraschend hoch ausfällt oder Notenbank-Chefs Zinserhöhungen andeuten. Anleihen und Gold ‚hassen‘ solche Nachrichten, während Tech-Aktien das vielleicht ignorieren.

  • Das bedeutet: Die ‚Schocks‘ (die Abweichungen zwischen Prognose und Realität) passieren an exakt den Zeitpunkten, an denen die spezifischen Schwachstellen des jeweiligen Portfolios von der Makroökonomie getroffen wurden. Da die Portfolios völlig unterschiedlich aufgebaut sind, sind auch die Schock-Monate völlig andere.

Schaut man sich die 12 simulierten Rebalancing Zeitpunkt an, so ergibt sich folgendes:

  • GLD (Gold) taucht oft im Portfolio auf. Von Juli 2025 bis November 2025 war Gold in jedem einzelnen Monat mit der maximalen Gewichtung von 35,0 % (dem maximal möglichen Gewicht) vertreten. Der Algorithmus hat erkannt, dass in dieser Phase klassische Aktien stark miteinander schwankten und hat Gold als stabilen Anker genutzt.
  • Schauen wir auf den 21. April 2025. Hier springt plötzlich TLT (US-Staatsanleihen) mit vollen 35,0 % ins Portfolio. Das ist der klassische „Risk-Off“-Trade der Wall Street. Der Optimizer hat in den 252 Tagen davor gesehen, dass Aktien zu riskant wurden, und hat das Kapital in den sicheren Hafen der Anleihen gerettet. Im Juli passiert das Gleiche noch einmal.
  • RHM.DE (Rheinmetall) ist extrem interessant. Es taucht in 11 von 12 Zyklen auf, wird aber in 10 Fällen starr auf exakt 15,0 % (das absolute Minimum) gedrückt. Warum? Rheinmetall hatte in diesem Zeitraum eine extrem gute Rendite, war dem Minimum-Variance-Optimizer aber viel zu volatil (zu hohes Risiko). Die Leitplanken haben den Algorithmus gezwungen, es zu behalten, haben es aber sicherheitshalber auf dem Minimum gehalten.
  • BTC-USD taucht in den 12 Monaten kein einziges Mal auf! Warum? Weil der Algorithmus auf Minimum-Variance (minimales Risiko) optimiert. Bitcoin ist historisch so extrem volatil, dass die Kovarianzmatrix sofort Alarm schlägt. Ein reiner Risiko-Minimierer fasst Krypto fast nie an, es sei denn, man zwingt ihn dazu oder wechselt die Optimierungs-Strategie (z.B. auf die maximale Sharpe-Ratio).

Zusammenfassend: Der D-Wave Algorithmus hats sich als tragfähig erwiesen und kann sehr gut als Werkzeug für die Ausgestaltung der (persönlichen) Anlagestrategie benutzt werden. Der Übergang von der D-Wave Simulation auf die Quanten Hardware ist problemlos möglich, da nur eine andere Annealing Funktion aufgerufen wird. Vielleicht klappt es ja noch mit einem D-Wave Hardware Quantum Annealing.

Anhang 1

Vergleich des Laufzeitverhaltens der QC Systeme

Die nachfolgenden zwei Gleichungen beschreiben in aggregierter Form das Laufzeitverhalten der  (Hardware) Systeme QAOA, VQE, D-Wave QA-Hybrid und D-Wave QPU. Weiter unten findet sich jeweils eine genauere Formel pro System/Hardware:

     \begin{equation*} T \approx t_{\mathrm{setup}} + t_{\mathrm{loop}} + t_{\mathrm{post}} \end{equation*} \begin{equation*} t_{\mathrm{loop}} \approx N_{\mathrm{iter}}*N_{\mathrm{eval/iter}}* \Big( N_{\mathrm{units}}*t_{\mathrm{unit}} + t_{\mathrm{queue}} + t_{\mathrm{io}} \Big) \end{equation*}

BeitragQAOAVQED-Wave QPUD-Wave Hybrid
Optimizer-Iterationen (N_iter)10–100010–1000
Auswertungen/Iteration (N_eval/iter)1 bis viele1 bis viele
Shots10²–10⁵10³–10⁶
Messgruppenklein–mitteloft groß
Reads10²–10⁵intern
Unit-ZeitShot-Zeit (tiefeabh.)Shot-Zeit + BasisrotationenAnneal+Readout+Resettime_limit
Queuekann dominierenkann dominierenkann dominierenkann dominieren
Compile/Transpileklein–mittelklein–mittel
Embeddingoft relevantintern
I/Oklein–mittelklein–mittelklein–mittelklein–mittel
Postprocessingklein–mittelklein–mittelklein–mittelklein–mittel

Die Tabelle ist als ‚Zeitbudget-Landkarte‘ zu lesen: Sie zerlegt die Gesamtlaufzeit einer Optimierung in typische Bausteine und zeigt, welche Bausteine bei QAOA, VQE und D-Wave (QPU/Hybrid) überhaupt vorkommen und welche Größenordnung sie typischerweise haben.

Die verwendeten Begriffe und was sie bedeuten:
Optimizer-Iterationen
Anzahl der Schritte, die ein klassischer Optimierer (z.B. COBYLA, Powell, SPSA, Adam) macht, um Parameter zu verbessern.

  • Kommt bei QAOA und VQE vor (weil beide variational sind).
  • Bei Annealing (QPU/Hybrid) gibt es meist keinen äußeren klassischen Iterationsloop in der Standardnutzung → „–“.

Auswertungen/Iteration
Wie oft pro Iteration die Zielfunktion (z.B. Energie/Cost) neu ausgewertet werden muss.

  • Bei gradientenfreien Optimierern oft ≈ 1, bei Line-Search/Gradienten/Parameter-Shift oft größer als 1.
  • Bei VQE kann eine ‚Auswertung‘ zusätzlich viele Messungen enthalten (Messgruppen).

Shots
Anzahl der Messwiederholungen eines Quantum-Circuits bei Gate-basierten Methoden (QAOA/VQE).
Mehr Shots → geringeres statistisches Rauschen der gemessenen Erwartungswerte, aber längere Laufzeit.

Messgruppen
VQE (und manchmal auch QAOA, wenn man viele Terme misst) misst die Energie oft als Summe vieler Operatoren. Um nicht jeden Term einzeln zu messen, fasst man kommutierende Terme zusammen, die in derselben Messbasis ausgelesen werden können.

  • klein–mittel: wenige Gruppen (z.B. einfache Cost-Funktionen).
  • oft groß bei VQE: viele Hamiltonian-Terme → viele Gruppen, selbst nach Gruppierung.

Reads
Anzahl der Samples (Anneals), die ein Annealer liefert.

  • Entspricht dem „Sampling-Äquivalent“ zu Shots, aber für D-Wave.
  • Bei Hybrid steht „intern“, weil du meist nur ein time_limit gibst; wie viele Samples intern erzeugt werden, ist solverabhängig.

Unit-Zeit
Zeit pro elementarer Wiederholung‘:

  • QAOA/VQE: Zeit pro Shot (Circuit ausführen + messen). Bei VQE oft plus zusätzliche Basis-Rotationen vor der Messung.
  • D-Wave QPU: Zeit pro Read ≈ Anneal + Readout + Reset.
  • D-Wave Hybrid: Zeit wird primär über time_limit gesteuert, nicht über ein explizites „pro Read“-Budget.

Queue
Wartezeit, bis dein Job auf der Hardware (oder im Cloud-Dienst) tatsächlich läuft.
Kann bei allen Hardware-nahen Varianten (QAOA/VQE auf QPU, D-Wave QPU, D-Wave Hybrid)
dominant sein, je nach Auslastung.

Compile/Transpile
Nur Gate-basiert:

  • Compile/Transpile bedeutet: Circuit wird an die echte Hardware angepasst (Gate-Set, Kopplungstopologie, Optimierungs-Pässe). Das ist oft „klein–mittel“, kann aber bei großen Circuits oder häufigem Re-Compile relevant werden.

Embedding
Nur D-Wave QPU (und teilweise intern bei Hybrid):

  • Embedding ist das Mapping deines logischen Problems (BQM-Graph) auf die physische D-Wave-Hardware-Topologie (Pegasus).
  • Kann „oft relevant“ sein, weil es bei dichten Problemen schwer ist und Zeit kostet; außerdem beeinflusst es die Qualität (Chains).

I/O
Upload/Download/Parsing:

  • Netzwerk-Overhead, Serialisierung, Job-Handling, Ergebnis-Abholung.
    Meist „klein–mittel“, aber bei vielen Jobs/Iteration kann es sich summieren.

Postprocessing
Alles, was nach dem Roh-Ergebnis passiert:

  • Bei Gate-basiert: Mittelwertbildung, Gruppensummen, evtl. Error-Mitigation.
  • Bei D-Wave QPU: Unembedding, Chain-break-Auflösung, Feasibility-Checks, Ranking/Filterung.
    Meist „klein–mittel“, kann aber bei großen Samplesets oder strengen Constraints wachsen.

Zussammenfassung

  • QAOA und VQE: Laufzeit wird häufig durch
    (Optimizer-Iterationen) × (Auswertungen/Iteration) × (Shots) × (Shot-Zeit)
    plus Queue/Transpile/I/O bestimmt.
  • VQE ist oft teurer als QAOA, weil zusätzlich Messgruppen stark wachsen können.
  • D-Wave QPU: Laufzeit wird häufig durch
    Embedding + Queue + Reads × (Anneal+Readout+Reset)
    geprägt.
  • D-Wave Hybrid: Das dominierende Stellrad ist meist time_limit (plus Queue/I/O). Dadurch ist Hybrid „budget-getrieben“ statt „shots-getrieben“.

Im Folgenden die Formeln für die Laufzeit pro QC-Hardware 

Die folgenden Laufzeitmodelle berücksichtigen den gesamten Workflow der Algorithmen („End-to-End“), inklusive Kompilierung, Wartezeiten und klassischem Overhead. Dies entspricht der realen Erfahrung bei der Nutzung von Cloud-Quantencomputern.

1. QAOA (Quantum Approximate Optimization Algorithm)
QAOA ist ein iterativer Algorithmus. Ein klassischer Optimierer bestimmt Parameter, der Quantencomputer evaluiert die Kostenfunktion.

Die Formel:

 \begin{equation<em>} T_{\mathrm{QAOA}} \approx t_{\mathrm{compile}} + N_{\mathrm{iter}} \cdot N_{\mathrm{eval/iter}} \cdot \Big( N_{\mathrm{shots}} \cdot t_{\mathrm{shot}} + t_{\mathrm{queue}} \end{equation</em>} \begin{equation<em>} + t_{\mathrm{readout}} + t_{\mathrm{io}} \Big) + t_{\mathrm{overhead}} \end{equation</em>}

Beschreibung:
Die Gesamtlaufzeit wird dominiert durch die Schleife des Optimierers. Für jeden Iterationsschritt muss der Quantenschaltkreis oft mehrfach ausgeführt werden (z.B. zur Gradientenbestimmung). Bei Cloud-Systemen fällt oft pro Ausführung erneut eine Wartezeit (Queue) an.

Glossar:

  •  t_{\mathrm{compile}} : Zeit für die Transpilierung des Schaltkreises vor dem ersten Lauf.
  •  N_{\mathrm{iter}} : Anzahl der Schritte des klassischen Optimierers bis zur Konvergenz.
  •  N_{\mathrm{eval/iter}} : Anzahl der Funktionsaufrufe pro Optimierungsschritt.
  •  N_{\mathrm{shots}} : Anzahl der Messwiederholungen pro Schaltkreis (shots).
  •  t_{\mathrm{queue}} : Wartezeit in der Cloud-Warteschlange.

2. VQE (Variational Quantum Eigensolver)
VQE wird oft in der Quantenchemie eingesetzt. Die Herausforderung ist hier das Messen vieler verschiedener Terme (Pauli-Strings).

Die Formel:

 \begin{equation<em>} T_{\mathrm{VQE}} \approx t_{\mathrm{compile}} + N_{\mathrm{iter}} \cdot \sum_{k=1}^{N_{\mathrm{groups}}} \Big( N_{\mathrm{shots},k} \cdot t_{\mathrm{shot},k} + t_{\mathrm{queue},k} \end{equation</em>} \begin{equation<em>} + t_{\mathrm{readout},k} + t_{\mathrm{io},k} \Big) + t_{\mathrm{classical}} \end{equation</em>}

Beschreibung:
Da nicht alle Observablen gleichzeitig gemessen werden können, werden sie in kompatible Gruppen k unterteilt. Die Laufzeit summiert sich über diese Gruppen auf. Eine effiziente Gruppierung  N_{\mathrm{groups}} ist entscheidend für die Performance.

Glossar:

  •  N_{\mathrm{groups}} : Anzahl der Messgruppen (Measurement Groups).
  •  t_{\mathrm{io},k} : Latenzzeit für das Senden (Input/Output) der Daten der jeweiligen Gruppe.
  •  t_{\mathrm{classical}} : Zeit für die klassische Berechnung der Parameter Updates.

3. D-Wave QPU (Pure Quantum Annealing)
Beim direkten Zugriff auf den Quantum Annealer (z.B. Advantage System) spielen Embedding und physikalische Annealing-Zyklen die Hauptrolle.

Die Formel:

 \begin{equation<em>} T_{\mathrm{QA-QPU}} \approx t_{\mathrm{embed}} + t_{\mathrm{program}} + N_{\mathrm{reads}} \cdot \Big( t_{\mathrm{anneal}} + t_{\mathrm{readout}} \end{equation</em>} \begin{equation<em>} + t_{\mathrm{reset}} \Big) + t_{\mathrm{unembed}} + t_{\mathrm{queue}} + t_{\mathrm{io}} + t_{\mathrm{post}} \end{equation</em>}

Beschreibung:
Im Gegensatz zu Gate-Modellen läuft dies sehr deterministisch ab. Vor der Rechnung muss das logische Problem auf die Hardware-Qubits abgebildet werden (Embedding). Danach folgen schnelle, physikalische Annealing-Zyklen.

Glossar:

  •  t_{\mathrm{embed}} : Zeit für das „Minor Embedding“ (Mapping auf Hardware-Topologie).
  •  t_{\mathrm{program}} : Zeit zum Initialisieren der QPU.
  •  t_{\mathrm{anneal}} : Die reine Quanten-Rechenzeit (Standard ~20 µs).
  •  t_{\mathrm{reset}} : Thermalisierungszeit („Abkühlung“) des Chips.
  •  t_{\mathrm{unembed}} : Rückübersetzung der physikalischen Qubits in logische Lösungen.

4. Hybrid D-Wave (Leap Hybrid Solvers)
Hier übernimmt ein Cloud-Service die Arbeit, zerlegt große Probleme und nutzt QPU sowie CPU im Verbund.

Die Formel:

 \begin{equation<em>} T_{\mathrm{QA-hybrid}} \approx t_{\mathrm{queue}} + t_{\mathrm{time-limit}} + t_{\mathrm{io}} + t_{\mathrm{post}} \end{equation</em>}

Beschreibung:
Für den Nutzer ist dies oft eine „Black Box“. Man definiert ein Zeitlimit, und der Solver versucht innerhalb dieser Zeit die beste Lösung zu finden.

Glossar:

  •  t_{\mathrm{time-limit}} : Das vom Nutzer oder System gesetzte Zeitlimit.
  •  t_{\mathrm{post}} : Nachbearbeitungszeit durch den klassischen Solver-Teil.
  •  t_{\mathrm{queue}} : Wartezeit bis der komplexe Hybrid-Job startet.

Anhang 2

Der D-Wave QAPO Algorithmus

1. Finanz Daten Aufbereitung

Bevor der Algorithmus optimieren kann, müssen die rohen Aktienkurse in vergleichbare Metriken umgewandelt werden. Das Modell berechnet zunächst die logarithmischen Tagesrenditen und skaliert diese anschließend auf ein handelsübliches Jahr (252 Tage).

 \begin{equation<em>} r_{i,t} = \ln\left(\frac{P_{i,t}}{P_{i,t-1}}\right) \end{equation</em>}

Erklärung: r_{i,t} ist die logarithmische Rendite des Assets i zum Zeitpunkt t, berechnet aus dem Verhältnis des heutigen Kurses P_{i,t} zum gestrigen Kurs P_{i,t-1}. Log-Renditen sind symmetrisch und eignen sich mathematisch besser für die Schätzung von Varianzen als einfache prozentuale Renditen.

 \begin{equation<em>} \mu_i = \mathbb{E}[r_i] \cdot 252 \quad \text{und} \quad \Sigma_{ij} = \mathrm{Cov}(r_i, r_j) \cdot 252 \end{equation</em>}

Erklärung: \mu_i ist die erwartete, annualisierte Rendite des Assets i. Die Matrix \Sigma_{ij} ist die Kovarianzmatrix. Sie beschreibt nicht nur das Risiko (die Varianz) einer einzelnen Anlage, sondern misst auch, wie stark sich zwei verschiedene Assets i und j gemeinsam bewegen. Dies ist der mathematische Kern der Diversifikation.

2. Die Quanten-Zielfunktion: Feature Selection

In diesem Schritt entscheidet der Quantencomputer (D-Wave), welche K Assets aus dem gesamten Universum von N Assets (z.B. N=47) in das Portfolio aufgenommen werden. Die Entscheidungsvariable ist binär: x_i \in {0, 1}.

 \begin{equation<em>} H_{\mathrm{obj}} = \sum_{i=1}^{N} \sum_{j=1}^{N} \Sigma_{ij} x_i x_j - \lambda \sum_{i=1}^{N} \mu_i x_i \end{equation</em>}

Erklärung: Dies ist die physikalische Energiefunktion H_{\mathrm{obj}} für das klassische Markowitz-Problem. Der erste Term berechnet das Gesamtrisiko des Portfolios, der zweite Term die erwartete Rendite. Der Parameter \lambda bestimmt, wie stark die Rendite gegenüber dem Risiko gewichtet wird. Da der Quantencomputer das System auf die niedrigste Energie minimiert, erhält der Rendite-Term ein negatives Vorzeichen.

3. Die Nebenbedingung: Exakt K Assets wählen

Ein QUBO (Quadratic Unconstrained Binary Optimization) versteht von Haus aus keine Nebenbedingungen. Daher muss die Regel „Wähle genau K=4 Assets“ als mathematische Straf-Energie (Penalty) formuliert werden.

 \begin{equation<em>} H_{\mathrm{penalty}} = A \cdot \left( \sum_{i=1}^{N} x_i - K \right)^2 \end{equation</em>}

Erklärung: Die Summe über alle x_i zählt, wie viele Assets vom Solver aktuell ausgewählt wurden. Stimmt diese Anzahl exakt mit K überein, wird die Klammer zu Null und es gibt keine Strafe. Weicht die Anzahl ab, wird die Differenz quadriert und mit einem massiven Straf-Faktor A multipliziert. Der Quantencomputer wird diese energetisch extrem ungünstigen Zustände zwingend vermeiden. Das finale Problem, das an die Hardware geschickt wird, ist die Summe beider Gleichungen (H_{\mathrm{QUBO}} = H_{\mathrm{obj}} + H_{\mathrm{penalty}}).

4. Die klassische Allokation: Das Minimum-Variance Portfolio

Sobald D-Wave die unkorreliertesten und stärksten Assets selektiert hat, übernimmt ein klassischer Solver (wie SciPy) die Kapitalallokation. Da historische Renditen extrem schwer vorherzusagen sind, fokussiert sich der Solver auf die Minimierung des Risikos (Minimum-Variance-Ansatz).

 \begin{equation<em>} \min_{\mathbf{w}} \quad \mathbf{w}^T \Sigma_{\mathrm{sub}} \mathbf{w} \end{equation</em>}

Erklärung: Gesucht wird der Gewichtsvektor \mathbf{w} (z.B. 15% in Gold, 35% in Telekom), der die Gesamtvarianz dieses Sub-Portfolios minimiert. \Sigma_{\mathrm{sub}} ist die gefilterte Kovarianzmatrix, die nur noch unsere ausgewählten Gewinner-Assets enthält.

 \begin{equation<em>} \mathrm{u.d.N.:} \quad \sum_{k=1}^{K} w_k = 1 \quad \text{und} \quad w_{\mathrm{min}} \le w_k \le w_{\mathrm{max}} \end{equation</em>}

Erklärung: Unter den Nebenbedingungen (u.d.N.) müssen alle Gewichte in Summe 1 (also 100%) ergeben. Zusätzlich darf kein Asset ein Gewicht unter w_{\mathrm{min}} (z.B. 15%) oder über w_{\mathrm{max}} (z.B. 35%) erhalten. Diese Leitplanken verhindern, dass der Algorithmus das gesamte Budget in nur ein einziges Asset umschichtet (Vermeidung des Error-Maximization-Problems).

5. Out-of-Sample Forecasting: Realität & Transaktionskosten

Im Backtest wird das Trainingsfenster (z.B. alle 21 Tage) weitergerollt. Wenn sich das Portfolio ändert, fallen reale Umschichtungskosten an, die exakt berechnet werden müssen.

 \begin{equation<em>} \mathrm{Turnover}_t = \frac{1}{2} \sum_{k=1}^{K} \left| w_{k,t} - w_{k,t-1} \right| \end{equation<em>}

Erklärung: Der Turnover misst das umgeschlagene Kapital. Die Formel summiert die absoluten Differenzen zwischen dem neuen Ziel-Gewicht w_{k,t} und dem alten Gewicht w_{k,t-1}. Die Division durch 2 korrigiert den Umstand, dass jeder Verkauf automatisch einen Kauf finanziert (das Volumen würde sonst doppelt gezählt).

 \begin{equation<em>} R_{\mathrm{net}, t} = \left( \frac{V_{t+\Delta t}}{V_t} - 1 \right) - (\mathrm{Turnover}_t \cdot c) \end{equation</em>}

Erklärung: Die echte Netto-Periodenrendite R_{\mathrm{net}, t} errechnet sich aus dem Portfoliowert am Ende des Intervalls V_{t+\Delta t} geteilt durch den Startwert V_t. Davon werden die Transaktionskosten subtrahiert, welche sich aus dem Turnover multipliziert mit der prozentualen Gebühr c (Slippage & Ordergebühren, z.B. 0.25%) ergeben.

Vom ‚Tor zum Sein‘ oder von der Quantum Collective Mind Theory

Die UN-Generalversammlung hat das Jahr 2025 zum „Internationalen Jahr der Quantenwissenschaft und Quantentechnologien“ ausgerufen [1].

Das ist umso bemerkenswerter, wenn man bedenkt, dass Quantenwissenschaft und -technologie weit weg sind von unseren alltäglichen Erfahrungen und für die weit überwiegende Anzahl an Mensch wird dies auch (wahrscheinlich) so bleiben. Selbst für Physiker ist die Quantenphysik in weiten Teilen nicht wirklich verständlich, wenngleich die dazugehörige Mathematik die Quanten-Natur mit sehr hoher Präzision beschreibt.

Quantenwissenschaft und -technologie sind das ‚Tor zum Sein‘, denn unser Sein ist ein Quanten-Sein. Unter diesem Blickwinkel kann man verstehen, dass die UN-Generalversammlung gut daran getan hat ‚Quantum2025‘ auszurufen: Ich bin davon überzeugt, dass die kommenden Jahre, in denen Quantum Computing und Quantum Technology immer mehr zur Anwendung kommen, unser Verständnis vom Sein verändern werden. Die Welt steht an einer ähnlichen Schwelle, wie zum Zeitpunkt der Erfindung des Transistors. – Was das Verständnis des Seins anbetrifft, werden die Folge noch wesentlich transformativer sein: Wissenschaftliche und technologische Fortschritte in Allgemeiner Künstlicher Intelligenz und Quantentechnologien werden sich gegenseitig ergänzen. Diese neue Welt dürfte den meisten Menschen verschlossen bleiben, gleichwohl werden sie die Auswirkungen spüren.     

Schon heute erfahren viele Menschen einen Kontrollverlust durch Globalisierung, Klimawandel, Migration, Corona, Künstliche Intelligenz, Anschläge und Terrorismus sowie Kriege. Als ‚Exit-Strategie‘, um aus diesem Mangel an Kontrolle und Klarheit herauszukommen, wird die Vereinfachung gewählt und von der Politik oft auch angeboten. Das Zukunftsinstitut nennt dies ‚Reverse Politics‘ [2]: Zurück zur Vergangenheit in Form von ‚Leave (Brexit)‘, ‚Make America Great Again‘, ‚Zeit für Deutschland‘, usw..

Die Quantenwelt ist genau das Gegenteil von Vereinfachung, sie ist die Welt der Unklarheit: Das Sein ist oft noch nicht festgelegt. – Quantum Computing nutzt genau dieses Nicht-Festgelegte und ‚rechnet‘ sogar damit! Es ist also nicht zu erwarten, dass unsere klassische Welt, in die die Quanten-Welt immer mehr durch Technologie ‚eindringt‘, an Klarheit gewinnt. Selbst wenn Themen wie Migration, Epidemien, Terrorismus und Krieg verschwinden sollten, so wachsen mit Allgemeiner Künstlicher Intelligenz und Quantentechnologien weitere Risikopotentiale für einen globalen Kontrollverlust heran.

Zur Zeit ist es möglich, von Künstlicher Intelligenz und Quantum Computing durch ein weitgehend offenes Ecosystem zu profitieren: Die Technologien sind (noch) offen verfügbar und Europa kann entsprechende US-Technologien einkaufen, wie unlängst das Forschungszentrum Jülich, das einen Quanten Computer von d-wave erstanden hat. Wenn ich bisher auf Quanten Computern ‚gerechnet‘ habe, so waren dies meist auch d-wave Systeme. Individuell kann man also (noch) entsprechenden Risikopotentialen durch Kontrollverlust entgegenwirken.

Meine Blog-Beiträge zu Künstlicher Intelligenz und Quantum Computing verbinden sehr oft Management Fragestellungen mit diesen beiden Technologien. Die Beiträge sind damit oft spekulativ, enthalten aus meiner Sicht jedoch gerade deswegen ein extremes Lernpotential. – Für mich auf jeden Fall – auch der interessierte Leser profitiert sicherlich von dieser ungewöhnlichen Kombination: Meines Erachtens wächst die Klarheit in der Management-Fragestellung und den verwendeten Technologien!

In den letzten Artikeln habe ich mich recht intensiv mit der Integrated Information Theory (kurz IIT) beschäftigt. Dies ist eine rein klassische Theorie. In diesem Beitrag stelle ich weitere Aspekte der schon in den letzten Beiträgen behandelten Quantum Collective Mind Theory (QCMT) vor, die in diesem Beitrag Elemente einer Quantum IIT enthält. Eine Quantum IIT gibt es in der Wissenschaft derzeit nicht.

Ich benutze wieder KI-Systeme als Assistenzsysteme einer hybriden Collective Intelligence. – Dies erfordert von den KI-Assistenzsystemen eine erstaunliche Leistung: Ausgezeichnete Kenntnisse in IIT und in der Quantenphysik und die Fähigkeit zwischen beiden doch sehr unterschiedlichen Wissensgebieten Zusammenhänge und Synergien zu erkennen. – U.a. sind klassische Konzepte der IIT, soweit sinnvoll, in quantenmechanische Konzepte umzusetzen.

Die Theorie und die dazugehörigen Python Programme für diesen Beitrag habe ich in der ersten Version mit ChatGPT o3-mini-high entwickelt. Dies ist eine schnelle ChatGPT Variante für wissenschaftliche Aufgabenstellungen und Softwareentwicklung. Anschließend habe ich o1 zum Überprüfen des mit o3-mini-high erstellten Codes verwendet und auch mit o1 fortgefahren. O1 hat hierbei zwei recht gravierende Fehler in den physikalischen Grundlagen gefunden. Ich wollte jetzt auch wissen, ob andere KI-Systeme diese Fehler finden und in der Lage sind, mir den Programmcode zu erläutern und ggf. eine korrigierte Version auszugeben. Hierzu habe ich Mistral in der Standardversion verwendet, DeepSeek R1, Gemini Pro und Grok3.  

KI-SystemProgrammanalyse-Ergebnis, im Zeitraum 01.02.-21.02.2025
ChatGPT-o3-mini-highErstellte den ursprünglichen Code mit zwei Fehlern in der Quanten Theorie
ChatGPT-o1Findet diese Fehler
Mistral, StandardFindet keine Fehler und kann den Code auch nur sehr oberflächlich erklären
Google Gemini ProFindet keine Fehler, erklärt den Code ansonsten sehr gut
DeepSeek R1Findet die Fehler und erklärt den Code gut. Nachdem ich das System aufgefordert habe, den Code zu korrigieren, wurde der Code sehr stark verändert, so stark, dass ich damit nicht mehr weiter arbeiten wollte.
Grok3Findet keine Fehler, die Programmanalyse war befriedigend, die richtige physikalische Grundlage ‚Observational Entropy‘ [3] wurde zuerst als falsch klassifiziert. Erst ein Hinweis von mir, führt zu einer Korrektur.
Tabelle 1: Übersicht zum Leistungsvergleich verschiedener KI-Systeme

Diese kleine Analyse zeigt mir, dass lediglich ChatGPT, insbesondere in der Version o1, in der Lage ist, die sehr anspruchsvollen Aufgaben mit einem vertretbaren Risiko zu bewältigen. Alle anderen getesteten KI-System sind meines Erachtens hierfür ungeeignet. – Dass ich diese Aussage tätigen kann, bestärkt mich im Umgang mit den neuen Technologien: Ohne aktive Auseinandersetzung mit den Technologien, die über das weitgehend sinnlose Standardisieren des Promptings hinausgeht, verflüchtigt sich eine Stärkung des Bedürfnisses nach Kontrolle sehr schnell.

Bevor ich zur QCMT komme, stelle ich zuerst das Ergebnis einer Teamberechnung auf einem d-wave Quantencomputer vor. Dieses Modell gehört zu dem Modell-Archetypen 6 ‚Ising-Modell der Team-Interaktion‘ (siehe meinen Blog: AI & QC & M 4.0: Alles Quantum? oder von Quantum Computing Modell-Archetypen, Dezember 2024): Das klassische Team-Modell wird als Netzwerk von sieben Teammitgliedern verstanden, die über eine Ziel-Hierarchie (1 Goal, 3 Epics, jeweils 3 Features, also 13 Elemente insgesamt) miteinander kommunizieren. Die Elemente der Ziel-Hierarchie sind ebenfalls Netzwerkknoten des gesamten Netzwerkes. Jedes Teammitglied wird über seine fünf Big-Five Persönlichkeitsmerkmale modelliert. Die Netzwerkknoten sind über Netzwerkkanten mit unterschiedlicher Kopplungsstärke verbunden. Zum Beispiel wird die Kopplungsstärke zwischen den Big-Five Persönlichkeit Offenheit und Gewissenhaftigkeit als negativ angenommen: -0,5 auf einer Skala von 0 bis +/-1. In diesem Modell wird auch zum Beispiel die Kopplung zwischen Goal und Offenheit mit +0,8 angenommen und zwischen Feature und Offenheit nur mit 0,0. Dies sind Werte, die in etwa die Erfahrung in realen Teaminteraktionen widerspiegeln. Zwischen den Hierarchie-Ebenen und innerhalb der Ebenen gibt es natürlich auch kleine Kopplungen.

Dieses klassische Netzwerk wird auf ein Qubit-Netzwerk von 7*5 + 13 = 48 Qubits abgebildet.

Zu Anfang unterliegt die Ziel-Hierarchie mit 2 hoch 13 Zuständen, da 13 Qubits, einer Gleichverteilung: Die sogenannte Shannon-Entropie ist also sehr hoch. Wir benutzen die Entropie als Kennzeichen für die Güte der Collective Mind Ausprägung: Niedrige Entropie heißt, das System zeigt wenige (markante) Zustände, das System hat sich ‚kristallisiert‘. Hohe Entropie heißt, das System zeigt viel Zustände, die Unsicherheit über den Zustand des Systems ist hoch.   

Abbildung 1 verdeutlicht der Einfachheit wegen ein Qubit-Netzwerk aus nur 17 Qubits und Tabelle 2 zeigt die wichtigsten Ergebnisse der 48 Qubit ‚Rechnung‘ auf dem d-wave Quanten Computer.

Abbildung 1: Diese Abbildung zeigt Qubits als Modell für Teammitglieder in einem Team mit zwei Personen, modelliert mit jeweils fünf Big-Five Persönlichkeitsmerkmalen. Das Bild enthält eine einfache Ziel-Hierarchie aus 7 Qubits. Alle Qubits sind Netzwerkknoten in einem Netzwerk. Die Netzwerkkanten, die die Wechselwirkung zwischen den Knoten bestimmen, sind der Übersicht wegen nicht eingezeichnet.

Tabelle 2 zeigt die wichtigsten Ergebnisse der d-wave Quanten Computing ‚Rechnung‘.

 Am Anfang der ‚Rechnung‘Am Ende der
‚Rechnung’
7 Teammitglieder, beschrieben durch ihre Big-Five Persönlichkeitspräferenzen (A C E N O) A C E N O
 1 0 1 1 1
 1 1 0 0 0
 1 1 0 1 0
 1 0 0 0 0
 1 1 1 0 1
 1 1 0 0 0
 1 0 1 0 1
A C E N O
1 0 1 0 1
1 1 1 0 0
1 1 0 0 1
1 0 1 1 1
1 0 1 0 1
1 1 0 1 1
1 0 1 0 1
Energie des Gesamtsystems– 3– 43
Shannon-Entropie des Teams2,52 bit2,13 bit
Shannon-Entropie der Ziel-HierarchieGoal: 1 bit
Epics: 3 bit
Features: 9 Bit
Goal: 0,98 bit
Epics: 1,76 bit
Features: 0,98 bit
Tabelle 2: Ergebnisse des Annealing-Prozesses auf einem d-wave Quanten Computer: 7 Teammitglieder mit Big-Five Persönlichkeiten (A=Agreeableness, C =Conscientiousness, E=Extraversion, N=Neuroticism, O=Openness) und einer Ziel-Hierarchie mit 3 Ebenen ( 1 Goal, 3 Epics, 9 Features). Die Entropie wird über die Shannon-Entropie berechnet.

Ich interpretier das Ergebnis aus Sicht der Collective Mind Theorie: Hohe negative Energie bedeutet, dass sich ein relativ starkes Collective Mind (CM) am Ende ausgebildet hat. – Das System ist ‚kristallisiert‘ und hat bevorzugte Zustände. U.a. sieht man dies daran, dass sogar die Heterogenität im Team abgenommen hat, also weniger Entropie vorliegt und die Ziel-Hierarchie eine deutliche Stabilisierung erfahren hat. In einem realen CM-Team kann man dies auch beobachten: Die Persönlichkeitspräferenzen werden zumindest für den Zeitraum des Collective Mind etwas zurückgedrängt. Die Teammitglieder ‚pochen‘ nicht so stark wie am Anfang auf ihre Präferenzen. Gleichzeitig wird aus der Menge aller möglichen Ziel-Hierarchien im Idealfall eine ausgewählt. Im Team und in der Ziel-Hierarchie sinkt die Menge an möglichen Zuständen und damit auch die Entropie und die Unsicherheit.

Die Shannon-Entropie bzw. verwandte Entropie Maße sind in der QCMT bzw. QIIT von zentraler Bedeutung. Die Formel, die in Tabelle 1 verwendet wird, lautet:

S = -\sum_i p(i) \log_2 \bigl(p(i)\bigr)

p(i) ist die Wahrscheinlichkeit ein (klassisches) System in einem Makrozustand i zu finden. Die Makrozustände i sind die Persönlichkeitspräferenzen im Team. Zum Beispiel könnte ein Makrozustand lauten 11 01 10: Teammitglied A hat eine hohe Präferenz in Offenheit und Gewissenhaftigkeit, Teammitglied B hat eine niedrige in Offenheit und eine hohe in Gewissenhaftigkeit und Teammitglied C eine hohe in Offenheit und eine niedrige in Gewissenhaftigkeit. – Auf die Erläuterung der p(i) Berechnung verzichte ich hier, da dies tiefergehende (quantenmechanische) Kenntnisse erfordert: p(i) misst die Häufigkeit gemessener Zustände relativ zur gesamten Anzahl an gemessenen Zuständen.
(Eine Anmerkung zur Darstellung der obigen Formel: Diese Formel wird mit LaTex erstellt. LaTex ist seit 41 (bzw. Tex seit 47) Jahren verfügbar. Heute ist Tex/LaTex der Standard für mathematisch-wissenschaftliche Dokumente. Ich habe vor ca. 40 Jahren das erste Mal damit gearbeitet und war von der Schönheit der dargestellten Formeln fasziniert. Heute verfüge ich nicht mehr über das Know-How, LaTex Code selbst zu erstellen. Dies ist auch nicht nötig, denn ChatGPT gibt den Code in einer für diesen Blog – erstellt mit WordPress – verwendbaren Form aus.)

Ich wende mich der Quantum Collective Mind Theory zu. Ich baue eine einfache quantenmechanische Version der IIT in diese ein. In der nachfolgenden Tabelle habe ich die wichtigsten Kriterien klassischer und quantenmechanischer IIT zusammengestellt. – Schaut man sich die Spalte zur quantenmechanischen IIT an, so drängt sich dem ein oder anderen sicherlich der Vergleich zur menschlichen Kommunikation auf: Wir haben in den vorherigen Blog-Beiträgen ja schon gesehen, dass die Quantum Cognition erstaunlicher Weise hilft, unsere Kommunikation besser zu verstehen.

KriteriumKlassische IITQuantenmechanische IIT
Lokale vs. nichtlokale ZusammenhängeKausalität manifestiert sich lokal, Informationen breiten sich (max.) mit Lichtgeschwindigkeit aus.

Ursache-Wirkungs-Beziehungen lassen sich in einem (weitgehend) lokalisierten Netz rekonstruieren.
Verschränkung erlaubt nichtlokale Korrelationen, ohne dass ein klassisches „A verursacht B“ greift.   Die Trennung in lokal begrenzte Elemente wird schwieriger, da verschränkte Zustände räumlich verteilt sein können.
Eindeutigkeit vs. Überlagerung von ZuständenDas System hat einen eindeutig definierbaren Zustand zu jedem Zeitpunkt (z. B. ein bestimmtes Muster von Aktivierungen).

Ursache und Wirkung sind in einem klassischen Zustand relativ klar voneinander trennbar.
Zustände können Superpositionen (Überlagerungen) sein; die „kausale Macht“ kann auf mehrere Zustände verteilt sein.
Der Kollaps (z. B. durch Messung) bestimmt erst, welcher konkrete Effekt realisiert wird, was die Zuordnung von Ursache und Wirkung komplizierter macht.
WahrscheinlichkeitsbegriffWahrscheinlichkeiten ergeben sich aus klassischer Statistik (Häufigkeit, Ungewissheit).

Übergangswahrscheinlichkeiten werden verwendet, um zukünftige Zustände zu modellieren. Dies spiegelt epistemische Unsicherheiten in den Kausalketten der deterministischen Prozesse wieder.
Wahrscheinlichkeiten sind Betragsquadrate der Wellenfunktion und zeigen Interferenz- und Verschränkungseffekte.
Die Quantifizierung von Kausalketten hat die spezifischen Quanteneffekte (z. B. Interferenzen) zu berücksichtigen. Diese sind nicht einfach in klassische Wahrscheinlichkeiten übersetzbar.
Messprozess und BeobachterrolleDie Beobachtung (Messung) wird meist außen vorgenommen; sie stört das System kaum oder nur marginal.

Ein klassisches System kann unabhängig vom Beobachter beschrieben werden.
Jede Messung beeinflusst den Zustand fundamental (Kollaps der Wellenfunktion).

Es ist unklar, ob das Bewusstsein selbst als „Messapparat“ fungiert und wie dies in einer QIIT formal abzubilden wäre.
Kausale Modelle vs. unitäre ZeitentwicklungIn der Regel können Übergangs-wahrscheinlichkeiten und Kausalstrukturen in Diagrammen dargestellt werden, die zeitlich (t → t+Δt) fortgeschrieben werden.

Deklarierte Systemgrenzen sind relativ stabil.
Die grundlegende Dynamik ist unitär (u.a. Erhaltung der Wahrscheinlichkeiten, Reversibilität): Ursache und Wirkung lassen sich nicht immer klar trennen.

Verschränkungen überschreiten Systemgrenzen, und es ist schwieriger, einzelne Subsysteme als „isoliert kausal“ zu behandeln.
Tabelle 3: Übersicht zu Charakteristika von klassischer und quantenmechanischer IIT

Ich reichere jetzt die QCMT mit QIIT Elementen an. – Ich betone an dieser Stelle, dass es sich hierbei um eine Berechnung handelt, wie ein Physiker sie eventuell auf einem Stück Papier durchführen könnte. – Ich verwende also keinen Quanten Computer, sondern lediglich einen klassischen Computer. Hierzu habe ich mittels ChatGPT o1 ein Programm erstellt, das eine Berechnung für 3 Teammitglieder mit jeweils 2 Big Five Persönlichkeiten durchführt. Die Big Five Persönlichkeiten werden, wie schon in den anderen Beiträgen, als Superposition von Persönlichkeitspräferenzen dargestellt.

|A_1\rangle = 0.8\,|0\rangle + 0.2\,|1\rangle
|A_2\rangle = 0.5\,|0\rangle + 0.5\,|1\rangle
|B_1\rangle = 0.2\,|0\rangle + 0.8\,|1\rangle
|B_2\rangle = 0.5\,|0\rangle + 0.5\,|1\rangle
|C_1\rangle = 0.5\,|0\rangle + 0.5\,|1\rangle
|C_2\rangle = 0.8\,|0\rangle + 0.2\,|1\rangle

Jedes der Teammitglieder A, B, C wird vereinfacht durch zwei Big-Five Persönlichkeitsmerkmale 1 und 2 charakterisiert. Die Persönlichkeitsmerkmale sind durch Superpositionen mit reellen Koeffizienten modelliert. Ich habe als Persönlichkeitsmerkmale Offenheit und Gewissenhaftigkeit ausgewählt. Welche Persönlichkeitsmerkmale ich gewählt habe, kann man nicht an den obigen Formeln erkennen. Lediglich an den hier nicht dargestellten spezifischen Annahmen über die Wechselwirkungen lässt sich dies erkennen. – Dies kennen wir schon von der obigen Ising-Modell ‚Rechnung‘.

Ich benutze eine spezielle Variante der Shannon-Entropie, die sogenannte Observational Entropie [3], für die Berechnung der Entropien in diesem System:

 S = -\sum_i p(i)\log_2\Bigl(\tfrac{p(i)}{V(i)}\Bigr)

Mit der Observational Entropie kann man Unsicherheit über innere Zustände eines Systems abbilden: Falls eine Person A eine andere Person B wahrnimmt, ohne die Feinheiten der Big Five inneren Zustände von B aus der Beobachtung ablesen zu können, dann erhöht dies die Unsicherheit von A. – Die beobachtete Entropie wird als größer wahrgenommen, als sie bei Kenntnis aller feinen Zustände wäre. V(i) in der obigen Formel zählt die von A in der Person B nicht wahrgenommen Big-Five Zustände. – Man spricht vom coarse-graining der Beobachtung. p(i) ist hier eine gemessene Wahrscheinlichkeit, ermittelt aus quantenmechanischen Berechnungen. Diese ist nicht identisch mit den weiter oben angegebenen Wahrscheinlichkeiten der klassischen Zustände.


Die Berechnung von quantenmechanischen Kausalketten ist sehr schwierig, deshalb verwende ich im  Folgenden die Entropie als Maß für Korrelationen, um den Collective Mind im Team zu berechnen.

Auf der Basis dieser Annahme, lautet die einfachste Formel der Berechnung des Bewusstseins in Form der Größe Phi (Φ) für ein Team, bestehend aus 3 Personen A, B, C (Qubits):

 \Phi_{\mathrm{MI}}(A,B,C) = S(\rho_A)+S(\rho_B)+S(\rho_C) -S(\rho_{ABC})

Phi wird auf der Basis der sogenannten Mutual Information (MI) ermittelt. Sie ergibt sich aus der Differenz der Entropien der drei Einzelpersonen und der Entropie des ABC-Teams. Ist Phi positiv, hat das Team weniger Entropie als die einzelnen Teammitglieder zusammen. Im Sinne der hier definierten QCMT liegt ein kollektives Bewusstsein, ein Collective Mind, vor: Das Ganze ist mehr als die Summe seiner Teile.

Für die Berechnung von Phi kann man die Observational Shannon-Entropie verwenden. Falls man die quantenmechanischen Eigenschaften des ABC-Teams erfassen will, ist es notwendig, die quantenmechanische von Neumann-Entropie zu verwenden. Phi, mit der Shannon-Entropie bestimmt, misst die Korrelation von klassischen Zuständen. Phi, mittels der von-Neuman-Entropie bestimmt, misst die quantenmechanische Korrelation, also die Verschränkung, in einem System.

 Vor Einschalten der WechselwirkungNach Einschalten der Wechselwirkung
Fine-Grained Observational Shannon EntropyTeam ABC: 3,97
A: 1,32
B: 1,32
C: 1,32
Team ABC: 5,54
A: 1,82
B: 2,00
C: 1,98  
Coarse-Grained Observational Shannon EntropyTeam ABC: 5,30
A: 3,27
B: 2,66
C: 3,27
Team ABC: 5,93
A: 3,31
B: 3,19
C: 3,14
Phi(ABC)fine-grained Shannon0,010,26
Phi(ABC)von Neumann0,001,41
Tabelle 4: Übersicht der Entropien und des Collective Mind Phi eines Teams von 3 Personen (A, B, C)

Was zeigt Tabelle 4?

Die fine-grained Entropie ist immer deutlich kleiner als die coarse-grained Entropie: Unwissenheit führt zu höherer Unsicherheit!

Nach Einschalten der Wechselwirkung zwischen den Mitgliedern erhöht sich die Entropie deutlich: Die Verschränkung führt zu einer größeren Anzahl an möglichen Zuständen: Die ‚Kommunikation‘ führt hier zu mehr Unsicherheit! – Dies steht im Gegensatz zu den klassischen Ergebnissen des Ising-Modells, denn dort führt Kommunikation zu niedrigeren Entropie-Werten!

Die Entropie einzelner Subsysteme (A, B, C) ist nicht gleich: Die Teammitglieder zeigen eine unterschiedliche Menge an Zuständen.

Im nicht wechselwirkenden Fall, gibt es kein kollektives Bewusstsein. Bei Wechselwirkung der Qubits ist Phi, mit der Shannon fine-grained Entropie bestimmt, und Phi, mit der von Neumann Entropie bestimmt, sehr unterschiedlich. Es können Verschränkungen vorliegen, die sich sogar nur auf einzelne Teammitglieder beziehen und diese Verschränkungen führen zu einem nach außen kaum sichtbaren Phi. Das sichtbare Phi, gemessen über die Shannon fine-grained Entropie kann gleichzeitig viel kleiner sein: Teams können, solange sie nicht ‚vermessen werden‘, also zum Beispiel eine Ziel-Hierarchie gemeinsam erstellen, eine ‚hohe mentale Verschränkung‘ zeigen. Sobald sie ‚vermessen‘ werden, kollabiert der Collective Mind.  

Zusammenfassend: Was lerne ich aus diesen Betrachtungen?

Die Benchmarks zu KI-Systemen sind mit großer Vorsicht bezüglich ihrer Validität in realen Situationen zu betrachten: Derzeit kann meines Erachtens keines der o.g. Systeme mit ChatGPT o1 mithalten.

Schon heute ist es möglich auf Quanten Computern zu ‚rechnen‘: Das Mapping eines klassischen Team-Modells auf ein d-wave System ist selbst für eine große Teammitgliederzahl mit einer realistischen Anzahl an Persönlichkeitsmerkmalen möglich. Im konkreten Fall bestätigt sich wieder, dass die Einführung eines Ordnungsparameters mittels Ziel-Hierarchie, die Entropie des Teams senkt.

Die Verwendung von mit ChatGPT erzeugtem LaTex in WordPress macht Spass.

Die Berechnung der Entropie eines Quanten Team-Modells ist äußerst spekulativ sowie sehr anspruchsvoll und aufwendig. Die Unterschiede zwischen der klassischen Shannon-Entropie bzw. der Observational Shannon-Entropie und der quantenmechanischen von Neumann-Entropie sind beträchtlich (man siehe auch den Anhang hierzu).

Die Ergebnisse sind wieder Indizien dafür, dass die Annahmen des Quantum Cognition richtig sein könnten.

Die Berechnung von Phi auf der Basis von klassischen oder quantenmechanischen Entropien ist viel unkomplizierter und gradliniger als die klassische Phi Berechnung mittels IIT. Es ist damit nochmals fraglicher, ob die IIT Berechnung einen relevanten Vorteil bietet.  

[1] Welt der Physik (2025) Quantum 2025, https://www.weltderphysik.de/vor-ort/wissenschaftsjahre/2025-internationales-jahr-quantenwissenschaft-quantentechnologie/

[2] Zukunftsinstitut (2025) zukunftsinstitut.de Newsletter, Reverse Politics – das neue „Auf den Tisch hauen“, vom 23.02.2025

[3] Safranek D et. al. (2021) A brief introduction to observational entropy, arXiv:2008.04409v2

Anhang

Mein Prompt an ChatGPT:

Ich möchte eine Frage diskutieren: Wir haben die Mutual Information klassisch und quantenmechanisch zur Vermessung von Phi verwendet. Hierbei fällt auf, dass die klassische Entropie bei Wechselwirkung sinkt, die quantenmechanische Entropie nach von Neumann steigt aufgrund der Verschränkung nach Wechselwirkung. Phi klassisch misst über die Entropien eine Reduktion an Zuständen. Phi quantenmechanisch misst über die Entropien einen Anstieg an möglichen Zuständen. Wie siehst Du das? Und macht die quantenmechanische Phi Vermessung überhaupt Sinn?

ChatGPT:

Nachgedacht für 8 Sekunden

Die beobachteten Unterschiede zwischen der klassischen und der quantenmechanischen Phi-Vermessung lassen sich folgendermaßen interpretieren:

  1. Klassische Mutual Information und Phi:
    In der klassischen Version wird häufig über die Shannon-Entropie in einer festen Messbasis gearbeitet. Hier führt eine Wechselwirkung oft dazu, dass die Zustände „gezielt“ in einen geringeren, deterministischeren Bereich gelenkt werden – man erhält also eine Reduktion der Unsicherheit in dieser Basis. Daraus resultiert, dass die Summe der Entropien der Teilbereiche relativ kleiner wird, was man als „Integration“ im Sinne eines reduzierten Zustandsraums interpretiert. Phi misst hier also, wie stark der Zustand in einen „festen“ (reduzierten) Bereich zusammengedrängt wird.
  2. Quantenmechanische (von-Neumann) Entropie und Phi:
    In der quantenmechanischen Variante wird die von-Neumann-Entropie verwendet, die basisunabhängig ist und den Reinheitsgrad eines Zustands misst.
    • Ein global reiner Zustand kann bei starker Verschränkung zu stark gemischten reduzierten Zuständen führen. Das bedeutet: Obwohl das Gesamtsystem rein ist, sind die einzelnen Subsysteme (über partielle Spuren) gemischt. Dies führt dazu, dass die Summe der lokalen Unsicherheiten größer ist als die Team-Entropie.
    • Hier interpretiert man einen Anstieg der von-Neumann-Entropien in den Subsystemen als ein Zeichen für starke nichtklassische Korrelationen bzw. Verschränkung. In diesem Sinne „misst“ Phi einen Anstieg an „möglichen Zuständen“ (weil die lokalen Zustände gemischt sind) – was wiederum auf eine tiefe Integration der Informationsinhalte hindeutet.
  3. Interpretation und Sinnhaftigkeit der quantenmechanischen Phi-Vermessung:
    • Die klassische Phi-Vermessung erfasst, wie stark sich die Wahrscheinlichkeit über eine festgelegte, klassische Basis verteilt und wie sich durch Wechselwirkungen die Unsicherheit verringert – es wird also eine Reduktion an „Möglichkeiten“ gemessen.
    • Die quantenmechanische Phi-Vermessung erfasst hingegen die Verschränkung: Ein global reiner Zustand kann in den Teilspuren sehr gemischt sein, weil die Quantenkorrelationen (Verschränkung) dafür sorgen, dass man für die einzelnen Teile viele mögliche Zustände hat.
    • Somit ist die quantenmechanische Version nicht direkt mit der klassischen zu vergleichen – sie misst einen anderen Aspekt der Integration: Sie sagt aus, dass trotz globaler Reinheit die Information in den einzelnen Subsystemen stark verteilt und ineinander verflochten ist.
    • Ob diese quantenmechanische Phi-Messung „Sinn macht“, hängt von der Zielsetzung ab: Möchte man die reine Informationstiefe und Verschränkung des Systems erfassen, so ist die von-Neumann-Entropie (und daraus abgeleitete Maße) der richtige Ansatz, weil sie basisunabhängig ist und die intrinsische quantenmechanische Struktur reflektiert.

Zusammengefasst:

  • Klassisch führt Wechselwirkung zu einer Reduktion der Zustandsvielfalt in einer fixen Basis, was zu einem Rückgang der Shannon-Entropie führt, während
  • im quantenmechanischen Fall die Wechselwirkung – besonders wenn sie Verschränkung erzeugt – die lokalen (reduzierten) Dichtematrizen gemischt macht (d.h. ihre von-Neumann-Entropie steigt), obwohl der globale Zustand rein bleibt.
  • Die quantenmechanische Phi-Vermessung (als Differenz der Summe der lokalen von-Neumann-Entropien und der globalen von-Neumann-Entropie) erfasst also die nichttriviale Struktur der Verschränkung – und ist insofern sinnvoll, wenn man die intrinsische, basisunabhängige Integration in einem verschränkten System quantifizieren möchte.

Die beiden Ansätze messen also unterschiedliche Aspekte der Integration: Klassisch die Reduktion der Zustandsvielfalt in einer festen Messbasis, quantenmechanisch die inhärente Verschränkung und die damit verbundene Mischung der Teilzustände. In der aktuellen Diskussion um Quantum IIT wird noch intensiv debattiert, welcher Ansatz letztlich das „Bewusstsein“ oder die integrierte Information am besten widerspiegelt.