QAPO – Quantum Asset Portfolio Optimisation II: Überlegungen zur Anwendbarkeit und D-Wave Simulationen

Kurzfassung: In diesem Beitrag untersuche ich die praktische Anwendung von Quantencomputern im Finanzsektor mittels einer hybriden Quantum Asset Portfolio Optimisation (QAPO). Ich kombiniere die quantenmechanische Asset-Selektion eines D-Wave-Systems mit einer klassischen Minimum-Variance-Kapitalallokation. Durch ein strenges Out-of-Sample-Backtesting unter realen Transaktionskosten demonstriere ich transparent, wie das Modell auf unterschiedliche Marktphasen reagiert. Ein besonderer Fokus liegt auf der Architektur von ‚All-Wetter-Portfolios‘ und dem Verhalten unkorrelierter Assets wie Gold, die als Volatilitäts-Stoßdämpfer fungieren. Zudem erkläre ich anschaulich die physikalischen Vorteile des makroskopischen Quantentunnelns gegenüber klassischer Optimierung. Der Beitrag zeigt, wie Quantum Finance schon heute für (private) Anleger in die Praxis umgesetzt werden kann.

Den folgenden Blog-Beitrag habe ich noch überwiegend mit ChatGPT erstellt. Während der Erstellung nahm die KI-Demenz des Systems enorm zu: ChatGPT hat immer wieder schon erarbeitete Zusammenhänge vergessen. Außerdem hat sich an der schlechten Qualität des Codes für Latex unter WordPress nichts geändert. Dies hat mich bewogen, auf Google Gemini 3 Pro umzusteigen: Das System vergisst (aktuell) nichts, macht mich sogar auf Zusammenhänge zu vergangenen Ergebnissen aufmerksam und erzeugt lauffähigen Latex Code für WordPress. – Gemini hat den Prompt für das Eingangsbild erzeugt und ChatGPT hat diesen umgesetzt.

Dieser Blog-Beitrag ist der zweite Beitrag in der Blog Reihe ‚Quantum Asset Portfolio Optimisation‘ (QAPO). Ziel dieses Beitrages ist es, einen Algorithmus zu entwickeln, der eine persönliche Anlagestrategie von Assets (u.a. Aktien, ETFs) unterstützen kann. 

Schaut man sich die Entwicklung der letzten Wochen und Tage an, so nehmen die (medialen) Veröffentlichungen zum Thema Quantum Computing (QC) immer mehr Fahrt auf. 

Ich sehe drei große Themenbereiche, in denen sich das QC entwickelt:

  • Der Aufbau von großen stabilen Qubit Hardware Systemen: Dieser Bereich erfährt derzeit die meiste mediale Aufmerksamkeit
  • Die Entwicklung von Anwendungsfällen, in denen QC seine ungeheuren Möglichkeiten zeigen kann. Dieser Bereich zeigt meines Erachtens in den letzten Wochen enorme Fortschritte: QC wird u.a. mit KI Systemen kombiniert und liefert bahnbrechende Erkenntnisse. Nimmt man zum Beispiel die Likes auf Linkedin zu Veröffentlichungen als Indikator für die mediale Aufmerksamkeit, so ist diese allerdings sehr gering. – In meinem nächsten Blog-Beitrag werde ich deshalb hierzu einen faszinierenden Anwendungsfall behandeln.
  • Die Optimierung des Wechselspiels von klassischen Systemen und QC: Im letzten Blog habe ich schon erwähnt, dass die Anwendung eines QAOA Qiskit Python Codes auf entsprechender IBM Hardware wenig erfolgreich war, da mein Rechenbudget nahezu vollständig vom klassischen Rechnen ‚aufgefressen‘ wurde. Die typischen QC Gate Laufzeiten liegen im Mikro- bis Milli-Sekunden Bereich, so dass 1000 bis 1 Mio. Wiederholungen zusammenkommen müssen, damit sich im QC eine Gesamtlaufzeit von einer Sekunde aufbaut. Im Anhang 1 habe ich deshalb die ‚Zeitfaktoren‘ pro QC Methode zusammengestellt. Man kann sehr schnell erkennen, dass für Gesamtlaufzeiten (also klassisch+quantum Laufzeit) von maximal einer Stunde ein überwiegender Teil der Rechenzeit in die klassische Aufbereitungs- und Nachbearbeitungszeit fließt.

Im Jahre 2024 habe ich erstmals mit QC Hardware gerechnet. Damals war es noch sehr einfach und schnell ein kleines aber ausreichendes Kontingent an (kostenloser) QC Rechenzeit zu erhalten. Heute ist dies ungleich schwieriger. Da die Simulations-Rechenzeit für das QAOA schon im Stundenbereich liegt und das Laufzeitverhalten auf der IBM Hardware für mich nicht transparent ist, verzichte ich für diesen Blog auf die QAOA Methode und konzentriere mich lediglich auf die D-Wave Methode.

Aber auch hier habe ich bisher keinen Hardware Zugang erhalten. Der Übergang auf die D-Wave Hardware macht evtl. aus zwei Gründen Sinn:

  • Das Problem ist so groß, dass eine Simulation in 1-2 Stunden zu keinem guten Ergebnis kommt. Die Einschränkung von 1-2 Stunden erscheint sinnvoll, da ich das QAPO für meine persönliche Anlagenstrategie verwenden will. Da die Rechenzeiten auf meinem Laptop, für 44 Assets und einer Portfolio Auswahl von 4 Assets, im Ein-Minutenbereich liegen, ist der Wechsel auf eine D-Wave Hardware aus diesem Grunde noch nicht notwendig. 
  • Man möchte den energetisch tiefsten Zustand finden, also das beste Portfolio aus einer gegebenen Anzahl an Assets. Quantenmechanische Systeme können nicht nur unglaublich große Probleme bearbeiten, sie tun dies auch anders als klassische Systeme: Energetisch tiefe Zustände (also Täler) sind durch energetische hohe Zustände (also Berge) voneinander getrennt. In klassischen Systemen muss Energie zugeführt werden um ein System über einen Berg in ein neues Tal zu hieven. Es kostet also viel Zeit, immer wieder so einen Hebeprozess durchzuführen, um schließlich in der gesamten Energielandschaft den niedrigsten Zustand zu finden. Quantensysteme können durch die Energiebarrieren (Berge) hindurchtunneln. Sie sparen sich also sehr viel Zeit, um das niedrigste Tal zu finden. Leider ist die D-Wave Simulation eine solche klassische Simulation: Es könnte also sein, dass mit der Simulation nicht das niedrigste Tal, also das beste Portfolio gefunden wird. Da ich bisher keinen D-Wave Hardware Zugang habe, muss ich mit dieser Einschränkung arbeiten.- Falls ich den Zugang noch bekommen sollte, ist dies sicherlich später eine Beitragsergänzung wert.

Die Grundidee des D-Wave Algorithmus ist recht einfach: Mittels yahoo finance werden für 252 Tage vergangene Kurse einer Asset-Watchlist geladen und die Renditen und die Kovarianzen dieser Assets ermittelt. Es wird eine Hamiltonfunktion als Zielfunktion definiert und in der Energielandschaft dieser Funktion mittels Annealing nach dem niedrigsten Tal gesucht. – Die Hamiltonfunktion enthält als Nebenbedingung, dass nur K Assets aus der Watchlist auszuwählen sind. Der Annealing Teil des gesamten Alogrithmus wird entweder quantenmechanisch oder klassisch durchgeführt. In der Simulation werden die Qubits klassisch über kleine Magnete simuliert. Das niedrigste Tal innerhalb einer vorgegebenen Anzahl an Suchvorgängen (Annealing Vorgänge) liefert die unkorreliertesten und stärksten Assets innerhalb dieser Suchvorgänge. Mit Hilfe dieser K Assets verteilt ein weiterer klassischer Algorithmus ein vorgegebenes Kapital auf diese K Assets. Die Verteilung findet so statt, dass die Varianz der Assets minimiert wird. Theoretisch sollte diese Kapitalallokation auch über den quantenmechanischen Algorithmus stattfinden. Falls man die Kapitalallokation nur schon in 10% Schritten vornimmt, ist jedes bisherige Qubit, das lediglich angibt ob ein Asset ausgewählt wurde, durch 10 Qubits zu ersetzen. Die klassische Simulation hierzu scheitert an der Anzahl der Zustände, die größer ist als die geschätzte Anzahl an Atomen im Universum. Und die quantenmechanische Rechnung scheitert derzeit noch an der Anzahl an kohärenten Qubits in aktuellen Hardwaresystemen. Durch die Aufteilung in Asset-Auswahl (Quantum, in der Simulation auch klassisch) und Kapitalallokation (klassisch) schneiden wir theoretisch einen Teil des Lösungsraums ab. Wir finden eine heuristische Näherung, und nicht das globale Minimum. Aber genau dieser Kompromiss ist aktuell zwingend nötig, um reale Finanzprobleme auf heutigen Quantencomputern überhaupt berechnen zu können, ohne dass die Fragilität der Qubits (Noise) Ergebnisse verhindert.

Mit dieser Einschränkung konstruiere ich den Prognose-Algorithmus für die Wertentwicklung der ausgewählten K Assets: Bei 252 Handelstagen pro Jahr soll jeden Monat (21 Handelstage im Mittel) eine Überprüfung der K Assets vorgenommen werden und ggf. Assets ausgetauscht werden.  Natürlich fallen für den Austausch Transaktionskosten an, die die Gesamtrendite schmälern. Ich nehme 0,25 % des Anlagevolumens für die Transaktionskosten an. Vorherige Tests haben ergeben, dass eine wöchentliche Umschichtung zu teuer wird und eine Umschichtung pro Quartal weniger Rendite erwirtschaftet. Das Anlagevolumen habe ich auf 1 Million Euro gesetzt.

Auf dieser Basis starte ich mit 252 vergangenen Handelstagen als Trainingsdaten und ermittele das beste K Asset. Der Algorithmus schiebt die 252 Tage 21 Tage nach vorne und ermittelt wieder das beste K Asset, usw. – Es liegt also ein gleitendes Berechnungsfenster vor.  Der Algorithmus soll ein Jahr in die Zukunft prognostizieren (sogenanntes Out-of-Sample (OOS) für ein Jahr).
Ich verweise auf Anhang 2 für eine ergänzende Beschreibung des Algorithmus.

Ich benutze folgende Watchlist:  

„AAPL“, „AMZN“, „GOOGL“, „NVDA“, „QBTS“, „^DJI“, „^GDAXI“, „^IXIC“, „MSF.DE“, „^MDAXI“, „^TECDAX“,
„RHM.DE“, „EOS.AX“, „DRH.F“, „MBB.DE“, „RGTI“, „IONQ“, „5Q5.DE“, „ASM.F“, „LYMZ.DE“, „AHLA.DE“, „NFC.DE“, „639.DE“, „NVD.DE“, „307.F“, „UBER“, „FOO.F“, „^FTSE“, „^N225″,“^HSI“, „0PTN.IL“, „0LND.SG“, „SFT.F“, „PO0.F“, „RWE.DE“, „DTE.DE“, „2330.TW“, „IBM.F“, „HAG0.F“, „76J.F“, „22UA.F“, „R3NK.DE“,“CA1.DE“, „ABEA.DE“
 
Die Simulation liefert nach etwa einer Minute folgendes Ergebnis:
=== Lade Marktdaten (Benötigt: 504 Handelstage) ===
Zeitraum: 2024-04-01 bis 2026-03-09
Verbleibende Assets nach Filterung: 43

=======================================================
=== IN-SAMPLE DIAGNOSE beim Start MIT KAPITAL-ALLOKATION ===
=======================================================

Die D-Wave Simulation hat folgende 4 Assets am Start als optimal identifiziert (Minimum-Variance):
 - 2330.TW    | Gewicht: 15.00% | Budget: 150,000.00 €
 - ABEA.DE    | Gewicht: 17.95% | Budget: 179,481.81 €
 - RWE.DE     | Gewicht: 32.05% | Budget: 320,518.19 €
 - ^DJI       | Gewicht: 35.00% | Budget: 350,000.00 €

=======================================================
=== STARTE OUT-OF-SAMPLE BACKTEST (FORECASTING) ===
=======================================================
Trainingsfenster: 252 Tage
Rebalancing: Alle 21 Tage
Startkapital: 1,000,000.00 €
Transaktionsgebühren: 0.25% pro umschichtetes Volumen
Leitplanken: Min 15.0% / Max 35.0% pro Asset
Allokation: Minimum-Variance-Portfolio
Simuliere 12 Rebalancing-Zyklen (Monatlich)...

=== OUT-OF-SAMPLE PERFORMANCE ===
Zeitraum: 2025-03-20 bis 2026-03-09 (252 Tage)
Endkapital:            1,345,730.50 € (Gewinn: 345,730.50 €)
Rendite (annualisiert):+37.28%
Volatilität (ann.):    20.01%
Sharpe Ratio:          1.58
Max Drawdown:          -13.28%
Total Turnover:        8.66x umgeschlagen

Abbildung 1: Diese Abbildung zeigt die oben prognostizierte Out-of-Sample (OOS) Entwicklung der K Assets. Unten in der Abbildung wird monatlich die prognostizierte Rendite der realen Rendite gegenüber gestellt: Die Prognose kann natürlich keine geopolitischen Probleme (Zölle, Naher Osten) wie zum Beispiel im Juli 2025 vorhersehen. – Was sich in diesem speziellen Zeitraum sehr positiv auswirkt.

Da der Algorithmus Assets mit geringer Varianz bevorzugt, zeige ich im Folgendem, wie mit Aktien nahezu unkorrelierte Assets (wie Gold, Anleihen, Bitcoin, Immobilien) in die Prognose eingehen. Ich habe folgende unkorrelierte Assets, zusätzlich zu den obigen Assets, ausgewählt:

„GLD“, # Gold ETF (Sicherer Hafen)
„TLT“, # 20+ Year US Treasury Bonds (Krisen-Absicherung)
„BTC-USD“, # Bitcoin (Rendite-Booster)
„VNQ“ # US Real Estate ETF (Immobilien)

Auf dieser Basis ergeben sich die nachfolgenden Ergebnisse: Da Bitcoin auch an Feiertagen und nicht nur von Mo. bis Fr. gehandelt werden, ist der Zeitraum für die Markdaten nicht 100% identisch mit dem obigen Zeitraum, die Abweichung von 2 Tagen ist aber minimal. Zusätzlich enthält diese Ergebnis-Ausgabe die monatlich neu prognostizierten K Assets (siehe Bereich ‚Simuliere 12 Rebalancing-Zyklen).


=== Lade Marktdaten (Benötigt: 504 Handelstage) ===
Zeitraum: 2024-04-03 bis 2026-03-09
Verbleibende Assets nach Filterung: 47

=======================================================
=== IN-SAMPLE DIAGNOSE beim Start VIA Simulation ===
=======================================================

Die D-Wave Simulation hat folgende 4 Assets am Start als optimal identifiziert (Minimum-Variance Allokation):
 - GLD        | Gewicht: 35.00% | Budget: 350,000.00 €
 - GOOGL      | Gewicht: 15.00% | Budget: 150,000.00 €
 - MBB.DE     | Gewicht: 18.54% | Budget: 185,405.02 €
 - ^IXIC      | Gewicht: 31.46% | Budget: 314,594.98 €

=======================================================
=== STARTE OUT-OF-SAMPLE BACKTEST (FORECASTING) ===
=======================================================
Trainingsfenster: 252 Tage
Rebalancing: Alle 21 Tage
Startkapital: 1,000,000.00 €
Transaktionsgebühren: 0.25% pro umschichtetes Volumen
Leitplanken: Min 15.0% / Max 35.0% pro Asset

Simuliere 12 Rebalancing-Zyklen (Mode: 'sim')...
------------------------------------------------------------
-> Datum: 2025-03-21 | Portfolio: AHLA.DE (15.0%), DTE.DE (35.0%), RHM.DE (15.0%), ^HSI (35.0%)
-> Datum: 2025-04-21 | Portfolio: 639.DE (15.0%), RHM.DE (15.0%), TLT (35.0%), ^IXIC (35.0%)
-> Datum: 2025-05-20 | Portfolio: 2330.TW (15.3%), GLD (35.0%), RHM.DE (15.0%), ^IXIC (34.7%)
-> Datum: 2025-06-18 | Portfolio: DTE.DE (35.0%), IBM.F (15.0%), RHM.DE (15.0%), VNQ (35.0%)
-> Datum: 2025-07-17 | Portfolio: GLD (35.0%), GOOGL (15.0%), RHM.DE (15.0%), TLT (35.0%)
-> Datum: 2025-08-15 | Portfolio: GLD (35.0%), MBB.DE (35.0%), RHM.DE (15.0%), SFT.F (15.0%)
-> Datum: 2025-09-15 | Portfolio: 0PTN.IL (26.9%), EOS.AX (15.0%), GLD (35.0%), RHM.DE (23.1%)
-> Datum: 2025-10-14 | Portfolio: EOS.AX (15.0%), GLD (35.0%), RHM.DE (15.0%), ^IXIC (35.0%)
-> Datum: 2025-11-12 | Portfolio: GLD (35.0%), RHM.DE (15.0%), SFT.F (15.0%), ^IXIC (35.0%)
-> Datum: 2025-12-11 | Portfolio: DTE.DE (33.5%), GOOGL (24.3%), RHM.DE (15.0%), RWE.DE (27.2%)
-> Datum: 2026-01-09 | Portfolio: EOS.AX (15.0%), GLD (35.0%), RHM.DE (15.0%), RWE.DE (35.0%)
-> Datum: 2026-02-09 | Portfolio: GLD (25.5%), GOOGL (15.0%), RWE.DE (35.0%), ^IXIC (24.5%)
------------------------------------------------------------

=== OUT-OF-SAMPLE PERFORMANCE ===
Zeitraum: 2025-03-21 bis 2026-03-09 (252 Tage)
Endkapital:            1,168,157.89 € (Gewinn: 168,157.89 €)
Rendite (annualisiert):+19.32%
Volatilität (ann.):    20.57%
Sharpe Ratio:          0.86
Max Drawdown:          -15.86%
Total Turnover:        7.38x umgeschlagen

Abbildung 2: Diese Abbildung zeigt die oben prognostizierte Out-of-Sample (OOS) Entwicklung der 44+4 K Assets (ein Asset wurde entfernt, da nicht ausreichend Daten vorliegen). Unten in der Abbildung wird monatlich die prognostizierte Rendite der realen Rendite gegenüber gestellt.

Überraschender Weise zeigt dieses Portfolio eine leicht höhere Volatilität, es werden andere Fehler-Zeitpunkte zwischen Prognose und Realität angezeigt und die Rendite geht deutlich zurück:

Warum bricht die Gesamtrendite massiv ein? (37 % vs. 19 %)

Wir befinden uns in dem Zeitraum von April 2024 bis März 2026. In dieser Phase gab es an den Börsen massive, einseitige Bullenmärkte (insbesondere bei Tech-Werten wie Nvidia, TSMC, Google und Rüstungswerten wie Rheinmetall).

  • Ohne unkorrelierte Assets: Der Algorithmus war gezwungen, sein gesamtes Geld in den Aktienmarkt zu stecken. Er verwendete also voll die sehr gut laufenden Tech- und Rüstungs-Werte. Das brachte gigantische Gewinne.

  • Mit unkorrelierten Assets: Der Algorithmus sucht nach Minimum-Variance (minimalem Risiko). Er sieht, dass Tech-Aktien stark schwanken. Also nutzt er die neuen ’sicheren Häfen‘ wie Gold (GLD) oder langlaufende Staatsanleihen (TLT) und packt diese mit bis zu 35 % ins Portfolio.

  • Die Konsequenz: Diversifikation kostet in einem extremen Bullenmarkt immer Rendite! Parkt man 35 % des Geldes in Gold, das vielleicht ’nur‘ 10 % im Jahr an Rendite zeigt, fehlen diese 35 % bei den Tech-Aktien, die in derselben Zeit vielleicht 60 % Rendite erzielen. Der Algorithmus hat also Rendite für (vermeintliche) Sicherheit geopfert.

Warum ist die Volatilität dann trotzdem leicht höher? (20,5 % vs 20,0 %)

Korrelationen sind nicht stabil:

  • Die Theorie sagt: Anleihen (TLT) und Immobilien (VNQ) federn Aktienkrisen ab.

  • Die Realität der letzten Jahre (Zinswenden, Inflation) war aber: Wenn die Zentralbanken die Zinsen hochhielten oder überraschende Inflationsdaten kamen, sind Staatsanleihen (TLT) und Immobilien (VNQ) zusammen mit den Aktien abgestürzt.

  • Der Algorithmus hat in die Vergangenheit geschaut (seine 252 Tage) und dachte: „Ah, Anleihen sind ein toller Puffer!“ In der Realität der nächsten 21 Tage kam dann aber vielleicht ein Makro-Schock (z.B. Zinsangst), der plötzlich alle Anlageklassen gleichzeitig nach unten riss.

  • Weil das gemischte Portfolio nun Assets enthielt, die sehr empfindlich auf Zinsen reagieren (TLT, VNQ, Gold), entstanden neue, eigene Schwankungen, die das reine Aktien-Portfolio so gar nicht hatte.

Warum sind die Prognose-Fehler an völlig anderen Zeitpunkten?

Ein reines Aktien-Portfolio und ein gemischtes All-Wetter-Portfolio haben eine völlig unterschiedliche ‚DNA. Sie reagieren auf komplett andere Krisen-Auslöser:

  • Das reine Aktien-Portfolio crasht (die dunkelblauen Balken tief im Minus), wenn die Unternehmensgewinne enttäuschen, wenn die Arbeitslosigkeit steigt oder wenn ein Tech-Beben (z.B. schwache Halbleiter-Zahlen) durch den Markt geht.

  • Das gemischte Portfolio (mit Gold & Anleihen) reagiert darauf vielleicht völlig gelassen (Gold fängt es ab). Dafür crasht dieses Portfolio in Monaten, in denen z.B. die Inflation überraschend hoch ausfällt oder Notenbank-Chefs Zinserhöhungen andeuten. Anleihen und Gold ‚hassen‘ solche Nachrichten, während Tech-Aktien das vielleicht ignorieren.

  • Das bedeutet: Die ‚Schocks‘ (die Abweichungen zwischen Prognose und Realität) passieren an exakt den Zeitpunkten, an denen die spezifischen Schwachstellen des jeweiligen Portfolios von der Makroökonomie getroffen wurden. Da die Portfolios völlig unterschiedlich aufgebaut sind, sind auch die Schock-Monate völlig andere.

Schaut man sich die 12 simulierten Rebalancing Zeitpunkt an, so ergibt sich folgendes:

  • GLD (Gold) taucht oft im Portfolio auf. Von Juli 2025 bis November 2025 war Gold in jedem einzelnen Monat mit der maximalen Gewichtung von 35,0 % (dem maximal möglichen Gewicht) vertreten. Der Algorithmus hat erkannt, dass in dieser Phase klassische Aktien stark miteinander schwankten und hat Gold als stabilen Anker genutzt.
  • Schauen wir auf den 21. April 2025. Hier springt plötzlich TLT (US-Staatsanleihen) mit vollen 35,0 % ins Portfolio. Das ist der klassische „Risk-Off“-Trade der Wall Street. Der Optimizer hat in den 252 Tagen davor gesehen, dass Aktien zu riskant wurden, und hat das Kapital in den sicheren Hafen der Anleihen gerettet. Im Juli passiert das Gleiche noch einmal.
  • RHM.DE (Rheinmetall) ist extrem interessant. Es taucht in 11 von 12 Zyklen auf, wird aber in 10 Fällen starr auf exakt 15,0 % (das absolute Minimum) gedrückt. Warum? Rheinmetall hatte in diesem Zeitraum eine extrem gute Rendite, war dem Minimum-Variance-Optimizer aber viel zu volatil (zu hohes Risiko). Die Leitplanken haben den Algorithmus gezwungen, es zu behalten, haben es aber sicherheitshalber auf dem Minimum gehalten.
  • BTC-USD taucht in den 12 Monaten kein einziges Mal auf! Warum? Weil der Algorithmus auf Minimum-Variance (minimales Risiko) optimiert. Bitcoin ist historisch so extrem volatil, dass die Kovarianzmatrix sofort Alarm schlägt. Ein reiner Risiko-Minimierer fasst Krypto fast nie an, es sei denn, man zwingt ihn dazu oder wechselt die Optimierungs-Strategie (z.B. auf die maximale Sharpe-Ratio).

Zusammenfassend: Der D-Wave Algorithmus hats sich als tragfähig erwiesen und kann sehr gut als Werkzeug für die Ausgestaltung der (persönlichen) Anlagestrategie benutzt werden. Der Übergang von der D-Wave Simulation auf die Quanten Hardware ist problemlos möglich, da nur eine andere Annealing Funktion aufgerufen wird. Vielleicht klappt es ja noch mit einem D-Wave Hardware Quantum Annealing.

Anhang 1

Vergleich des Laufzeitverhaltens der QC Systeme

Die nachfolgenden zwei Gleichungen beschreiben in aggregierter Form das Laufzeitverhalten der  (Hardware) Systeme QAOA, VQE, D-Wave QA-Hybrid und D-Wave QPU. Weiter unten findet sich jeweils eine genauere Formel pro System/Hardware:

     \begin{equation*} T \approx t_{\mathrm{setup}} + t_{\mathrm{loop}} + t_{\mathrm{post}} \end{equation*} \begin{equation*} t_{\mathrm{loop}} \approx N_{\mathrm{iter}}*N_{\mathrm{eval/iter}}* \Big( N_{\mathrm{units}}*t_{\mathrm{unit}} + t_{\mathrm{queue}} + t_{\mathrm{io}} \Big) \end{equation*}

BeitragQAOAVQED-Wave QPUD-Wave Hybrid
Optimizer-Iterationen (N_iter)10–100010–1000
Auswertungen/Iteration (N_eval/iter)1 bis viele1 bis viele
Shots10²–10⁵10³–10⁶
Messgruppenklein–mitteloft groß
Reads10²–10⁵intern
Unit-ZeitShot-Zeit (tiefeabh.)Shot-Zeit + BasisrotationenAnneal+Readout+Resettime_limit
Queuekann dominierenkann dominierenkann dominierenkann dominieren
Compile/Transpileklein–mittelklein–mittel
Embeddingoft relevantintern
I/Oklein–mittelklein–mittelklein–mittelklein–mittel
Postprocessingklein–mittelklein–mittelklein–mittelklein–mittel

Die Tabelle ist als ‚Zeitbudget-Landkarte‘ zu lesen: Sie zerlegt die Gesamtlaufzeit einer Optimierung in typische Bausteine und zeigt, welche Bausteine bei QAOA, VQE und D-Wave (QPU/Hybrid) überhaupt vorkommen und welche Größenordnung sie typischerweise haben.

Die verwendeten Begriffe und was sie bedeuten:
Optimizer-Iterationen
Anzahl der Schritte, die ein klassischer Optimierer (z.B. COBYLA, Powell, SPSA, Adam) macht, um Parameter zu verbessern.

  • Kommt bei QAOA und VQE vor (weil beide variational sind).
  • Bei Annealing (QPU/Hybrid) gibt es meist keinen äußeren klassischen Iterationsloop in der Standardnutzung → „–“.

Auswertungen/Iteration
Wie oft pro Iteration die Zielfunktion (z.B. Energie/Cost) neu ausgewertet werden muss.

  • Bei gradientenfreien Optimierern oft ≈ 1, bei Line-Search/Gradienten/Parameter-Shift oft größer als 1.
  • Bei VQE kann eine ‚Auswertung‘ zusätzlich viele Messungen enthalten (Messgruppen).

Shots
Anzahl der Messwiederholungen eines Quantum-Circuits bei Gate-basierten Methoden (QAOA/VQE).
Mehr Shots → geringeres statistisches Rauschen der gemessenen Erwartungswerte, aber längere Laufzeit.

Messgruppen
VQE (und manchmal auch QAOA, wenn man viele Terme misst) misst die Energie oft als Summe vieler Operatoren. Um nicht jeden Term einzeln zu messen, fasst man kommutierende Terme zusammen, die in derselben Messbasis ausgelesen werden können.

  • klein–mittel: wenige Gruppen (z.B. einfache Cost-Funktionen).
  • oft groß bei VQE: viele Hamiltonian-Terme → viele Gruppen, selbst nach Gruppierung.

Reads
Anzahl der Samples (Anneals), die ein Annealer liefert.

  • Entspricht dem „Sampling-Äquivalent“ zu Shots, aber für D-Wave.
  • Bei Hybrid steht „intern“, weil du meist nur ein time_limit gibst; wie viele Samples intern erzeugt werden, ist solverabhängig.

Unit-Zeit
Zeit pro elementarer Wiederholung‘:

  • QAOA/VQE: Zeit pro Shot (Circuit ausführen + messen). Bei VQE oft plus zusätzliche Basis-Rotationen vor der Messung.
  • D-Wave QPU: Zeit pro Read ≈ Anneal + Readout + Reset.
  • D-Wave Hybrid: Zeit wird primär über time_limit gesteuert, nicht über ein explizites „pro Read“-Budget.

Queue
Wartezeit, bis dein Job auf der Hardware (oder im Cloud-Dienst) tatsächlich läuft.
Kann bei allen Hardware-nahen Varianten (QAOA/VQE auf QPU, D-Wave QPU, D-Wave Hybrid)
dominant sein, je nach Auslastung.

Compile/Transpile
Nur Gate-basiert:

  • Compile/Transpile bedeutet: Circuit wird an die echte Hardware angepasst (Gate-Set, Kopplungstopologie, Optimierungs-Pässe). Das ist oft „klein–mittel“, kann aber bei großen Circuits oder häufigem Re-Compile relevant werden.

Embedding
Nur D-Wave QPU (und teilweise intern bei Hybrid):

  • Embedding ist das Mapping deines logischen Problems (BQM-Graph) auf die physische D-Wave-Hardware-Topologie (Pegasus).
  • Kann „oft relevant“ sein, weil es bei dichten Problemen schwer ist und Zeit kostet; außerdem beeinflusst es die Qualität (Chains).

I/O
Upload/Download/Parsing:

  • Netzwerk-Overhead, Serialisierung, Job-Handling, Ergebnis-Abholung.
    Meist „klein–mittel“, aber bei vielen Jobs/Iteration kann es sich summieren.

Postprocessing
Alles, was nach dem Roh-Ergebnis passiert:

  • Bei Gate-basiert: Mittelwertbildung, Gruppensummen, evtl. Error-Mitigation.
  • Bei D-Wave QPU: Unembedding, Chain-break-Auflösung, Feasibility-Checks, Ranking/Filterung.
    Meist „klein–mittel“, kann aber bei großen Samplesets oder strengen Constraints wachsen.

Zussammenfassung

  • QAOA und VQE: Laufzeit wird häufig durch
    (Optimizer-Iterationen) × (Auswertungen/Iteration) × (Shots) × (Shot-Zeit)
    plus Queue/Transpile/I/O bestimmt.
  • VQE ist oft teurer als QAOA, weil zusätzlich Messgruppen stark wachsen können.
  • D-Wave QPU: Laufzeit wird häufig durch
    Embedding + Queue + Reads × (Anneal+Readout+Reset)
    geprägt.
  • D-Wave Hybrid: Das dominierende Stellrad ist meist time_limit (plus Queue/I/O). Dadurch ist Hybrid „budget-getrieben“ statt „shots-getrieben“.

Im Folgenden die Formeln für die Laufzeit pro QC-Hardware 

Die folgenden Laufzeitmodelle berücksichtigen den gesamten Workflow der Algorithmen („End-to-End“), inklusive Kompilierung, Wartezeiten und klassischem Overhead. Dies entspricht der realen Erfahrung bei der Nutzung von Cloud-Quantencomputern.

1. QAOA (Quantum Approximate Optimization Algorithm)
QAOA ist ein iterativer Algorithmus. Ein klassischer Optimierer bestimmt Parameter, der Quantencomputer evaluiert die Kostenfunktion.

Die Formel:

 \begin{equation<em>} T_{\mathrm{QAOA}} \approx t_{\mathrm{compile}} + N_{\mathrm{iter}} \cdot N_{\mathrm{eval/iter}} \cdot \Big( N_{\mathrm{shots}} \cdot t_{\mathrm{shot}} + t_{\mathrm{queue}} \end{equation</em>} \begin{equation<em>} + t_{\mathrm{readout}} + t_{\mathrm{io}} \Big) + t_{\mathrm{overhead}} \end{equation</em>}

Beschreibung:
Die Gesamtlaufzeit wird dominiert durch die Schleife des Optimierers. Für jeden Iterationsschritt muss der Quantenschaltkreis oft mehrfach ausgeführt werden (z.B. zur Gradientenbestimmung). Bei Cloud-Systemen fällt oft pro Ausführung erneut eine Wartezeit (Queue) an.

Glossar:

  •  t_{\mathrm{compile}} : Zeit für die Transpilierung des Schaltkreises vor dem ersten Lauf.
  •  N_{\mathrm{iter}} : Anzahl der Schritte des klassischen Optimierers bis zur Konvergenz.
  •  N_{\mathrm{eval/iter}} : Anzahl der Funktionsaufrufe pro Optimierungsschritt.
  •  N_{\mathrm{shots}} : Anzahl der Messwiederholungen pro Schaltkreis (shots).
  •  t_{\mathrm{queue}} : Wartezeit in der Cloud-Warteschlange.

2. VQE (Variational Quantum Eigensolver)
VQE wird oft in der Quantenchemie eingesetzt. Die Herausforderung ist hier das Messen vieler verschiedener Terme (Pauli-Strings).

Die Formel:

 \begin{equation<em>} T_{\mathrm{VQE}} \approx t_{\mathrm{compile}} + N_{\mathrm{iter}} \cdot \sum_{k=1}^{N_{\mathrm{groups}}} \Big( N_{\mathrm{shots},k} \cdot t_{\mathrm{shot},k} + t_{\mathrm{queue},k} \end{equation</em>} \begin{equation<em>} + t_{\mathrm{readout},k} + t_{\mathrm{io},k} \Big) + t_{\mathrm{classical}} \end{equation</em>}

Beschreibung:
Da nicht alle Observablen gleichzeitig gemessen werden können, werden sie in kompatible Gruppen k unterteilt. Die Laufzeit summiert sich über diese Gruppen auf. Eine effiziente Gruppierung  N_{\mathrm{groups}} ist entscheidend für die Performance.

Glossar:

  •  N_{\mathrm{groups}} : Anzahl der Messgruppen (Measurement Groups).
  •  t_{\mathrm{io},k} : Latenzzeit für das Senden (Input/Output) der Daten der jeweiligen Gruppe.
  •  t_{\mathrm{classical}} : Zeit für die klassische Berechnung der Parameter Updates.

3. D-Wave QPU (Pure Quantum Annealing)
Beim direkten Zugriff auf den Quantum Annealer (z.B. Advantage System) spielen Embedding und physikalische Annealing-Zyklen die Hauptrolle.

Die Formel:

 \begin{equation<em>} T_{\mathrm{QA-QPU}} \approx t_{\mathrm{embed}} + t_{\mathrm{program}} + N_{\mathrm{reads}} \cdot \Big( t_{\mathrm{anneal}} + t_{\mathrm{readout}} \end{equation</em>} \begin{equation<em>} + t_{\mathrm{reset}} \Big) + t_{\mathrm{unembed}} + t_{\mathrm{queue}} + t_{\mathrm{io}} + t_{\mathrm{post}} \end{equation</em>}

Beschreibung:
Im Gegensatz zu Gate-Modellen läuft dies sehr deterministisch ab. Vor der Rechnung muss das logische Problem auf die Hardware-Qubits abgebildet werden (Embedding). Danach folgen schnelle, physikalische Annealing-Zyklen.

Glossar:

  •  t_{\mathrm{embed}} : Zeit für das „Minor Embedding“ (Mapping auf Hardware-Topologie).
  •  t_{\mathrm{program}} : Zeit zum Initialisieren der QPU.
  •  t_{\mathrm{anneal}} : Die reine Quanten-Rechenzeit (Standard ~20 µs).
  •  t_{\mathrm{reset}} : Thermalisierungszeit („Abkühlung“) des Chips.
  •  t_{\mathrm{unembed}} : Rückübersetzung der physikalischen Qubits in logische Lösungen.

4. Hybrid D-Wave (Leap Hybrid Solvers)
Hier übernimmt ein Cloud-Service die Arbeit, zerlegt große Probleme und nutzt QPU sowie CPU im Verbund.

Die Formel:

 \begin{equation<em>} T_{\mathrm{QA-hybrid}} \approx t_{\mathrm{queue}} + t_{\mathrm{time-limit}} + t_{\mathrm{io}} + t_{\mathrm{post}} \end{equation</em>}

Beschreibung:
Für den Nutzer ist dies oft eine „Black Box“. Man definiert ein Zeitlimit, und der Solver versucht innerhalb dieser Zeit die beste Lösung zu finden.

Glossar:

  •  t_{\mathrm{time-limit}} : Das vom Nutzer oder System gesetzte Zeitlimit.
  •  t_{\mathrm{post}} : Nachbearbeitungszeit durch den klassischen Solver-Teil.
  •  t_{\mathrm{queue}} : Wartezeit bis der komplexe Hybrid-Job startet.

Anhang 2

Der D-Wave QAPO Algorithmus

1. Finanz Daten Aufbereitung

Bevor der Algorithmus optimieren kann, müssen die rohen Aktienkurse in vergleichbare Metriken umgewandelt werden. Das Modell berechnet zunächst die logarithmischen Tagesrenditen und skaliert diese anschließend auf ein handelsübliches Jahr (252 Tage).

 \begin{equation<em>} r_{i,t} = \ln\left(\frac{P_{i,t}}{P_{i,t-1}}\right) \end{equation</em>}

Erklärung: r_{i,t} ist die logarithmische Rendite des Assets i zum Zeitpunkt t, berechnet aus dem Verhältnis des heutigen Kurses P_{i,t} zum gestrigen Kurs P_{i,t-1}. Log-Renditen sind symmetrisch und eignen sich mathematisch besser für die Schätzung von Varianzen als einfache prozentuale Renditen.

 \begin{equation<em>} \mu_i = \mathbb{E}[r_i] \cdot 252 \quad \text{und} \quad \Sigma_{ij} = \mathrm{Cov}(r_i, r_j) \cdot 252 \end{equation</em>}

Erklärung: \mu_i ist die erwartete, annualisierte Rendite des Assets i. Die Matrix \Sigma_{ij} ist die Kovarianzmatrix. Sie beschreibt nicht nur das Risiko (die Varianz) einer einzelnen Anlage, sondern misst auch, wie stark sich zwei verschiedene Assets i und j gemeinsam bewegen. Dies ist der mathematische Kern der Diversifikation.

2. Die Quanten-Zielfunktion: Feature Selection

In diesem Schritt entscheidet der Quantencomputer (D-Wave), welche K Assets aus dem gesamten Universum von N Assets (z.B. N=47) in das Portfolio aufgenommen werden. Die Entscheidungsvariable ist binär: x_i \in {0, 1}.

 \begin{equation<em>} H_{\mathrm{obj}} = \sum_{i=1}^{N} \sum_{j=1}^{N} \Sigma_{ij} x_i x_j - \lambda \sum_{i=1}^{N} \mu_i x_i \end{equation</em>}

Erklärung: Dies ist die physikalische Energiefunktion H_{\mathrm{obj}} für das klassische Markowitz-Problem. Der erste Term berechnet das Gesamtrisiko des Portfolios, der zweite Term die erwartete Rendite. Der Parameter \lambda bestimmt, wie stark die Rendite gegenüber dem Risiko gewichtet wird. Da der Quantencomputer das System auf die niedrigste Energie minimiert, erhält der Rendite-Term ein negatives Vorzeichen.

3. Die Nebenbedingung: Exakt K Assets wählen

Ein QUBO (Quadratic Unconstrained Binary Optimization) versteht von Haus aus keine Nebenbedingungen. Daher muss die Regel „Wähle genau K=4 Assets“ als mathematische Straf-Energie (Penalty) formuliert werden.

 \begin{equation<em>} H_{\mathrm{penalty}} = A \cdot \left( \sum_{i=1}^{N} x_i - K \right)^2 \end{equation</em>}

Erklärung: Die Summe über alle x_i zählt, wie viele Assets vom Solver aktuell ausgewählt wurden. Stimmt diese Anzahl exakt mit K überein, wird die Klammer zu Null und es gibt keine Strafe. Weicht die Anzahl ab, wird die Differenz quadriert und mit einem massiven Straf-Faktor A multipliziert. Der Quantencomputer wird diese energetisch extrem ungünstigen Zustände zwingend vermeiden. Das finale Problem, das an die Hardware geschickt wird, ist die Summe beider Gleichungen (H_{\mathrm{QUBO}} = H_{\mathrm{obj}} + H_{\mathrm{penalty}}).

4. Die klassische Allokation: Das Minimum-Variance Portfolio

Sobald D-Wave die unkorreliertesten und stärksten Assets selektiert hat, übernimmt ein klassischer Solver (wie SciPy) die Kapitalallokation. Da historische Renditen extrem schwer vorherzusagen sind, fokussiert sich der Solver auf die Minimierung des Risikos (Minimum-Variance-Ansatz).

 \begin{equation<em>} \min_{\mathbf{w}} \quad \mathbf{w}^T \Sigma_{\mathrm{sub}} \mathbf{w} \end{equation</em>}

Erklärung: Gesucht wird der Gewichtsvektor \mathbf{w} (z.B. 15% in Gold, 35% in Telekom), der die Gesamtvarianz dieses Sub-Portfolios minimiert. \Sigma_{\mathrm{sub}} ist die gefilterte Kovarianzmatrix, die nur noch unsere ausgewählten Gewinner-Assets enthält.

 \begin{equation<em>} \mathrm{u.d.N.:} \quad \sum_{k=1}^{K} w_k = 1 \quad \text{und} \quad w_{\mathrm{min}} \le w_k \le w_{\mathrm{max}} \end{equation</em>}

Erklärung: Unter den Nebenbedingungen (u.d.N.) müssen alle Gewichte in Summe 1 (also 100%) ergeben. Zusätzlich darf kein Asset ein Gewicht unter w_{\mathrm{min}} (z.B. 15%) oder über w_{\mathrm{max}} (z.B. 35%) erhalten. Diese Leitplanken verhindern, dass der Algorithmus das gesamte Budget in nur ein einziges Asset umschichtet (Vermeidung des Error-Maximization-Problems).

5. Out-of-Sample Forecasting: Realität & Transaktionskosten

Im Backtest wird das Trainingsfenster (z.B. alle 21 Tage) weitergerollt. Wenn sich das Portfolio ändert, fallen reale Umschichtungskosten an, die exakt berechnet werden müssen.

 \begin{equation<em>} \mathrm{Turnover}_t = \frac{1}{2} \sum_{k=1}^{K} \left| w_{k,t} - w_{k,t-1} \right| \end{equation<em>}

Erklärung: Der Turnover misst das umgeschlagene Kapital. Die Formel summiert die absoluten Differenzen zwischen dem neuen Ziel-Gewicht w_{k,t} und dem alten Gewicht w_{k,t-1}. Die Division durch 2 korrigiert den Umstand, dass jeder Verkauf automatisch einen Kauf finanziert (das Volumen würde sonst doppelt gezählt).

 \begin{equation<em>} R_{\mathrm{net}, t} = \left( \frac{V_{t+\Delta t}}{V_t} - 1 \right) - (\mathrm{Turnover}_t \cdot c) \end{equation</em>}

Erklärung: Die echte Netto-Periodenrendite R_{\mathrm{net}, t} errechnet sich aus dem Portfoliowert am Ende des Intervalls V_{t+\Delta t} geteilt durch den Startwert V_t. Davon werden die Transaktionskosten subtrahiert, welche sich aus dem Turnover multipliziert mit der prozentualen Gebühr c (Slippage & Ordergebühren, z.B. 0.25%) ergeben.

Quantum ‚Computing‘ Aktien Portfolio Optimierung oder von Quantum Collective Interference: Universalität, Eleganz, Skalierbarkeit

Kurzfassung: Der Beitrag beschreibt, wie sich eine Aktien Portfolioauswahl als Optimierungsproblem formulieren lässt: Ein Bitstring codiert, welche Titel im Portfolio sind, und eine Zielfunktion balanciert Risiko gegen erwartete Rendite. Darauf aufbauend werden zwei Quantenwege gegenübergestellt: Quantum Annealing (z. B. D-Wave) liefert durch einen kontinuierlichen Übergang von Exploration zu Problem schnell viele Kandidatenportfolios als Samples, während QAOA im Gate-Modell über einen parametrierten Schaltkreis Interferenz nutzt, um gute Bitstrings wahrscheinlicher zu machen. Beide Methoden suchen nicht magisch die perfekte Lösung, sondern erkunden denselben Lösungsraum mit unterschiedlichen physikalischen Mechanismen und Auswerteformen. Der Text argumentiert, dass Quantum Computing weniger als Rechnen im klassischen Sinn verstanden werden kann, sondern eher als kollektiver Interferenz- und Resonanzprozess, der Strukturen im Lösungsraum verstärkt.

Dieser Beitrag, inklusive obiger Abbildung, wurde mit Hilfe von ChatGPT erstellt.

Ich beschäftige mich in diesem Blog-Beitrag mit derOptimierung von Aktien Portfolios mittels Quantum Computing‘. Ein LinkedIn-Beitrag zum gleichen Thema brachte mich auf auf diese Idee [1].

Ziel dieses Blog-Beitrages ist es, die verschiedenen Quantum Computing Methoden aufzuarbeiten und soweit sinnvoll und machbar an dem Beispiel der Aktien Portfolio Optimierung auszuprobieren.

Wie meine Blog-Artikel der letzten Jahre zeigen, wende ich Quantum Computing (QC) in verschiedenen Facetten an: Quantum Cognition in der Entscheidungsfindung, Quantum Collective Mind in der Teambildung und Quantum Spiral Dynamics in der Kulturtransformation und der Demokratieanalyse.

Quantum ‚Computing‘ ist als Begriff etwas irreführend, weil er suggeriert, dass ein Quantencomputer wie ein klassischer Computer Schritt für Schritt auf der Basis von Zahlen Zwischenresultate produziert. Im sogenannten QC Gate-Modell passiert jedoch etwas anderes: Ein Quantenzustand wird über viele Quanten Schaltkreise (Quantum Gates) hinweg kohärent weiterentwickelt. Relevant ist z.B. nicht ‚ein Wert nach Gate Nr. 37‘, sondern das Interferenzmuster, das sich über die gesamte Schaltung aufbaut.- QC ist also ganzheitlich ausgelegt. Mathematisch gibt es zwar Zwischenzustände nach jeder Teiloperation, aber ohne Messung sind das keine lesbaren ‚Zwischenergebnisse‘ im klassischen Sinn – jede Messung würde die Dynamik verändern und damit genau die Kohärenz zerstören, auf der der Vorteil beruht. Das Ergebnis liegt daher typischerweise als Ganzes am Ende vor; nämlich als Messstatistik, die bestimmte Bitstrings oder Energien wahrscheinlicher macht als andere. In diesem Sinne ist Quantenrechnen weniger „Rechnen wie gewohnt“, sondern eher eine Form von kohärenter Informationsverarbeitung, bei der viele Pfade gleichzeitig durchlaufen und am Ende durch Interferenz verstärkt oder ausgelöscht werden. Ein Begriff wie „collective interference“ trifft diesen Kern besser.

QC ist universell: In allen QC Verfahren wird der sogenannte Hamiltonian, eine Funktion bzw. ein Operator, der die Energie eines Systems modelliert, verwendet. Jede mathematische Problemstellung lässt sich sich prinzipiell über einen Hamiltonian ausdrücken. Prinzipiell heißt in diesem Fall, dass es möglich ist, aber nicht immer sinnvoll ist, da die Umsetzung extrem schwierig sein kann. Für physikalische Fragestellungen ist der Hamiltonian immer geeignet und oft auch die eleganteste Form der Problemstellung: Es wird nach der niedrigsten Energie in einer Energielandschaft, ähnlich einer Gebirgslandschaft, gesucht. Die niedrigste Energie in einer Energielandschaft ist oft der ‚Aufenthaltsort‘ natürlicher Systeme.
Es gibt aber auch eine große Anzahl an klassischen Problemen, für die die Formulierung eines Hamiltonian einfach und elegant ist. Zum Beispiel gehören dazu: u. a. Aktion Portfolio Optimierung, Logistische Optimierungen oder Ressourcenoptimierung im Projektmanagement. In diesen Fällen wird das klassische Optimierungsproblem auf ein quantenmechanisches Optimierungsproblem transferiert und mittels QC nach dem Zustand gesucht, der die niedrigste Energie hat. Dieser Zustand repräsentiert die Lösung für das klassische Optimierungsproblem. Sind die Datenmengen gering, so ist der Einsatz von QC nicht nötig, steigen die Datenmengen so ist QC skalierbar; klassische Verfahren sind dies oft nicht mehr. Ich arbeite für die Aktien Portfolio Optimierung mit einer kleinen Watchliste von 20 Aktien und möchte daraus ein optimiertes Aktienportfolio von 4 Aktien erstellen. Selbst klassische Verfahren haben hiermit kein Problem und für die QC Methoden, die ich vorstelle, liegen die Simulationen auf einem gut ausgestatteten Laptop (also ohne QC Hardware) typischer Weise im Rechenzeit-Bereich von Minuten bis ca. einer Stunden. – Eine solche Problemstellung benötigt also noch nicht einmal eine QC Simulation auf einem klassischen Computer geschweige denn eine QC Hardware. Würden wir aber zum Beispiel 2000 Aktien in die Watchliste aufnehmen und wollten die 20 besten Aktien auswählen, sähe die Situation völlig anders aus: Falls wir keine Vorauswahl unter den 2000 Aktien treffen, müssten 10 hoch 47 Möglichkeiten überprüft werden. Dies ist außerhalb jeglicher klassischer Möglichkeiten. Ab einer Watchliste von ungefähr 60-70 Aktien sind klassische Verfahren ungeeignet.

Auch QC Hardware Systeme erlauben heute noch nicht solche Fragestellung zu behandeln, da mindestens 2000 Qubits (eher viel mehr) notwendig sind, um die klassische Fragestellung in eine QC Fragestellung umzusetzen. – Jedoch gibt es einen wesentlichen Unterschied: QC Methoden haben keine prinzipielle Schranke und sobald fehlertolerante QC Hardware vorhanden ist, können auch solche Fragestellungen beantwortet werden. Es gibt schon heute QC Hardware-Systeme, die für viele Optimierungsprobleme gut geeignet sind, nämlich die sogenannten Annealing Optimierer von D-Wave. Man siehe auch meine vergangenen Blog-Beiträge, in denen ich diese Systeme benutzt habe [2, 3, 4].
QC Methoden sind also in Bereichen skalierbar, in die klassische Methoden prinzipiell nicht vordringen können! – Die Beschäftigung mit diesen Methoden ist deshalb auch heute schon sinnvoll: QC wird in naher Zukunft zusammen mit AI Wissenschaft und Innovation revolutionieren.

Quanten Computing kennt aktuell vier verschiedene Methoden, drei davon basieren auf Quanten Schaltkreisen und eine auf Adiabatischer Optimierung. – Ich verweise auch auf die Anhänge 1 und 2 mit einer tabellarischen Übersicht zu den vier Methoden, einem kleinen Glossar und einer Methoden Formelsammlung:

QAOA (Quantum Approximate Optimization Algorithm)

QAOA ist eine Gate-Methode für Optimierungsprobleme, bei der eine Zielfunktion in einen Hamiltonian umgesetzt wird und eine Energie Verteilung nach Wahrscheinlichkeiten ermittelt wird. Die wahrscheinlichste und niedrigste Energie repräsentiert die Lösung. Jede Lösung wird als Bitstring (0/1-Folge) dargestellt, z. B. „Asset gewählt“ = 1, „nicht gewählt“ = 0. QAOA baut einen Quanten-Schaltkreis aus wiederholten Schaltkreis Blöcken. Jeder Block enthält einen Problem-Schritt, der gute Lösungen bevorzugt, und einen Misch-Schritt, der hilft, in möglichst der gesamte Energielandschaft nach der niedrigsten Energie zu suchen.
Die einstellbaren
Optimierungsparameter sind Winkel in sogenannten Rotationsgattern, z. B. dreht ein Gate den Qubit-Zustand entlang einer Achse (x-, y- Achse) um einen Winkel. – Dies erzeugt einen neuen Zustand und damit eine Bewegung innerhalb der Energielandschaft. Eine klassische Optimierungsschleife probiert Parameterwerte aus und verbessert sie so, dass beim Messen möglichst häufig tiefe Energien, also ‚gute‘ Bitstrings, auftreten. Meistens ist es notwendig, den Quanten Schaltkreis mehrmals hintereinander zu setzen. Man spricht von Schaltkreis-Schichten, die das Ergebnis verbessern.

VQE (Variational Quantum Eigensolver)

VQE ist eine Gate-Methode und wird genutzt, um für ein gegebenes Modell (oft ein physikalischer Hamiltonian) den Grundzustand zu finden. Der Grundzustand ist der Zustand mit der niedrigsten Energie. Man wählt für den Hamiltonian eine parametrisierte Ansatz Schaltung: Mit einstellbaren Parametern (wieder häufig Rotations-Winkel) werden möglichst viele Zustände erzeugt.
Eine
klassische Optimierungsschleife verändert die Ansatz Parameter so lange, bis die gemessene Energie minimal wird. VQE ist besonders attraktiv auf heutiger Hardware, weil es keine extrem langen Schaltkreise voraussetzt.

QPE (Quantum Phase Estimation)

QPE ist eine Gate-Präzisionsmethode, um Eigenwerte (z. B. Energien) eines Hamiltonians zu bestimmen. Man betrachtet hierfür die Zeitentwicklung eines sogenannten Eigenzustandes (U=e^{-iHt}). Wenn ein Zustand ein Eigenzustand ist, bekommt er unter U nur eine Phase (eine Art „Drehwinkel“ im komplexen Zahlenraum) – diese Phase hängt direkt mit der Energie zusammen.
QPE nutzt ein
Zusatzregister, das Qubit Phasenregister, das am Ende eine Binärzahl enthält (z. B. 010101…), die die Energie kodiert. Dafür benötigt man kontrollierte Zeitentwicklungen und viele präzise Operationen. Darum ist QPE zwar theoretisch sehr stark, aber praktisch auf NISQ-Hardware meist schwierig, weil es sehr rauschempfindlich ist. Diese Methode ergänzt die anderen Methoden, denn es ist notwendig mit einem ‚guten‘ Eigenwert zu starten, um diesen dann sehr genau zu vermessen.

D-Wave / Quantum Annealing (Adiabatische Optimierung)

Die QC Methode Quantum Annealing basiert nicht auf Gates, sondern auf einem Qubit-Netzwerk: Die Qubits sind in dem Netzwerk ähnlich wie die atomaren Magnete eines Ferromagneten verbunden. Zuerst werden die Qubits mittels eines externen Magnetfeldes in einen ‚ferromagnetischen‘ Anfangszustand gebracht. Das externe Magnetfeld wird als Driver bezeichnet und hat eine ähnliche Funktion wie der Mixer in der QOAO-Methode: Mittels eines zeitlichen Fahrplans wird der Driver sehr langsam Schritt für Schritt (adiabatisch) ausgeschaltet und der Problem-Hamiltonian angeschaltet. Man nennt diesen Vorgang auch Annealing (in Analogie zum Abkühlen/Ausglühen bei klassischen Phasenübergängen).
In der Praxis wird der Annealing Prozess sehr oft durchgeführt. Man erhält typischerweise viele Samples: also viele gemessene Bitstrings mit den daraus ermittelten Energien und Häufigkeiten. Diese Informationen repräsentieren die Struktur der Energielandschaft.
Da man kein Qubit-Netzwerk aufbauen kann, in dem jedes Qubit mit jedem verbunden ist, muss man Kompromisse schließen: Dieses sogenannte Embedding sollte möglichst gut zur Optimierungsaufgabe passen. Weil die Hardware eine feste Verbindungsstruktur hat, werden oft Problemanforderungen durch mehrere physikalische Qubits als „Kette“ repräsentiert. Sieht man von diesen Hardwareproblemen ab, so ist die Adiabatische Optimierung schon heute für viele (klassische) Optimierungsprobleme einsetzbar [5].

Da die Aktien Portfolio Optimierung kein quantenmechanisches System darstellt, sondern eine klassische Problemstellung, entfallen die beiden Methoden VQE und QPE und es bleiben für die Aktien Portfolio Optimierung die beiden Methoden QAOA und Quantum Annealing übrig. Mittels ChatGPT implementiere ich QAOA für das IBM System Qiskit [6] und Quantum Annealing für das D-Wave System [5].

Ich habe für diesen Blog lediglich 20 Assets ausgewählt und möchte aus diesen 20 Assets die 4 Assets auswählen, die das geringste Risiko und die höchste Rendite ergeben. Ich nehme der Einfachheit für diesen Blog an, dass alle Assets mit gleichen Gewichten in das Portfolio eingehen.- Eine Erweiterung auf ungleiche Gewichte könnte ein Thema für einen weiteren Blog sein.
Ich verwende Kurs Daten der letzte 252 Tage von yahoo finance. Die Rendite bzw. die Kurse der Assets gehen als lineare Terme in den Hamiltonian ein. Zusätzlich wird aus den yahoo finance Daten eine Kovarianzmatrix ermittelt, die die Risiken und deren Abhängigkeiten abbildet. Der Hamiltonian wird sowohl für das QAOA Modell als auch für das Quantum Annealing Modell in ein Ising Modell transformiert. Im Ising Modell geht die Kovarianzmatrix in die Paar-Kopplungsmatrix Jij über (man siehe hierfür die Formeln Anhang 2).

Die nachfolgende Tabelle 1 enthält die ausgewählten Assets:

Asset KürzelBeschreibung (.Börse)
AAPLApple
AMZNAmazon
GOOGLGoogle
NVDANvidia
QBTSD-Wave Quantum
^DJIDow Jones
^GDAXIDAX
^IXICNASDAQ
MSF.DEMicrosoft. Deutschland
^MDAXIMDAX
^TECDAXTECDAX
RHM.DERheinmetall AG. Deutschland
EOS.AXElectro Optics Systems Holding. Australien
DRH.FDroneShield. Frankfurt
MBB.DEMBB SE. Deutschland
RGTIRigetti Computing
OBCK.DUOttobruck SE. Düsseldorf
IONQIonQ
5Q5.DESnowflake. Deutschland
ASM.FASML Holding. Frankfurt

Tabelle 1: Liste der Watchlist-Assets mit Daten von yahoo finance, die über die Python Funktion yfinance geladen werden. Die zum Zeitpunkt der Ausführung des Programms rückwirkend verfügbaren 252 Daten pro Asset werden verwendet. Falls nicht genug Daten für ein Asset vorliegen, wird dieses Asset in dem QC nicht berücksichtigt. Zum Zeitpunkt der im Blog durchgeführten Berechnungen waren für die Assets OBCK.DU und ASM.F nicht genügend Daten vorhanden. Ich habe die Watchliste trotzdem nicht verändert, da der Blog keine Finanzberatung darstellt, und zu einem späteren Berechnungs-Zeitpunkt dieser Ausschluss automatisch wegfällt.

Nun zu den Ergebnissen:

IBM QAOA mit 2 Schaltkreis-Schichten (p = 2)

Die 2 Schaltkreis Schichten führen insgesamt zu einem gewaltigen Schaltkreis von 35 nebeneinander gelegten DIN A4 Seiten. Das führt in der Simulation zu Rechenzeiten von mehr als einer Stunde auf meinem Laptop.

Das Ergebnis ist nicht wirklich gut: Die wahrscheinlichsten Energien sind positiv: Diese Energien sind also Berggipfel. Es gibt eine negative Energie, jedoch mit geringer Wahrscheinlichkeit: Das so ermittelte ‚gute‘ Portfolio besteht aus Apple, Google, RHM.DE und MDAXI mit einer prognostizierten Jahresrendite von 65% und einer Volatilität von 20%. Dieses Ergebnis stimmt nicht mit dem D-Wave Ergebnis überein und ist deutlich schlechter als dieses.

D-Wave Quantum Annealing

Die Quantum Annealing Simulation ist schlank, was sich in einer Rechenzeit von ca. 10 Minuten auf meinem Laptop niederschlägt. Es wird ein Energieminimum gefunden, das sehr nahe am Ergebnis einer Brute Force Berechnung liegt. Die Brut Force Methode schlägt als Portfolio folgende Assets vor: EOS.AX, Google, MBB.DE, RHM.DE. Das Quantum Annealing ermittelt: Google, MBB.DE, RHM.DE, ^DJI. Dieses Portfolio hat eine prognostizierte Jahresrendite von 95% und eine Volatilität von 23%.

Selbst eine intensive Suche nach Ursachen für das ‚schlechte‘ Resultat der QOAO Methode brachte keine Ergebnisse. – Die KI-Systeme Claude und Mistral als Qualitätssicherer erzeugten zwei ‚korrigierte‘ Programme, die völlig unsinnige Resultate lieferten.
Eine QC Simulation auf meinem Laptop für das QAOA Programm mit mehr als 2 Schichten steigert die Rechenzeit nochmals merklich, so dass ich diese abbrach. Ein erster Test auf der IBM Hardware mit einem geschenkten Budget von 10 Minuten (die Kosten betragen aktuell ca. 20 Euro/Sekunde!) brachte eher Frustration: Die IBM-Infrastruktur kennt wieder Jobs, wie vor Jahrzehnten. D.h. auch, die QC Software, die man für die Simulation verwendet, kann nicht ohne (größere) Änderungen für die Hardware verwendet werden. Da ich dies nicht wusste, war mein Budget ohne Ergebnis im Handling zwischen QC Hardware und klassischer Hardware ‚verschwunden‘.

Diese Ergebnisse sind sicherlich nicht perfekt, jedoch zeigen sie Potential für weitere Blog-Beiträge!

[1] Dominika Pillerova https://www.linkedin.com/feed/update/urn:li:activity:7390849746438955009?utm_source=share&utm_medium=member_ios&rcm=ACoAAADwjS8Blpat6RQsfTtvnIu1lnZS6K7fuLk
[2] AI & QC & M 4.0: Alles Quantum? oder von Quantum Computing Modell-Archetypen, Dezember 2024,
https://agilemanagement40.com/ai-qc-m-4-0-alles-quantum-oder-von-quantum-computing-modell-archetypen
[3] AI & QC & M 4.0: Quantum Cognition für das Team-Management oder von der Macht der Mathematik, Oktober 2024,
https://agilemanagement40.com/ai-qc-m-4-0-quantum-cognition-fuer-das-team-management-oder-von-der-macht-der-mathematik
[4] AI & QC & M 4.0: Die Welt der Unbestimmtheit nutzen oder vom Nutzen des Quantum Computing für das Team-Management, Oktober 2024,
https://agilemanagement40.com/ai-qc-m-4-0-die-welt-der-unbestimmtheit-nutzen-oder-vom-nutzen-des-quantum-computing
[5] D-Wave Quantum, www.dwavequantum.com
[6] IBM Qiskit, https://quantum.cloud.ibm.com/

Anhang 1

Kleines Glossar

Annealing/Quantum Annealing (D-Wave): Das System startet in einem leicht vorbereitbaren Zustand (Driver) und wird über einen Zeitplan zum Problem-Hamiltonian geführt, sodass am Ende möglichst niedrige Energien herauskommen.
Basiszustand (Ground State): Der Zustand mit der niedrigsten Energie eines Hamiltonians.
Bitstring: Ein Messergebnis als 0/1-Folge, z. B. 1010. In Optimierungsproblemen entspricht ein Bitstring oft einer Auswahlentscheidung („1 = gewählt, 0 = nicht gewählt“).
Constraint (Nebenbedingung): Eine Zusatzregel wie ‚genau x Aktien auswählen‘. Wird oft über Strafterm (Penalty) oder spezielle Mixer umgesetzt.
Chain (Kette): Mehrere physikalische Qubits, die gemeinsam eine logische Variable repräsentieren. Ketten können „brechen“, dann braucht man Nachbearbeitung.
Dekohärenz: Verlust von Quanteneigenschaften (Superposition/Phase) durch Wechselwirkung mit der Umgebung – „Welleninformation verwischt“.
Driver-Hamiltonian: Beim Annealing der Teil, der Exploration/Superposition erzeugt. Er wird im Zeitplan zugunsten des Problem-Hamiltonians zurückgefahren.
Embedding: Abbildung eines logischen Problems auf die feste Kopplungsstruktur der Annealer-Hardware, oft mit Ketten mehrerer Qubits pro Variable.
Erwartungswert: Statistischer Mittelwert einer Messgröße (z. B. mittlere Energie).
Fault-tolerant (fehlertolerant): Rechner kann lange Berechnungen zuverlässig ausführen, weil Fehler aktiv erkannt und korrigiert werden.
Fehlerkorrektur (Error Correction): Methoden, um logische Qubits gegen Fehler zu schützen; benötigt viele physikalische Qubits pro logischem Qubit.
Gate (Quanten-Gatter): Elementare Operation, die Amplituden und Phasen verändert – Baustein eines Quanten-Schaltkreises.
Hamiltonian (H): Mathematische Beschreibung der Energie eines Systems. In Optimierungen wird H so gebaut, dass niedrige Energie = gute Lösung.
Hamming-Gewicht: Anzahl der Einsen in einem Bitstring. Beispiel: 10110 hat Gewicht 3. Wichtig bei ‚wähle genau x Assets‘.
Hybrid-Algorithmus: Kombination aus Quanten-Teil und klassischem Teil (z. B. Quantenmessung + klassischer Optimierer bei QAOA/VQE).
Interferenz: Überlagerung von Wellenwegen: Manche verstärken sich, andere löschen sich aus. Das ist der Kern von Quantenalgorithmen.
Ising-Modell: Optimierungsform mit Spins (s_i, i ={+1,-1}), eng verwandt mit QUBO. Viele Quanten-Optimierer nutzen diese Darstellung.
Klassische Schleife (Optimierungsschleife): Wiederholtes Anpassen von Parametern durch einen klassischen Optimierer, basierend auf Messdaten (typisch bei QAOA/VQE).
Problem-Hamiltonian/Kosten-Hamiltonian: Der Hamiltonian, der die Zielfunktion kodiert (z. B. mittels Risiko und Rendite). Definiert, was „gut“ ist.
Messung (Measurement): Schritt, der aus dem Quantenzustand klassische 0/1-Ergebnisse macht. Für Wahrscheinlichkeiten braucht man viele Wiederholungen.
Mixer-Hamiltonian (QAOA): Teil des QAOA, der Zustände „durchmischt“, um Exploration zu ermöglichen (z. B. X- oder XY-Mixer).
NISQ (Noisy Intermediate-Scale Quantum): Heutige Gerätegenerationen sind noisy und damit noch nicht zuverlässig genug um tiefe Algorithmen abzubilden
Noise (Rauschen): Sammelbegriff für Fehlerquellen (Dekohärenz, Gate-Fehler, Messfehler), die die Berechnung verfälschen.
Output-Verteilung: Statt eines einzigen Ergebnisses erhält man eine Verteilung (Histogramm) über Bitstrings; gute Lösungen mit niedriger Energie sollten häufiger auftreten.
Parameter / Schaltkreis-Winkel: Einstellbarer Zahlenwert in Rotationsgattern (Drehwinkel). QAOA/VQE suchen die besten Werte.
Penalty (Strafterm): Zusätzliche Energie, die unerwünschte Lösungen teuer macht (z. B. falsche Anzahl gewählter Assets).
Phase: Winkel-Information eines Quantenzustands. Phasen steuern Interferenz und sind zentral für QC-Algorithmen.
Phasenregister: Zusatz-Qubits, in denen QPE eine Zahl (Phase/Energie) in Binärform speichert.
QUBO (Quadratic Unconstrained Binary Optimization): Optimierung mit binären Variablen (x_i in {0,1}) und quadratischen Kopplungen (x_i*x_j).
Schaltkreis (Quantum Circuit): Abfolge von Quanten Gattern, die Qubits verändern; am Ende wird meist gemessen.
Shots: Anzahl der Wiederholungen derselben Schaltung. Mehr Shots = bessere Statistik, aber höhere Kosten/Laufzeit.
Superposition: Ein Qubit kann gleichzeitig in Anteilen von 0 und 1 sein. Grundlage für paralleles Durchlaufen vieler Möglichkeiten.

Übersicht zu den vier QC Methoden

AspektD-Wave (Quantum Annealing)QAOAVQEQPE
Typische AnwendungsbereicheKombinatorische Optimierung als QUBO/Ising (z. B. Portfolio-Auswahl, Scheduling, Routing, Zuordnungsprobleme), Sampling aus vielen ‚guten‘ Lösungen (Landschaft/Regime erkunden)Kombinatorische Optimierung auf Gate-Hardware: ähnlich wie Quantum AnnealingGrundzustand-Suche / Energie-Minimierung für Modelle (Chemie, Materialien, kleine Hubbard-Modelle), auch als Optimierer nutzbar, wenn die Zielfunktion als Hamiltonian messbar istPräzise Eigenwert-/Spektralanalyse (Energien, Phasen), wichtig als Diagnose-Tool in der Theorie und bei fehlertoleranter Hardware (Chemie/Physik, langfristig auch QFT/Simulation)
Basis (Hardware)Annealing (zeitabhängiger Hamiltonian)Gate-SchaltkreisGate-SchaltkreisGate-Schaltkreis
Grundidee Maschine fährt einen Zeitplan: von „Exploration“ (Driver) zu „Problemenergie“ (Ziel)Wiederholt zwei Schritte: (1) Problemenergie „prägen“, (2) Zustände „mischen“Baue einen Probe-Zustand mit Parametern und minimiere die gemessene mittlere EnergieLässt den Zustand unter H ‚laufen‘ und liest die Phase aus → Energie als Binärzahl
Wie das Problem modelliert wirdDirekt als Ising/QUBO-Energie auf der Hardware (plus Einbettung/Embedding)Als Problem-Hamiltonian + Mixer-Hamiltonian als Schaltkreise Als Hamiltonian H, dessen Erwartungswert gemessen wirdAls Zeitentwicklung (U=e^{-iHt})
Rolle von Driver/MixerDriver erzeugt Exploration, ist aber im Zeitplan mit dem Problem ‚verblendet‘Mixer sorgt für Exploration (z. B. X- oder XY-Mixer)Kein Mixer: Exploration kommt über die Ansatz-Familie + klassische Parameter-SucheKein Mixer: Fokus ist präzises Auslesen der Energie/Phase
‚Zeit‘ im AlgorithmusKontinuierlich (adiabatischer/ annealender Verlauf)Diskret in Schichten (diskrete Annäherung an Annealing)Keine physikalische Zeit nötig; nur Zustandspräparation + MessungExplizite Zeitentwicklung ist zentraler Bestandteil
Braucht klassische Optimierung in der Schleife?Nein: man macht viele Runs/Samples und wählt ausJa: klassische Optimierung der Schaltkreis-ParameterJa: klassische Optimierung der Ansatz-ParameterMeist nein; ggf. Wiederholungen für Genauigkeit/ Parameterwahl
Was kommt am Ende raus?Viele Bitstring-Samples + Energien/HäufigkeitenVerteilung über Bitstrings (gute Lösungen häufiger)Erwartungswerte, v. a. mittlere EnergieEnergie als Binärzahl im Phasenregister (sehr präzise)
Stärken Schnell viele Kandidaten; gut zum Erkunden einer komplexen LösungslandschaftGute NISQ-Heuristik für Optimierung; Schaltkreis AnnealingSehr nützlich für Grundzustände auf NISQ; flexibel über AnsatzHöchste Präzision für Spektren, wenn Hardware fehlerarm ist
SchwächenEmbedding kann teuer sein; kalibrierungs-sensitivViele Messungen/ Iterationen; Ergebnis ist heuristischMessaufwand; Ansatz kann „zu eng“ seinGroße Schaltkreistiefe; extrem rauschsensitiv (heute schwer)
Hardware-AnforderungSpezial-AnnealerNISQ-Gate-HardwareNISQ-Gate-HardwareIn der Praxis meist fehlertolerant nötig

Anhang 2
Formeln der vier QC Methoden

Gemeinsame Basis (QUBO/Ising)

    \begin{equation*}E_{\mathrm{QUBO}}(x)=ax + x^{\mathsf T}Qx+c \qquad x \in \{{0,1}\}^N\end{equation*}\begin{equation*}\text{Energie einer 0/1-Lösung }x\end{equation*}\begin{equation*}\text{Ziel ist Minimierung von }E_{\mathrm{QUBO}}\end{equation*}

    \begin{equation*}s_i=1-2x_i\quad\Longleftrightarrow\quad x_i=\frac{1-s_i}{2},\qquad s_i\in{+1,-1}\end{equation*}\begin{equation*}\text{Umrechnung: Bit }x_i\text{ (0/1) zu Ising-Spin }s_i\text{ (+1/-1)}\end{equation*}

    \begin{equation*}E_{\mathrm{Ising}}(s)=C+\sum_{i=1}^{N}h_is_i+\sum_{1\le i<j\le N}J_{ij}s_is_j\end{equation*}\begin{equation*}\text{Ising-Energie mit Feldern }h_i\text{ und Paar-Kopplungen }J_{ij}\end{equation*}

    \begin{equation*}\hat H_{\mathrm{Ising}}=\sum_{i=1}^{N}h_i\hat Z_i+\sum_{1\le i<j\le N}J_{ij}\hat Z_i\hat Z_j\end{equation*}\begin{equation*}\text{Problem-Hamiltonian im Gate-Modell}\end{equation*}\begin{equation*}\text{Diagonalisierung in der Z-Basis}\end{equation*}


QAOA

    \begin{equation*}\vert\psi(\boldsymbol{\gamma},\boldsymbol{\beta})\rangle=\hat U_{\mathrm{QAOA}}(\boldsymbol{\gamma},\boldsymbol{\beta})\vert\psi_0\rangle\end{equation*}\begin{equation*}\text{QAOA-Zustand aus Startzustand }\vert\psi_0\rangle\end{equation*}\begin{equation*}\text{und parametrischer Entwicklung } \hat U_{\mathrm{QAOA}}\end{equation*}

    \begin{equation*}\hat U_{\mathrm{QAOA}}(\boldsymbol{\gamma},\boldsymbol{\beta})=\prod_{\ell=1}^{p}\exp\bigl(-i\beta_\ell\hat H_{\mathrm{mixer}}\bigr)\exp\bigl(-i\gamma_\ell\hat H_{\mathrm{problem}}\bigr)\end{equation*}\begin{equation*}\text{p Schichten: Problem-Schritt (}\hat H_{\mathrm{problem}}\text{)}\end{equation*}\begin{equation*}\text{und Misch-Schritt (}\hat H_{\mathrm{mixer}}\text{)}\end{equation*}

    \begin{equation*}\hat H_{\mathrm{mixer}}^{(X)}=\sum_{i=1}^{N}\hat X_i\end{equation*}\begin{equation*}\text{Standard-Mixer: erzeugt Exploration durch Bit-Flips}\end{equation*}\begin{equation*}\text{in Superposition (X-Anteil)}\end{equation*}

    \begin{equation*}\hat H_{\mathrm{mixer}}^{(XY)}=\sum_{(i,j)\in\mathcal{E}}\frac{1}{2}\bigl(\hat X_i\hat X_j+\hat Y_i\hat Y_j\bigr)\end{equation*}\begin{equation*}\text{XY-Mixer: mischt Zustände, kann aber z.B.}\end{equation*}\begin{equation*}\text{das Hamming-Gewicht in Sektoren erhalten}\end{equation*}

    \begin{equation*}E_{\mathrm{QAOA}}(\boldsymbol{\gamma}\boldsymbol{\beta})=\langle\psi(\boldsymbol{\gamma}\boldsymbol{\beta})\vert\hat H_{\mathrm{cost}}\vert\psi(\boldsymbol{\gamma}\boldsymbol{\beta})\rangle+C\end{equation*}\begin{equation*}\text{Ziel: mittlere Energie des Zustands minimieren}\end{equation*}\begin{equation*}\text{C ist eine Konstante aus dem Mapping}\end{equation*}

    \begin{equation*}(\boldsymbol{\gamma}^{\ast}\boldsymbol{\beta}^{\ast})=\arg\min_{\boldsymbol{\gamma}\boldsymbol{\beta}}E_{\mathrm{QAOA}}(\boldsymbol{\gamma}\boldsymbol{\beta})\end{equation*}\begin{equation*}\text{Klassische Optimierung der Parameter}\end{equation*}\begin{equation*}\boldsymbol{\gamma\boldsymbol{\beta}}\text{ oft Rotationswinkel in Gates}\end{equation*}


VQE

    \begin{equation*}\vert\psi(\boldsymbol{\theta})\rangle=\hat U(\boldsymbol{\theta})\vert 0\cdots 0\rangle\end{equation*}\begin{equation*}\text{Ansatz-Schaltkreis }\hat U(\boldsymbol{\theta})\end{equation*}\begin{equation*}\text{als parametrische Familie von Probe-Zuständen}\end{equation*}

    \begin{equation*}E_{\mathrm{VQE}}(\boldsymbol{\theta})=\langle\psi(\boldsymbol{\theta})\vert\hat H\vert\psi(\boldsymbol{\theta})\rangle\end{equation*}\begin{equation*}\text{VQE minimiert die gemessene mittlere Energie von }\hat H.\end{equation*}

    \begin{equation*}\boldsymbol{\theta}^{\ast}=\arg\min_{\boldsymbol{\theta}}E_{\mathrm{VQE}}(\boldsymbol{\theta})\end{equation*}\begin{equation*}\text{Klassische Schleife: Parameter }\boldsymbol{\theta}\end{equation*}\begin{equation*}\text{ werden so angepasst, dass }E_{\mathrm{VQE}}\text{ klein wird}\end{equation*}

    \begin{equation*}\hat H=\sum_{k}c_k\hat P_k,\qquad \hat P_k\in{I,X,Y,Z}^{\otimes N}\end{equation*}\begin{equation*}\text{Zerlegung in messbare Operator-Produkte (Pauli-Produkte): jedes }\end{equation*}\begin{equation*}\hat P_k\text{ ist ein Produkt aus }I,X,Y,Z.\end{equation*}

    \begin{equation*}E_{\mathrm{VQE}}(\boldsymbol{\theta})=\sum_{k}c_k\langle\psi(\boldsymbol{\theta})\vert\hat P_k\vert\psi(\boldsymbol{\theta})\rangle\end{equation*}\begin{equation*}\text{Erwartungswert von }\hat H\end{equation*}\begin{equation*}\text{ als Summe einzelner Mess-Erwartungswerte zu den Termen }\hat P_k.\end{equation*}


QPE

    \begin{equation*}\hat U(t)=e^{-i\hat H t}\end{equation*}\begin{equation*}\text{Zeitentwicklung unter }\hat H\end{equation*}\begin{equation*}\text{QPE benötigt kontrollierte Anwendungen von }\hat U(t)\end{equation*}

    \begin{equation*}\hat U(t)\vert E_n\rangle=e^{-iE_n t}\vert E_n\rangle\end{equation*}\begin{equation*}\text{Eigenzustand }\vert E_n\rangle\end{equation*}\begin{equation*}\text{die Energie }\vert E_n\rangle \text{ erscheint als Phase }e^{-iE_n t}\end{equation*}

    \begin{equation*}e^{-iE_n t}=e^{2\pi i\varphi_n}\quad\Longrightarrow\quad \varphi_n\equiv-\frac{E_n t}{2\pi},(\mathrm{mod 1})\end{equation*}\begin{equation*}\text{QPE schätzt die Phase }\varphi_n\text{ (als Binärzahl im Phasenregister)}\end{equation*}

    \begin{equation*}E_n\approx-\frac{2\pi}{t}\varphi_n\end{equation*}\begin{equation*}\text{Rekonstruktion der Energie aus der gemessenen Phase}\end{equation*}\begin{equation*}\text{bei geeignet gewähltem }t\end{equation*}


Quanten-Annealing (D-Wave / adiabatisch)

    \begin{equation*}\hat H(t)=A(t)\hat H_{\mathrm{driver}}+B(t)\hat H_{\mathrm{problem}}\end{equation*}\begin{equation*}\text{Anneal-Fahrplan: Driver-Anteil (Exploration) wird reduziert}\end{equation*}\begin{equation*}\text{Problem-Anteil wird erhöht}\end{equation*}

    \begin{equation*}\hat H_{\mathrm{driver}}=-\sum_{i=1}^{N}\hat X_i\end{equation*}\begin{equation*}\text{Typischer Driver: erzeugt Superposition/Exploration}\end{equation*}\begin{equation*}\text{funktional analog zur Mixer-Idee}\end{equation*}

    \begin{equation*}\hat H_{\mathrm{problem}}=\sum_{i=1}^{N}h_i\hat Z_i+\sum_{1\le i<j\le N}J_{ij}\hat Z_i\hat Z_j\end{equation*}\begin{equation*}\text{Problem-Hamiltonian kodiert die Ising-Energie als Ziel}\end{equation*}

    \begin{equation*}\hat U(T)=\mathcal{T}\exp\left(-i\int_{0}^{T}\hat H(t),dt\right)\end{equation*}\begin{equation*}\text{Ideale geschlossene Dynamik; }\end{equation*}\begin{equation*}\mathcal{T}\text{ bezeichnet Zeitordnung (Reihenfolge der Zeiten).}\end{equation*}


QAOA als Annäherung an eine Annealing-Dynamik

    \begin{equation*}\mathcal{T}\exp\left(-i\int_{0}^{T}\hat H(t)dt\right)\approx\prod_{\ell=1}^{p}\exp\bigl(-i\beta_\ell\hat H_{\mathrm{driver}}\bigr)\exp\bigl(-i\gamma_\ell\hat H_{\mathrm{problem}}\bigr)\end{equation*}\begin{equation*}\text{kontinuierliche Annealing-Dynamik durch p Schritte angenähert}\end{equation*}

Zur unterschiedlichen Verwendung des Begriffes Annealing:
QAOA kann man als ‚Schaltkreis-Annealing‘ verstehen: Statt eines kontinuierlichen Zeitplans gibt es diskrete Schichten. Jede Schicht besteht aus einem Schritt mit dem Problem-Hamiltonian (bewertet gute/schlechte Lösungen) und einem Schritt mit einem Mixer-Hamiltonian. Dieser erzeugt eine Exploration in der Energie-Landschaft, ähnlich wie der Driver-Hamiltonian. QAOA Annealing bedeutet das klassische Optimieren von einstellbaren Parametern in Schaltkreisen (Schaltkreis-Winkel).
In beiden Fällen, QAOA und Quantum Annealing, wird das klassische Optimierungsproblem in einen Ising Hamiltonian umgesetzt. Im Falle von QAOA wird dieser als QC-Schaltkreis implementiert, im Falle von Quantum Annealing als Qubit-Netzwerk.

AI & QC & M 4.0: Alles Quantum? oder von Quantum Computing Modell-Archetypen

Ein beeindruckender Podcast, erstellt von NotebookLM, fasst den Blog-Beitrag in englischer Sprache zusammen:

 

‚Alles Quantum?‘, Hinter dieser Frage verbirgt sich eine der spannendsten ungelösten Fragen der Physik: Gibt es eine einheitlich Quanten-Theorie, die die Welt des Kleinen (Quanten) und die Welt des Großen (Klassisch) integriert? Seit ungefähr 100 Jahren wird nach einer solchen Theorie gesucht.

Abbildung 0: Bild erzeugt mittels Dall-E: Die 7 Modelle des Blog-Artikels symbolisch dargestellt als Wissenschaftler, die um Erkenntnis kämpfen. Die Darstellung zeigt die Wissenschaftler auf einem futuristischen, quantenmechanischen Schlachtfeld.

In diesem Blog gehen wir es viel unbedeutender an: Ich stelle die von mir bisher erstellten Collective Mind Modelle (CM Modelle) aus der Welt der Quanten und der ‚klassischen‘ Welt zusammen und beleuchte deren Aussagemöglichkeiten. Diese Modelle lassen sich in drei Kategorien einteilen: Quantum-Modelle, die vollständig auf Prinzipien der Quantenmechanik beruhen. – Klassische Modelle, die keine Prinzipien der Quantenmechanik enthalten. – Hybride Modelle, die Prinzipien der Quantenmechanik und der klassischen Welt enthalten. Diese drei Modell-Kategorien zeigen in ihren Aussagemöglichkeiten verschiedene Potentiale, werfen teilweise neue Fragen auf und gehen damit deutlich über ihre Grenzen hinaus. Die vorgestellten Modell sind Modell-Archetypen, die ähnlich in völlig anderen wissenschaftlichen oder industriellen Anwendungsbereichen verwendet werden. Alle Modelle wurden unter großer Mithilfe von ChatGPT-o1 erstellt. Die Menge aber auch die völlig unterschiedlichen Modell-Herangehensweise, erstellt in einer erstaunlich kurzen Zeit, verdeutlichen die enorme Leistungssteigerung der hybriden kollektiven Intelligenz von Maschine und Mensch:   

Modell 1 – Agent Based Modelling der Teaminteraktionen: Dieses (bisher) klassische Modell verwendet Agent Based Modelling, um Team-Interaktionen zu beleuchten. Mitglieder eines Teams werden als Agenten modelliert. Agenten sind (stark vereinfachte) Repräsentanten von Menschen. Im Blog vom Juni 2023 ‚AI & M 4.0: (Collective Intelligence)**2 – Collective Mind Agent Based Model mit GPT-4/chatGPTplus’ wird ein Team mit 7 Teammitgliedern und einer unterschiedlichen Anzahl an Stakeholdern modelliert. Den Teammitgliedern werden feste MBTI Persönlichkeitsmerkmale zugewiesen und die Stakeholder erhalten per Zufall gemäß der MBTI Verteilung in der westlichen Welt ihre Persönlichkeit. Jedem der Agenten wird per Zufall eine 3-Ebenen Ziel-Hierarchie, bestehend aus einer abstrakten Zeichenkette pro Ebene, zugewiesen. Der Collective Mind (CM) im Team und auch im Stakeholder-Umfeld ist maximal, wenn alle Teammitglieder im Team (und im Stakeholder-Umfeld) die gleiche Ziel-Hierarchie haben. Der Kommunikationsaustausch wird durch die Persönlichkeitsprofile und eine Lernrate (getrennt nach Team und Stakeholdern) bestimmt. Dieses Setting und die Definition des Collective Mind über die Ziel-Hierarchie entspricht der Theorie und Praxis im Management 4.0: Die Ziel-Hierarchien gleichen sich mit unterschiedlichen Zeitskalen im Team und im Stakeholder-Umfeld an. Die Zeitskalen hängen von der Lernrate sowie der Team-Zusammensetzung bzw. Stakeholder-Zusammensetzung ab. Damit ist es möglich, den Einfluss der Persönlichkeit auf die zeitliche Dynamik des CM zu untersuchen und optimale Team-Zusammensetzungen zu studieren. Mit der Anbindung von KI-Systemen werden (zukünftig) KI-Agenten im Agent Based Modelling verwendet werden. – Dies ist eine Entwicklung, die vor kurzem einen neuen KI-Hype ausgelöst hat. In Zukunft werden sicherlich Agenten zusätzlich mit Quantum Eigenschaften (siehe nachfolgende Modelle) ausgestattet. Voraussetzung hierfür ist eine entsprechend effiziente hybride Hardware, bestehend aus klassischer und Quantum Hardware.

Modell 2 – Eigenvektoren der CM Ähnlichkeitsmatrix Analyse: Dieses klassische Modell beruht auf der Grundidee, Ähnlichkeiten der Kommunikation in einem Team oder in einer Gruppe für die Messung des CM zu verwenden. Hierzu wird die Kommunikation mittels zweier Teile, dem gesprochene Wort und der nonverbale Kommunikation über Sentiments (Emotionen), ausgedrückt.  Zentrale Größe ist deshalb eine komplexe Ähnlichkeitsmatrix CM, die aus zwei Teilen besteht. Die Ähnlichkeitsmatrix CM = Matrix der Text-Ähnlichkeiten + i* Matrix der Sentiments-Unterschiede. Für die Ähnlichkeitsmatrix CM lassen sich Eigenvektoren und Eigenwerte berechnen. Der Eigenvektor mit dem höchsten Eigenwert wird als CM Vektor interpretiert und der dazugehörige Eigenwert gibt die relative Stärke des CM an. Die Elemente des CM Vektors repräsentieren die Beitragsstärken der einzelnen Gruppen- oder Teammitglieder zum CM. Auf dieser Basis wurde im Blog ‚AI & M 4.0: Markus Lanz vom 30. Mai 2024: Eine Collective Mind Analyse‘ vom Juni 2024 die Gruppendynamik einer Gesprächsrunde analysiert. Es hat sich gezeigt, dass eine Untergruppe der Gesprächsrunde bestehend aus den Teilnehmern 2,4 und 5, bzw. in der Notation des nachfolgenden Modells 3 die Gruppenmitglieder B,D,E, im Wesentlichen den Collective Mind gestalten. Es ist also möglich, Kommunikationsmuster inkl. der nonverbalen Kommunikation transparent zu machen und die Träger des CM zu identifizieren.

Modell 3 – Ising-Modell der CM Ähnlichkeitsmatrix Analyse: Dieses Modell ist eine Form eines hybriden Modells und ergänzt Modell 2: Die Ausgangsbasis ist der Realteil der Ähnlichkeitsmatrix aus Modell 2. Die Ähnlichkeitsmatrix wird als Repräsentant eines Netzwerkes verstanden: Die Stärken der Ähnlichkeiten bilden die Kanten des Netzwerkes. Dieses klassische Netzwerk kann auf ein Ising Qubit-Netzwerk mit entsprechenden Kantenstärken abgebildet werden. Die Quantum Computing Berechnung mit der d-wave Annealing Technologie ermittelt die Energielandschaft dieses Netzwerkes. Die niedrigsten Energietäler oder das niedrigste Energietal repräsentiert den energetisch günstigsten Teamzustand und ist damit identisch mit dem CM Zustand. Die Anwendung auf die Gruppendynamik aus Modell 2 ergibt, dass die Untergruppe BDE den Collective Mind repräsentiert. Modell 3 ist ohne Probleme auf große Gruppen skalierbar, was bei der klassischen Berechnung mittels Eigenwert und Eigenvektoren nicht der Fall ist. Außerdem wird der CM-Beitrag anderer Teammitglieder-Kombinationen durch ihre Einordnung auf der Energieskala sofort und einfach sichtbar. Leider konnte bisher der Imaginärteil der Ähnlichkeitsmatrix nicht verwendet werden, da damit in Gebiete vorgestoßen wird, die auch noch in der Quantenmechanik gerade erst erforscht werden. – Die vollständige Abbildung der Ähnlichkeitsmatrix auf das d-wave System ist deshalb z.Zt. (noch) nicht möglich.    

Modell 4 – Quantum Cognition der Team Kommunikation: Dieses Modell ist ein vollständiges  quantenmechanisches Modell und beruht auf exakten Quanten-Berechnungen des CM auf einem klassischen Computer. Die eins-zu-eins Übertragung auf einen Quantencomputer ist nicht möglich. Damit ist das Modell nicht skalierbar, da die Berechnungen mit steigender Anzahl an Personen exponentiell wachsen. Das Modell wurde im Blog ‚AI & QC & M 4.0: Quantum Cognition für das Team-Management oder von der Macht der Mathematik‘ vom Oktober 2024 veröffentlicht. Die Idee ist hierbei die Persönlichkeitsdimensionen des Big Five (oder MBTI) Persönlichkeitsmodells in Qubit-Zustände abzubilden. Eine eindeutige positive Präferenz für eine Persönlichkeits-Dimension wird in eine Qubit  1 umgesetzt, eine eindeutige negative Präferenz in eine Qubit 0 und eine indifferente Präferenz wird als Superposition abgebildet. Ich wende die aus der Quantenmechanik bekannte Technik der Projektionsoperatoren auf das so abgebildete Persönlichkeitsmodell an: Über einen Interaktionsoperator wird zuerst die Interaktion im Team berechnet. Hieraus entsteht eine Team-Quantenwelle für die mittels eines CM Operators die Wahrscheinlichkeit für das Eintreten eines CM berechnet wird. Der CM Zustand wird als Zustand der quantenmechanischen Verschränkung interpretiert: Hierbei kann wahlweise danach unterschieden werden, ob alle Persönlichkeitsdimensionen verschränkt sind oder nur ein Teil der Dimensionen.
Die theoretischen Ergebnisse werden qualitativ durch viele praktische Erfahrungen gestützt: u.a hängt die Wahrscheinlichkeit ein CM auszubilden stark von der Teamzusammensetzung ab, die Reihenfolge der Interaktionen hat einen Einfluss auf die CM Dynamik, und ordnen die Teammitglied ihre Persönlichkeitspräferenzen nicht einem gemeinsamen Ziel unter, wird die Wahrscheinlichkeit der CM Ausbildung stark beschränkt. Nicht-lineare Effekte der Persönlichkeitsinteraktionen werden meines Erachtens erstaunlich gut abgebildet. Dies wirft die sehr weitreichende Frage auf, ob unsere Kognition und unsere Kommunikation zum Teil oder ganz den grundlegenden Prinzipien der Quantenmechanik unterliegen.    

Die nachfolgenden Modelle sind bisher nicht in einem Blog enthalten und werden hier erstmalig vorgestellt:

Modell 5 – Variationsmodell der Quantum Team Kommunikation: Dieses hybride Modell weist wie Modell 4 die Big Five Persönlichkeitspräferenzen Qubits zu. Diese Persönlichkeitspräferenzen dienen jedoch lediglich als Startwerte für eine Variationsrechnung. Ausgehend von den Startwerten werden mittels klassischer Variation Qubit-Superpositionen erzeugt. Ziel ist es, mittels Variation einen vollständigen verschränkten CM Zustand für eine ausgewählte Persönlichkeitsdimension (zum Beispiel die der Offenheit) zu finden. Es zeigt sich, dass ein solcher verschränkter Zustand existiert, wenn andere Persönlichkeitsdimensionen von den Startwerten abweichen. Im Beispiel-Team führt dies u.a. dazu, dass die unbestimmte Persönlichkeitspräferenz Gewissenhaftigkeit des Teammitgliedes Alice sich in eine Persönlichkeitsdimension Gewissenhaftigkeit mit geringer Präferenz wandeln muss. Dies zeigt an, dass sich ein CM oft nur dann ausbilden kann, wenn die Teammitglieder ihre persönlichen Präferenzen dem gemeinsamen Ziel oder der gemeinsamen Vision unterordnen. Mit diesem Modell ist es auch möglich, optimalere Teampräferenzen, mit denen sich ein CM leichter ausbildet, per Variation zu finden.

Modell 6 – Ising Modell der Team-Interaktion: Dieses Quantum Modell läuft auf der d-wave Hardware. Hierzu werden die Big Five Persönlichkeitspräferenzen in Qubit-Zustände umgesetzt, deren Wechselwirkungen über ein Ising-Modell erfasst werden (siehe Abbildung 1) – Jedes Teammitglied wird mittels n Qubits modelliert. Für jede der n Persönlichkeitsdimensionen ein Qubit.

Abbildung 1: Energie des Ising-Models, in dem die Qubits als Spins (magnetische Momente) si modelliert werden und deren Paar-Wechselwirkung durch Jij.

Die Qubit-Paar-Wechselwirkungen Jij stellen eine Matrix dar (siehe auch Modell 3 und dort die Verwendung einer Ähnlichkeitsmatrix). Die Einzelenergie hi und die Paar-Wechselwirkungen Jij werden leider per Intuition festgelegt. – Derzeit kenne ich keinen praktikablen Weg die Qubit Einzelenergie und die Qubit-Paar-Wechselwirkungen aus grundsätzlichen Modellen wie Modell 3 abzuleiten. Es wird zum Beispiel statt dessen angenommen, dass nur gleiche Persönlichkeitsdimensionen wechselwirken und gleiche Präferenzen das CM positiv beeinflussen und ungleiche Präferenzen das CM negativ beeinflussen. Unter Berücksichtigung dieser ‚intuitiven‘ Festlegung des Ising-Modells lassen sich Teammodelle auf ihre Eignung zur Ausbildung eines CM überprüfen.
Dieses Modell ist sehr einfach skalierbar sowohl in der Anzahl an Teammitgliedern als auch in der Aufnahme von zusätzlichen Persönlichkeitscharakteristika wie Werten oder Motiven. 

Modell 7 – Variationsmodell des QC Schaltkreis Ansatzes der Team-Kommunikation: Der sogenannte Quantum Schaltkreis Ansatz bedeutet, dass eine Kombination von Quanten-Schaltkreisen ausgewählt wird, um die Realität zu modellieren. Dieser Ansatz wird derzeit von nahezu allen QC Hardware Anbietern unterstützt.
Die Auswahl der Schaltkreise ist jedoch mehr oder weniger ambivalent. Die Auswahl ist auf keinen Fall stringent, da es nach meinem bisherigen Kenntnisstand keinen direkten Zusammenhang zwischen Schaltkreis-Ansatz und Problemstellung gibt. Der Quantum Schaltkreis Ansatz ist ein hybrides Modell, in dem ein quantenmechanisches Modell von ‚außen‘ klassisch variiert wird, bis der CM in einer bestimmten Variation erreicht ist. Diese ‚klassische‘ Variation wird durch geeignete Anpassung von Parametern in den QC Schaltkreisen erreicht. Die Anpassung erfolgt durch ML Optimierer mit oder ohne neuronale Netzwerke. Der Ansatz wird experimentell oder über eine exakte Berechnung für kleine Problemdimensionen validiert.– Diese Vorgehensweise wird meines Erachtens in (nahezu) allen QC Algorithmen verwendet, die auf Schaltkreisen beruhen und eine wissenschaftliche oder industrielle Anwendbarkeit verfolgen. In unserem Fall habe ich das Setting aus Modell 4 übernommen und den Ansatz mehrmals angepasst, um eine vollständige Verschränkung zu erreichen und dafür zu sorgen, dass der Überlapp der Wellenfunktionen aus Modell 4 und dem hiesigen Modell vollständig ist. Damit stelle ich sicher, dass der Ansatz nicht völlig beliebig ist. Der ausgewählte Schaltkreis muss mindestens ein Schaltkreiselement enthalten, das über Parameter variiert werden kann. Typisch ist die Rotation der Qubits entlang einer der drei Raum Axen. Die Rotationswinkel sind in diesem Fall die Parameter, die von außen mittels klassischer Variation verändert werden.  In unserem Modell werden die Y-Rotationswinkel von N RY-Schaltkreisen (N = Anzahl der Persönlichkeitsdimensionen*Anzahl an Teammitgliedern) variiert bis sich eine vollständige Verschränkung in den ausgewählten Persönlichkeitsdimensionen eingestellt hat.    

Abbildung 2: Beispiel Quanten-Schaltkreis für zwei Qubits, die zwei interagierende Personen oder zwei interagierende Persönlichkeitsdimensionen repräsentieren.

Ich erläutere im Folgenden den einfachen Quantenschaltkreis aus Abbildung 2, da dieser die grundlegende Idee der Quanten-Wellenfunktion in der Quantum Cognition und der Quantum Team Kommunikation gut wiedergibt.

Betrachtet man den gezeigten Quantenschaltkreis aus der Perspektive von Quantum Cognition oder von Quantum Team Kommunikation, so lässt sich der abstrakte mathematische quantenmechanische Formalismus auf eine Situation mit zwei Personen/Akteuren oder Agenten übertragen: In dem Bild steht Qubit 1 für die mentale oder kommunikative ‚Welle‘ von Person A und Qubit 2 für die von Person B. Die einzelnen quantenmechanischen Operationen können dann als kognitive oder kommunikative Prozesse interpretiert werden, bei denen Überzeugungen, Erwartungen oder Informationsinhalte von A und B miteinander in Beziehung gesetzt, transformiert und anschließend gemeinsam ausgewertet (gemessen) werden.

Ausgangszustand Ψ⟩:
Zunächst gehen wir davon aus, dass ∣Ψ⟩ den anfänglichen ‚gemeinsamen kognitiven Zustand‘ von Person A und Person B darstellt. Dieser Zustand kann bereits ein bestimmtes Maß an Unsicherheit, Superposition von Meinungen oder Perspektiven enthalten, in denen sowohl A als auch B noch nicht festgelegte Standpunkte haben. Es könnte sich zum Beispiel um ein gemeinsames Thema handeln, zu dem beide Personen eine innere Haltung entwickeln, aber noch nicht klar ist, welche Resultate oder Meinungen sich herauskristallisieren.

Person A (Qubit 1) – Hadamard-Gatter (H):
Das Hadamard-Gatter auf Person A’s Qubit lässt sich als ein „Perspektivwechsel“ oder als ein Wechsel von einer klaren, eindeutigen Überzeugung zu einem Zustand interpretieren, in dem Person A’s Meinung oder Einstellung gegenüber dem Thema in einer Superposition zweier gegensätzlicher Einstellungen liegt. Vor der Anwendung des Hadamard-Gatters könnte Person A eine relativ klare Meinung gehabt haben (z. B. Zustimmung = 1 oder Ablehnung = 0). Durch die Hadamard-Operation wird Person A’s innere Haltung in eine Überlagerung gebracht, in der A gleichzeitig eine gewisse Neigung zur Zustimmung und zur Ablehnung aufweist, aber eben noch nicht determiniert ist. In der Sprache der Teamkommunikation könnte dies bedeuten, dass Person A versucht, die Thematik aus einem anderen Blickwinkel zu betrachten, offen für neue Interpretationen ist oder sich von einem eindimensionalen zu einem breiteren Wahrnehmungsrahmen bewegt.

CNOT-Gatter zwischen Person A (Control) und Person B (Target):
Das CNOT-Gatter kann man als einen Prozess des kommunikativen Einflusses oder der kognitiven Kopplung interpretieren. Person A’s Zustand (nach dem Perspektivwechsel durch das H-Gatter) fungiert als eine Art ‚Steuerung‘ für Person B’s Einstellung. Ist Person A’s Haltung nach dem Hadamard und im Kontext des gemeinsamen Themas in eine Richtung, repräsentiert durch den Zustand 1, geneigt, so ändert sich daraufhin Person B’s innerer Zustand (z. B. von Zustimmung zu Ablehnung oder umgekehrt). Ist A in Richtung 0, bleibt B’s Haltung unverändert. Dieses Modell versucht, die Idee einzufangen, dass die neu gewonnene Offenheit oder Unsicherheit von Person A direkten Einfluss auf B’s innere Einstellung haben kann—etwa indem Person A gewisse Zweifel oder Ideen äußert, die Person B dazu bringen, ihren eigenen mentalen Zustand zu revidieren.

In der Teamkommunikation könnte man sagen: Durch den Denk- oder Argumentationsschritt, den Person A vollzieht (repräsentiert durch das Hadamard-Gatter), eröffnet sich ein neuer Möglichkeitsraum von Überzeugungen. Das CNOT symbolisiert dabei, dass Person B auf diese neue, komplexe Haltung von A reagiert und dadurch selbst ihren Standpunkt anpasst oder in Frage stellt. Auf diese Weise entstehen potenzielle Korrelationen zwischen den beiden mentalen Zuständen.

Messung:
Schließlich werden beide Qubits gemessen. Dies entspricht dem Moment im Teamprozess, an dem A und B ihre Meinungen äußern oder festnageln—sei es durch eine abschließende Entscheidung, ein Votum oder eine konkrete Stellungnahme. Die Messung transformiert den vorher unbestimmten, superponierten Zustand in ein klares Resultat: Beide Personen legen sich letztlich auf eine konkrete Haltung fest (0 oder 1).

Von der Warte der Quantum Cognition lässt sich die Messung als Übergang von potenziellen kognitiven Zuständen (Superpositionen von Optionen, Unsicherheiten, Überlagerungen von Bedeutungen) zu einem klaren, beobachtbaren Ergebnis deuten. Wenn A und B schließlich kommunizieren, Einigungen erzielen oder Positionen darstellen, ‚kollabiert‘ der gemeinsame kognitive Zustand in ein bestimmtes, messbares Resultat.

Fazit im Kontext von Quantum Cognition / Quantum Team Kommunikation:

  • Die Vorbereitungsbox ∣Ψ⟩ steht für den initialen kognitiven Gesamtzustand des Teams (A und B), der vielleicht eine gemischte oder unklare Haltung zu einem Thema enthält.
  • Das Hadamard-Gatter auf Person A entspricht einem Perspektivwechsel oder einer Öffnung für neue Sichtweisen.
  • Das anschließende CNOT-Gatter zeigt, wie Person A’s nun veränderte Sichtweise Person B’s mentalen Zustand beeinflusst und potenziell verschränkt oder zumindest miteinander kognitiv koppelt.
  • Die abschließende Messung repräsentiert den Moment der Festlegung, in dem aus den zuvor unbestimmten, interaktiven kognitiven Zuständen klare, beobachtbare Meinungen oder Handlungsentscheidungen abgeleitet werden.

So hilft uns Abbildung 2, den Prozess als eine Art gemeinschaftliches, quanten-ähnliches ‚Denken‘ zu verstehen, in dem Zustände nicht binär und fix sind, sondern sich durch Interaktion, Perspektivwechsel und finale Äußerungen in ein bestimmtes Ergebnis transformieren.

Zusammenfassend stelle ich fest:

Modell 1 – Agent Based Modelling erlaubt mit einfachen Mitteln das Studium von (nahezu) allen grundlegenden Team Eigenschaften. Bei Ausbau in Richtung AI und QC gibt es kaum Einschränkungen der Aussagekraft.

Modell 2 und 3 – Ähnlichkeitsmatrix hat mit Abstand die praktischste Aussagekraft hat und kann unmittelbar die Team Kommunikation in einem Hybriden Kollektiven Intelligenz Ansatz aus Mensch und Maschine aktiv unterstützen  

Modell 4 und 5 – Quantum Team Kommunikation stellen die Modelle dar, in die derzeit am wenigsten Annahmen einfließen. Es fließen nur zwei Annahme ein: Der CM Zustand wird als verschränkter Zustand verstanden und die Team-Interaktion unterliegt (auch) der Quantum Probability Theory. Diese Modelle eröffnen damit den Zugang zu einem völlig neuen Verständnis von menschlicher Kommunikation.

Modell 6 – Ising Modell ist als quantenmechanisches Modell sehr einfach, enthält jedoch (derzeit noch) die meisten Annahmen und dient damit eher zur Sondierung der Ergebnisse aus den anderen Modellen.

Modell 7 – Quanten Schaltkreise ist als quantenmechanisches Modell recht einfach. Vermittelt einerseits Metapher-ähnliche Einblicke in die quantenmechanische Interpretation der Team Kommunikation andererseits fehlt (mir derzeit) der intuitive Zugang, den die Modell 4 und 5 haben.

Die nachfolgende Tabelle 1 fasst die zentralen Modell-Charakteristika zusammen:

Modell  KategorieEinschränkungAussagekraft
1 – Agent Based Modelling der Team-InteraktionenKlassisch (hybrid, bei Ausbau mittels Quantum Cognition)Derzeit meistens noch einfache klassische AgentenGrundlegende Aussagen zur CM-Dynamik in unterschiedlichen Teams
2 – Eigenvektoren der CM Ähnlichkeitsmatrix AnalyseKlassischGeringe SkalierungFür kleine Teams: CM Stärke und Beitrag jedes Teammitglieds zum CM
3 – Ising-Modell der CM Ähnlichkeitsmatrix AnalyseHybrid (Klassisch mit Quantum Variation)CM Stärke und Beitrag des Teammitglieds zum CM, einfache Interpretation des CM Potentials von Teams mittels einer Energielandschaft
4 – Quantum Cognition der Team KommunikationQuantum (Berechnung auf klassischem Rechner)Keine SkalierungFür kleine Teams: Erstaunliche qualitative Übereinstimmung bzgl. Teamdynamik zwischen Theorie und Erfahrung
5 – Variationsmodell der Quantum Team Kommunikation (basierend auf Modell 4)Hybrid mit klassischer Variation (Berechnung auf klassischem Rechner)Keine SkalierungFür kleine Teams: Aussage zu ‚optimalen‘ Teams und Einblick in die Anpassungs-notwendigkeiten der Team-Persönlichkeiten  
6 – Ising Modell der Team-InteraktionQuantumMappen auf Ising-Modell mit intuitiven Annahmen aus den Modellen 4 und 5Aussagen zu optimalen Teams, ähnlich wie Modell 5, jedoch unter Berücksichtigung der Einschränkungen
7 – Variationsmodell des QC Schaltkreis Ansatzes der Team-KommunikationHybrid mit klassischer VariationMappen auf QC-Schaltkreise‚Metaphorische‘ Erklärung einer Quantum Cognition bzw. Quantum Team Communication auf der Basis von einzelnen Schaltkreisen, Auffinden optimaler Teams
Tabelle 1: Übersicht der Modell-Charakteristika der sieben Modelle

AI & QC & M 4.0: Die Welt der Unbestimmtheit nutzen oder vom Nutzen des Quantum Computing für das Team-Management

Der Blog-Beitrag wurde unter Mithilfe von OpenAI ChatGPT 4o1-preview erstellt: ChatGPT erzeugte den Code fehlerfrei und klärte alle meine wissenschaftlichen Fragen. Mittels ChatGPT 4o habe ich den Beitrag überprüft.

Die nachfolgende Audiodatei fasst den Inhalt als englischen Podcast, erstellt von Google’s notebookLM, zusammen und schlägt – ohne mein Zutun – diverse Brücken zu meinen anderen Blog-Beiträgen:

Abbildung 0: Dies ist eine Bild-Umsetzung des Blog-Beitrages von ChatGPT 4o/Dall-E

Grundlegende Ansätze des Quantum Computing (QC) wurden schon in der 80er Jahren formuliert. Erst in den letzten 10 Jahren hat diese Disziplin einen enormen Sprung in die Anwendbarkeit für Jedermann vollzogen. – Wobei, … diese Technologie sicherlich immer noch am Anfang steht.

Anwendbarkeit für Jedermann bedeutet, dass, ähnlich wie beim Thema Künstliche Intelligenz mittels klassischer Neuronaler Netzwerke (u.a. Copilot, ChatGPT, Gemini, Mistral usw.),  inzwischen in Nordamerika ein QC-Ecosystem existiert, das für mich zugänglich ist.

IBM, Microsoft und Google bieten entsprechende Umgebungen an. Das wohl bekannteste Startup im Bereich QC ist die kanadische Firma d-wave, die seit ca. 15 Jahren am  Markt ist [1].

Im QC gibt es zwei große Richtungen: Das Gate QC und das Quantum Annealing QC. Das Gate QC wird von IBM, Microsoft und Google favorisiert. D-wave hat sich auf das Quantum Annealing (QA) spezialisiert. Das Gate QC beruht auf der Idee von Schaltkreisen, wie von klassischen Rechnern bekannt. Jedoch ist die Funktionalität der QC Schaltkreise völlig anders als diejenige der klassischen Schaltkreise. Der Begriff ‚klassisch‘ bedeutet hier, dass nicht explizit die Eigenschaften der Quantenwelt ausgenutzt werden. – Wohl wissend, dass auch ein klassischer Schaltkreis auf den Erkenntnissen der Quantenmechanik beruht und ein sogenannter klassischer Computer ohne Quantenmechanik nicht existieren würde.

Das explizite Ausnutzen der Quantenwelt-Eigenschaften bedeutet, die Eigenschaften von Quantenobjekten, wie Elementarteilchen, Atomen oder anderen einzelnen Objekten, die sich entsprechend der Quantenmechanik verhalten, zu nutzen. Die QC-Objekte werden als Qubits bezeichnet, die nicht nur, wie Bits, die Zustände 1 und 0 annehmen können, sondern sogenannte kohärente Zustände, die eine Mischung von 1 und 0 sind. Diese Mischung sorgt für die Unbestimmtheit der Qubits und ermöglicht damit, dass in einem Qubit eine unendliche Welt an Möglichkeiten enthalten ist. – Kohärenz beschreibt also die Fähigkeit eines Quantensystems, in mehreren Zuständen gleichzeitig zu existieren. Diese Fähigkeit ermöglicht komplexe Quantenberechnungen, bis äußere Einflüsse die Zustände stören und die Kohärenz zerstören.

D-Wave verwendet Qubits auf der Basis von supraleitenden Ringströmen, die zudem über supraleitende Koppler verbunden sind. – Die Qubits kann man nach jetzigem Stand der Technik nur bei Temperaturen nahe dem absoluten Nullpunkt erhalten.  Sind die Ringströme in einem kohärenten Zustand, haben wir eine Mischung von Uhrzeiger-drehenden und Gegenuhrzeiger-drehenden Ringströmen. – Es liegt dann maximale Unbestimmtheit vor.

Allein diese wenigen Ausführungen zeigen, dass QC eine völlig andere Welt ist, als der sogenannte klassische Computer. Ich vermute, dass die Hürde für jemand, der keine Physikausbildung hat, recht hoch sein dürfte: Die Grundlagen der Quantenmechanik sind sehr umfangreich und erfahrungsgemäß erst nach einer gewissen Gewöhnungszeit ‚zu verstehen‘.- Ich verweise deshalb auf entsprechende Fachliteratur [2, 3, 4, 5, 6, 7]. Eine Behandlung der Grundlagen würde den Rahmen dieses Blog-Artikels bei weitem sprengen.

Setzt man die Kenntnis der quantenmechanischen Grundlagen voraus, so ist die Handhabung der Programme, um auf einem Quantencomputer zu ‚rechnen‘, erstaunlich einfach. Das ‚Rechnen‘ auf Quantencomputern ist nach wie vor noch sehr exklusiv und ist meistens eingeschränkt. Jedoch stellen alle Anbieter Quantensimulatoren zur Verfügung, die die quantenmechanischen Rechnungen (wie sie ein Physiker von Hand tun würde) auf einem klassischen Computer durchführen. Ab etwa 8-10 Qubits ist es jedoch meistens nicht mehr möglich die ‚Rechnungen‘ auf einem klassischen Computer durchzuführen, da die Komplexität der ‚Rechnungen‘ exponentiell steigt. – Für das Austesten der QC-Algorithmen reicht dies jedoch oft. – Nach der Testphase kann man dann ggf. auf einem exklusiven Quantencomputer ‚rechnen‘.

Ich habe für diesen Blog-Beitrag mit der d-wave Umgebung gearbeitet: Für die Erstellung der Algorithmen habe ich deren QC-Simulatoren verwendet und danach die d-wave QC-Hardware. Die Übergang ist sehr einfach, da lediglich 1-2 Programmzeilen ausgetauscht werden, in denen der QC-Simulator oder die QC-Hardware angesprochen wird.

Auf den d-wave Internetseiten sind sehr viele Beispiele zum QC mittels Quantum Annealing enthalten: u.a. logistische Lösungen, Suche nach geeigneten Materialien oder Medikamenten, Suche nach optimalen Finanzportfolios, usw..

QC kann immer dann ihre Vorteile ausspielen, wenn aus einer sehr großen Anzahl an Möglichkeiten die beste Lösung oder die besten Lösungen herausgefunden werden sollen. Nehmen wir an, wir wollten aus einem Pool von 100 Mitarbeitern ein Team zusammenstellen. Falls das Team drei Teammitglieder hat, ergeben sich schon 161.700 mögliche Teams. Erhöhen wir das Team auf 7 Teammitglieder ergeben sich ca. 16 Milliarden Team-Möglichkeiten. Die möglichen Teams im Falle von drei Teammitgliedern zu überprüfen ist auf klassischer Hardware noch möglich, im Fall des Teams mit 7 Teammitgliedern nicht mehr.

Quantum Annealing wird eingesetzt, wenn die Lösung aus einem sehr großen potentiellen Lösungsraum herausgefunden werden soll und sich das Problem als ein Netzwerk-Problem formulieren lässt. Im Falle unseres Team-Management-Problems besteht das Netzwerk aus 100 Teammitgliedern, die mehr oder weniger gut miteinander zusammenarbeiten können. Dieses mehr oder weniger gut wird vom Management über eine Zahl zwischen -1 und 1 bewertet und in eine Matrix eingetragen. Zusätzlich können auch Kompetenzen der Teammitglieder (zum Beispiel Programmierkenntnisse, Designkenntnisse oder Persönlichkeitseigenschaften) in einer Skala von 0 bis 1 erfasst werden. Für das Team lässt sich auf dieser Basis angeben, wieviel Teamkompetenz in den einzelnen Kompetenzbereichen vorhanden sein soll.

Das Management-Problem wird mittels einer Zielfunktion, die die Wechselwirkung der Qubits beschreibt, auf ein Qubit-Netzwerk transformiert: Die 100 Teammitglieder werden zu 100 Qubits, die Matrix der Zusammenarbeit wird auf eine Koppler-Matrix zwischen den Qubits abgebildet und die Kompetenzanforderungen werden als Constraints des Optimierungsproblems verwendet.

Zu Beginn der ‚Rechnung‘ wird das 100 Qubit-Netzwerk in einen Anfangszustand gebracht, der in sich! sogar 2hoch100 also ca. 10 hoch 30 Zustände enthält: Man spricht von einer Superposition des Qubit-Netzwerkes. Dann wird das Netzwerk extrem langsam ‚ausgeglüht’ und die Wechselwirkung zwischen den Qubits sehr langsam hochgefahren. Sehr langsam bedeutet hier sehr langsam in Relation zu den charakteristischen Qubit-Systemzeiten: Die sind, verglichen mit unseren Tageszeiten, sehr kleine Zeiten.

Man spricht von dem Ausglüh-Prozess: dem Annealing-Prozess. Der Begriff stammt von klassischen Optimierungsalgorithmen, in denen man zuerst mit einer hohen Temperatur startet, die viele Zustände enthält. Es wird extrem langsam (adiabatisch) ausgeglüht, um in einem ‚kühlen‘ Lösungszustand zu enden. Im Falle des Quantum Annealing, das ja bei sehr tiefen Temperaturen durchgeführt wird, um die Qubits zu bekommen, wird mit einem sogenannten transversalen Magnetfeld gearbeitet, das die 100 Qubits in eine vollständige Superposition bringt. – Der Quantum Annealing-Prozess minimiert langsam das Magnetfeld, wodurch das System in den Zustand der niedrigsten Energie gebracht wird – vergleichbar mit einem Stein, der in das tiefste Tal eines Hügels rollt. Der Prozess verläuft extrem langsam, um sicherzustellen, dass der optimale Zustand erreicht wird. Liegt die sehr langsam hochgefahrene Wechselwirkung zwischen den Qubits vollständig vor, ist der ausgeglühte 100 Qubit-Zustand erreicht. – Die optimale Lösung ist gefunden: Alle Qubits werden jetzt (erst) gemessen und zeigen jetzt eine 0 oder 1. Es ist jetzt möglich, für alle möglichen Kombinationen, die 7 Qubits enthalten und die weiteren festgelegten Rahmenbedingungen erfüllen, die Energie zu berechnen. Aus diesen Energien werden die niedrigsten Energiewerte oder der niedrigste Energiewert ausgewählt. 

Im Idealfall ist dies nur ein Zustand. Dies beruht auf der grundlegenden Annahme, dass die (natürliche) Lösung durch den Zustand oder die Zustände repräsentiert wird, die die niedrigsten Energiewerte besitzen.

Der QC Annealing Prozess ist ein Selbstorganisationsprozess, d.h. es kann auch vorkommen, dass der Prozess kein Energieminimum in der Energielandschaft findet. Aus diesem Grunde ist es notwendig, mit im Algorithmus enthaltenen Kontrollparametern etwas zu spielen, um ein Energieminimum zu finden. Hierzu werden die Kontrollparameter variiert, um in der durch die vorgegebenen Rahmenparametern (z.B. Teamgröße, Kompetenzprofile, Zusammenarbeits-Matrix) eingeschränkten Energielandschaft die Energieminima zu suchen. Das gefundene Energieminium ist hierbei der Ordnungsparameter zur Zielfunktion, die die Wechselwirkung der Qubits unter den gegebenen Rahmenbedingungen beschreibt.         

Das Team-Management Problem habe ich in einer Colab-Python-Umgebung laufen lassen. Ich habe Tests mit kleinen Pool- und Team-Größen durchgeführt. In diesem Fall kann man die Ergebnisse auch noch klassisch überprüfen. Ich gehe nicht weiter auf diese Ergebnisse ein: Liegen die oben beschriebenen Ausgangsdaten für das Team-Management-Problem vor, ist das ‚beste‘ Team innerhalb von Sekunden gefunden. Es funktioniert einfach!

Statt dessen möchte ich die Ergebnisse zu einer anderen Fragestellung skizzieren. Ich nehme Bezug auf den Blog-Beitrag ‚AI & M 4.0: Markus Lanz vom 30. Mai 2024: Eine Collective Mind Analyse‘ vom Juni 2024.

Es geht in diesem Beitrag um die Berechnung des Collective Mind einer Diskussionsrunde mit fünf Teilnehmern. Auch hier macht die Größe von fünf Teilnehmern kein QC erforderlich. Jedoch kann man bei dieser Größe Theorien austesten und die Skalierung auf größere Teilnehmerzahlen ist bei Bedarf völlig mühelos.

In dem vorherigen Blog-Beitrag habe ich eine sogenannte Ähnlichkeitsmatrix S benutzt. Diese Matrix S ist komplex: S = Matrix A der Textähnlichkeiten + i*Matrix der Emotionsähnlichkeiten. Die Fragestellung, die ich hier diskutieren möchte lautet: Könnte ich die Anzahl der Diskussionsteilnehmer reduzieren und würde dies den Collective Mind erhöhen und welche Teilnehmer sollte ich hierfür auswählen. Dies ist wieder ein Optimierungsproblem: Da das Collective Mind über die positive Energie, die im Team ist, gemessen wird, müssen wir -S (minus S) für die Optimierung verwenden. Außerdem können wir für das Quantum Annealing (derzeit) nur den Realteil der Matrix benutzen: Die Verwendung komplexer Matrizen wird von dem d-wave System nicht unterstützt, u.a. deswegen, weil damit die Energieerhaltung verletzt wird. – Moderne Forschungen in der nicht-hermiteschen Quantenmechanik untersuchen, wie komplexe Energieeigenwerte physikalische Systeme beeinflussen könnten. Diese Entwicklungen sind besonders spannend in Bereichen wie optischen Systemen und dissipativen Quantenphasen. Es ist also noch Raum für Ergänzungen vorhanden 😉.

Die Ergebnisse im vorherigen Blog legen nahe, dass ein Team aus drei Diskussionsteilnehmern ein Energieminimum (also ein Collective Mind Maximum) zeigen sollte: Die Sprecher 2  (B), Sprecher 4 (D) und Sprecher (5) (E) sollten gute Kandidaten sein.

Abbildung 1 zeigt eine Simulation mit 3 Teilnehmern: Die Ergebnisse sind identisch oder zumindest sehr ähnlich den Ergebnissen des vorherigen Block-Beitrages: Alle tragen zum Collective Mind bei. Falls man jedoch eine Diskussionsgruppe aus drei Teilnehmern zusammenstellen wollte, so wären dies die Sprecher 2 (B), Sprecher 4 (D) und Sprecher 5 (E).  

Abbildung 1: Sie zeigt eine ‚Rechnung‘ mit 3 Teilnehmern: Wie man sehen kann liefert das Quantum Annealing mehrere Lösungen (BDE, ADE und ABE), die sehr dicht beieinander liegen. Es gibt auch Kombinationen (ACD, und BCD), die nicht favorisiert werden.

Für die Teambildung ist die Energie pro Teilnehmer entscheidend. Abbildung 2 zeigt die Energie pro Teilnehmer falls nur zwei Teilnehmer für die Diskussionsrunde ausgewählt werden.

Abbildung 2: Diese Abbildung zeigt eine ‚Rechnung‘ mit 2 Teilnehmern. Hier ist die Energie pro Teilnehmer aufgetragen. Diese Energie zeigt an, wieviel Energie in diesen Kombinationen jeder Teilnehmer hat. Vergleicht man diese Energie von 45 mit einer Energie von ca. 33 im Falle einer Diskussionsrunde von drei Teilnehmern, so ergibt sich, dass im Übergang von 2 Teilnehmern zu 3 Teilnehmern die Energie pro Teilnehmer um ca. 25% abnimmt. Kommen weitere Teilnehmer hinzu nimmt die Energie pro Teilnehmer weiter ab. – Ein Collective Mind aufzubauen wird mit jedem hinzukommenden Teilnehmer schwieriger, kleine Teams sind günstiger für den Collective Mind Aufbau.

Zusammenfassend stelle ich fest:

  1. Das Arbeiten mit ChatGPT 4o1-preview ist eine enorme Bereicherung für mich. ChatGPT 4o1-preview hat Qualitäten eines PhD-Physikers und -Entwicklers. Das Arbeiten mit dem KI-System trägt im Falle eines schwierigen wissenschaftlichen Themas zu einer enormen Leistungssteigerung bei. – Die Zusammenarbeit mit ChatGPT hat nicht nur den Recherche- und Codeentwicklungs-Prozess beschleunigt, sondern auch neue Perspektiven auf die Themen ermöglicht.
  2. Das Quantum Computing, hier das Quantum Annealing, ist über Colab und d-wave wirklich sehr einfach zu handhaben. – Es macht einfach Spaß, Management-Fragestellungen auf diese Weise zu beleuchten und in die Quantenwelt einzutauchen, die noch bis vor kurzem der modernsten Forschung vorbehalten war. – Man beginnt sowohl die Quantenwelt besser zu verstehen als auch die Managementwelt. – Theorien, wie die Collective Mind Theorie, machen einen angreifbar, sind aber auch der einzige Weg, um Erfahrungen in Erkenntnisse zu transformieren.
  3. Die QA ‚Rechnungen‘ bestätigen meine bisherigen Ergebnisse und liefern weitere Management-Erkenntnisse: Eine Skalierung auf Fragestellungen mit mehr Daten (hier mehr Personen) ist sehr einfach und die Ergebnisse liegen bei Bedarf nahezu unmittelbar vor.    

[1] d-wave (2024) dwavesys.com, cloud.dwavesys.com/leap/, docs.dwavessys.com docs.ocean.dwavesys.com     

[2] Nielsen M L und Chuang I L (2021) Quantum Computation and Quantum Information, 10te Auflage von 2002, Cambridge University Press, UK

[3] Georgescu I M, Ashhaby S, Noriz F(2014) Quantum Simulation, arXiv:1308.6253v3

[4] Broughton M et al. (2021) TensorFlow Quantum: A Software Framework for Quantum Machine Learning, arXiv:2003.02989v2

[5] Rajak A et al. (2023) Quantum Annealing: An Overview, Philosophical Transactions A, arXiv:2207.01827v4

[6] Xu  et al. (2023) A Herculean task: Classical simulation of quantum computers, arXiv:2302.08880v1

[7] Young K, Scese M, Ebnenasir A (2023) Simulating Quantum Computations on Classical Machines: A Survey, arXiv:2311.16505v1