Ich habe vor 7 Jahren, kurz nach meinem Masterabschluss, Informatik studiert. Damals herrschte auf dem Feld große Aufregung, aber auch Skepsis. Quantencomputing ist heute neben HPCs und KI eine aufstrebende Technologie.
Die Aufmerksamkeit verlagerte sich von rein hardwarebezogener Forschung und Diskussion hin zu Anwendungen, Software und Algorithmen. Quantum ist wirklich ein Werkzeug, das disziplinübergreifend und nicht in einem isolierten Bereich eingesetzt werden kann. Eine der vielversprechenden, aber noch nicht vollständig verstandenen Anwendungen von Quantencomputern ist das quantenmechanische Lernen.
Quantenmaschinelles Lernen (QML) ist in den letzten Jahren zu einem Sammelbegriff geworden. Einer der frühesten und bedeutendsten Auftritte von QML erfolgte im Jahr 2013, als Google und die NASA das Quantum Artificial Intelligence Lab gründeten, dessen Aufgabe darin bestand, zu erforschen, wie Quantencomputer in Anwendungen des maschinellen Lernens eingesetzt werden könnten. Seitdem taucht der Begriff QML in Forschungsarbeiten, Startup-Pitches und Konferenzvorträgen auf, oft mit völlig unterschiedlichen Bedeutungen.
In einigen Fällen bezieht es sich auf den Einsatz von Quantencomputern zur Beschleunigung des maschinellen Lernens. In anderen Fällen werden klassische Algorithmen beschrieben, die von der Quantenphysik inspiriert sind. Und manchmal bedeutet es einfach, einen vertrauten ML-Workflow auf unbekannter Hardware auszuführen.
Sogar ich, jemand, der an Quantencomputern arbeitet und diese erforscht, war zunächst sehr verwirrt … Ich wette, die erste Frage vieler Leute, wenn sie „Quantum Machine Learning“ hören, ist, was genau Quantum Machine Learning ausmacht Quantum?
Die Beantwortung dieser Frage ist der Grund, warum ich mich entschieden habe, diesen Artikel zu schreiben! Die kurze Antwort lautet weder Geschwindigkeit, noch handelt es sich um neuronale Netze, noch handelt es sich um vage Hinweise auf „Quantenvorteil“. Im Kern wird Quantenmaschinelles Lernen dadurch definiert, wie Informationen dargestellt, transformiert und ausgelesen werden. In QML erfolgt dies mithilfe der Regeln der Quantenmechanik und nicht mithilfe klassischer Berechnungen.
Ziel dieses Artikels ist es, diese Unterscheidung zu verdeutlichen, Substanz von Hype zu trennen und eine saubere konzeptionelle Grundlage für den Rest dieser Serie zu schaffen. Ich habe vor, über die Erforschung der Überlieferungen von QML sowie einige seiner kurzfristigen Forschungsergebnisse und Anwendungen zu schreiben.
Maschinelles Lernen vor „Quantum“
Bevor wir uns mit Quanten beschäftigen, gehen wir einen Schritt zurück. Ohne seine modernen Besonderheiten geht es beim maschinellen Lernen darum, mithilfe von Daten eine Zuordnung von Eingaben zu Ausgaben zu erlernen. Unabhängig davon, ob es sich bei dem Modell um einen linearen Regressor, eine Kernel-Methode oder ein tiefes neuronales Netzwerk handelt, ist die Struktur mehr oder weniger dieselbe:
- Daten werden numerisch dargestellt (Vektoren, Matrizen, Tensoren).
- Ein parametrisiertes Modell transformiert diese Daten.
- Parameter werden durch Optimierung einer Kostenfunktion angepasst.
- Das Modell wird an neuen Stichproben statistisch ausgewertet.
Neuronale Netze, GPUs und riesige Datensätze sind Implementierungsoptionen und keine definierenden Merkmale. Diese Abstraktion ist wichtig, weil sie es uns ermöglicht, eine präzise Frage zu stellen:
Was ändert sich, wenn die Daten und das Modell leben in einem Quantenraum?
Die Quantenmechanik tritt ein
Quantenmaschinelles Lernen wird zu Quanten, wenn Quanteninformationen das Rechensubstrat sind. Dies zeigt sich auf drei Arten.
1. Daten werden als Quantenzustände dargestellt.
In klassischen Modellen des maschinellen Lernens werden Daten als Bits oder Gleitkommazahlen dargestellt. Im Gegensatz dazu verwendet Quantenmaschinelles Lernen Quantenzustände, bei denen es sich um komplexe Vektoren handelt, die den Regeln der Quantenmechanik folgen. Diese Zustände werden häufig durch Dichtematrizen beschrieben und ihre Transformationen werden durch einheitliche Matrizen dargestellt.
Infolgedessen kodieren wir Informationen in komplexwertigen Amplituden und nicht in Wahrscheinlichkeiten, und Zustände können in Überlagerung existieren.
Das geht nicht bedeuten, dass alle klassischen Daten plötzlich exponentiell komprimiert oder leicht zugänglich werden. Das Laden von Daten in Quantenzustände ist oft kostspielig und das Extrahieren von Informationen aus ihnen ist grundsätzlich durch Messungen begrenzt.
Der wichtige Punkt ist also, dass das Modell mit Quantenzuständen arbeitet, nicht mit klassischen Zahlen.
2. Modelle sind Quantenentwicklungen
Klassische ML-Modelle wenden Funktionen auf Daten an. Quanten-ML-Modelle wenden Quantenoperationen (typischerweise einheitliche Transformationen) auf Quantenkanälen an. In der Praxis werden viele QML-Modelle aus parametrisierten Quantenschaltkreisen aufgebaut. Bei diesen Schaltkreisen handelt es sich um Folgen von Quantengattern, bei denen es sich um Grundoperationen handelt, die Quantenzustände ändern. Die Parameter dieser Quantengatter werden während des Trainings angepasst, ähnlich wie beim Anpassen von Gewichten in einem neuronalen Netzwerk beim klassischen maschinellen Lernen.
Was bei diesen Modellen im Grunde passiert, ist, dass wir mit dem Zustand des Systems beginnen, der in einer Matrix dargestellt wird (wir nennen ihn, um genau zu sein, Hamilton-Operator), und dann sagen uns die Gatter, die wir auf das System anwenden, wie sich dieses System während eines bestimmten Zeitraums entwickelt (ändert). Diese Entwicklung bestimmt das Verhalten des Modells.
Infolgedessen erforschen Quantenmodelle einen Hypothesenraum, der sich strukturell von dem klassischer Modelle unterscheidet, selbst wenn die Trainingsschleife oberflächlich betrachtet ähnlich erscheint.
3. Messung ist Teil des Lernprozesses
Im klassischen ML ist das Auslesen der Ausgabe eines Modells trivial und hat keinerlei Einfluss auf den Zustand oder das Verhalten des Modells (es sei denn, wir machen es absichtlich so). Bei Quanten-ML ist die Messung jedoch probabilistisch und destruktiv für den Zustand. Dies hat erhebliche Auswirkungen auf das System. Die Ausgänge werden durch wiederholte Schaltungsausführungen, sogenannte „Shots“, bestimmt. „Schüsse“ bedeuten hier, dass dieselbe Quantenschaltung mehrmals ausgeführt wird, um ein Ergebnis abzuschätzen, da Quantenmessungen probabilistisch sind.
Die Gradienten (was die Parameteraktualisierung während des Trainings steuert) werden anhand dieser Messungen statistisch geschätzt und nicht genau wie beim klassischen maschinellen Lernen berechnet. Daher werden die Trainingskosten häufig durch das Abtastrauschen dieser wiederholten Messungen und nicht nur durch die Berechnung allein bestimmt.
Mit anderen Worten: Die Unsicherheit ist in das Modell selbst eingebaut. Jede ernsthafte Diskussion über QML muss die Tatsache berücksichtigen, dass Lernen stattfindet durch Messung, nicht danach.
Was bewirkt Nicht Machen Sie QML Quantum
Insbesondere Quantencomputing und QML sorgen für Hype und Missverständnisse. Viele Dinge, die heute als „quantenmaschinelles Lernen“ bezeichnet werden, sind nur dem Namen nach Quanten, zum Beispiel:
- Klassische ML-Algorithmen laufen auf Quantenhardware, ohne Quantenzustände sinnvoll zu nutzen.
- „Quanteninspirierte“ Methoden, die völlig klassisch sind.
- Hybridpipelines, bei denen die Quantenkomponente entfernt werden kann, ohne das Verhalten oder die Leistung des Modells zu ändern.
Wenn Sie jemals jemandem begegnen, der über QML spricht, und Sie nicht sicher sind, wie quantitativ das Modell ist, über das er spricht, ist eine gute Faustregel, die Sie befolgen sollten:
„Kann ich den Quantenteil durch einen klassischen ersetzen, ohne die mathematische Struktur des Modells zu verändern?“
Wenn ja oder vielleicht, ist der Ansatz wahrscheinlich nicht grundsätzlich quantenmechanisch. Diese Arbeit mag immer noch wertvoll sein, aber sie fällt außerhalb des Kerns des quantenmaschinellen Lernens.
Wo ist QML heute?
Denken Sie bei der Diskussion über Quantencomputing daran, dass aktuelle Hardware laut, klein und ressourcenbeschränkt ist. Aus diesem Grund:
- Es gibt heute keinen allgemeingültigen, nachgewiesenen Quantenvorteil für maschinelle Lernaufgaben.
- Viele QML-Modelle ähneln eher Kernel-Methoden als tiefen Netzwerken.
- Datenladen und Rauschen dominieren häufig die Leistung.
Dies ist kein Feldfehler; Hier steht das Quantencomputing derzeit. Der Großteil der QML-Forschung ist heute explorativ: Modellklassen kartieren, die Quantenlerntheorie verstehen und herausfinden, wo die Quantenstruktur von Bedeutung sein könnte.
Warum es sich immer noch lohnt, Quantenmaschinelles Lernen zu studieren
Wenn kurzfristige Beschleunigungen unwahrscheinlich sind, warum sollte man dann überhaupt QML verfolgen?
QML zwingt uns dazu, grundlegende Fragen zu maschinellem Lernen und Quantencomputing zu überdenken. Wir müssen beantworten, was es bedeutet, aus Quantendaten zu lernen, wie sich Rauschen auf die Optimierung auswirkt und welche Modellklassen in Quantensystemen, aber nicht in klassischen Systemen existieren.
Beim maschinellen Quantenlernen geht es heute weniger darum, das klassische ML zu übertreffen, als vielmehr darum, den Raum dessen zu erweitern, was „Lernen“ in einer Quantenwelt bedeuten kann.
Dies ist wichtig, da wissenschaftliche und technologische Fortschritte mit neuen Ansätzen beginnen. Auch wenn die Hardware noch nicht bereit ist, bereitet uns die Erforschung von QML auf bessere Hardware in der Zukunft vor.
Letzte Gedanken und was als nächstes kommt
Die Fortschritte im Quantencomputing beschleunigen sich. Hardware-Unternehmen liefern sich einen Wettlauf um den Bau eines fehlertoleranten Quantencomputers. Ein Quantencomputer, der die volle Leistungsfähigkeit der Quantenmechanik nutzt. Software- und Anwendungsunternehmen erforschen die Probleme, die Quantencomputing sinnvoll lösen kann.
Allerdings sind heutige Quantencomputer nicht in der Lage, eine annähernd lebensgroße Anwendung auszuführen, geschweige denn ein komplexes Modell für maschinelles Lernen. Dennoch ist das Versprechen der Effizienz des Quantencomputings beim maschinellen Lernen recht interessant und lohnt sich jetzt parallel zu den Hardware-Fortschritten zu erkunden.
In diesem Artikel habe ich mich auf die Definitionen und Grenzen des quantenmaschinellen Lernens konzentriert, um den Weg für zukünftige Artikel zu ebnen, die sich mit Folgendem befassen:
- Wie klassische Daten in Quantenzustände eingebettet werden.
- Variationsquantenmodelle und ihre Grenzen.
- Quantenkerne und Merkmalsräume.
- Optimierungsherausforderungen in verrauschten Quantensystemen.
- Wo sich plausibel ein Quantenvorteil ergeben könnte.
Bevor wir uns fragen, ob Quantenmaschinelles Lernen nützlich ist, müssen wir uns darüber im Klaren sein, was es eigentlich ist. Je weiter wir uns vom Hype entfernen, desto näher kommen wir dem Fortschritt.



