Abstract:
Die Anzahl der Qubits, die auf einem Quantencomputer zur Verfügung stehen, stellt in der Regel eine Einschränkung für das Training und die Ausführung von Quantum-Machine-Learning-Modellen dar. Eine mögliche Lösung dieses Problems besteht darin, das Modell auf mehrere Quantumcomputer aufzuteilen und verteilt auszuführen. Dieser Ansatz wird als Distributed Quantum Machine Learning (DQML) bezeichnet. Dadurch kann eine größere Anzahl von Qubits verwendet werden, was das Training größerer Modelle ermöglicht oder die Klassifikationsleistung verbessern kann. Allerdings erfordert die Kommunikation zwischen den einzelnen Quantencomputern erhebliche klassische und quantenmechanische Ressourcen, was zu einem hohen Rechenaufwand und verlängerten Trainingszeiten führt. Um diesen Ansatz und seine Grenzen zu untersuchen, wird in dieser Arbeit ein DQML-Modell vorgestellt, das unter Verwendung des verteilten Quanten-Frameworks NetQASM implementiert wurde und dessen Architektur aus einem klassischen Server sowie zwei Quanten-Clients besteht. Das Modell wurde auf Datensätzen mit zwei und vier Merkmalen auf einem Quantennetzwerk-Simulator trainiert und evaluiert. Es erreichte eine vergleichbare Klassifikationsleistung wie ein zentralisiertes Quanten- Baseline-Modell. Um den Kommunikationsaufwand, der zu Trainingszeiten von 50 bis 500 Minuten pro Trainingsepisode führte, zu verringern, wurden Optimierungen an der Schaltungsarchitektur, der Erzeugung verschränkter Zustände und der verteilten Quantengatterausführung implementiert und evaluiert. Dadurch konnte die Laufzeit des Modells bei vergleichbarer Klassifikationsgenauigkeit um bis zu 60% reduziert werden.
Autor/in:
Kian Izadi
Betreuer:
Leo Sünkel, Michael Kölle, Thomas Gabor, Claudia Linnhoff-Popien
Studentische Abschlussarbeit | Veröffentlicht März 2025 | Copyright © QAR-Lab
Anfragen zu dieser Arbeit an die Betreuer