Abstract:
Multi-Agent-Reinforcement-Learning gewinnt in Zeiten des autonomen Fahrens und anderer intelligenter industrieller Anwendungen zunehmend an Bedeutung. Gleichzeitig entsteht ein vielversprechender neuer Ansatz für Reinforcement-Learning, nämlich das Quantum-Reinforcement-Learning: Dieser nutzt die inhärenten Eigenschaften der Quantenmechanik und kann dadurch die trainierbaren Parameter eines Modells reduzieren. Allerdings haben gradientenbasierte Quantum-Multi-Agent-Reinforcement-Learning-Methoden oft mit Barren Plateaus zu kämpfen, die sie daran hindern, die Leistung klassischer Ansätze zu erreichen. Die vorliegende Arbeit basiert auf dem Ansatz von Chen et al. (2022) für gradientenfreies Quantum-Reinforcement-Learning und präsentiert einen Ansatz mit Variational-Quantum-Circuits für Multi-Agent-Reinforcement-Learning unter Verwendung von evolutionärer Optimierung. Der Ansatz wird in dem Environment Coin-Game mit klassischen Ansätzen verglichen. Es wird gezeigt, dass der Variationalle Quantum Circuit Ansatz im Vergleich zu einem neuronalen Netz mit einer ähnlichen Anzahl von trainierbaren Parametern deutlich besser abschneidet. Verglichen mit dem größeren neuronalen Netz erzielt der hier präsentierte Ansatz ähnliche Ergebnisse mit 98 (88%) weniger Parametern.
Autor/in:
Felix Topp
Betreuer:
Michael Kölle, Thomy Phan, Claudia Linnhoff-Popien
Studentische Abschlussarbeit | Veröffentlicht April 2023 | Copyright © QAR-Lab
Anfragen zu dieser Arbeit an die Betreuer