Abstract:
Emergente Kooperation im klassischen Multi-Agent Reinforcement Learning hat große Aufmerksamkeit erlangt, insbesondere im Zusammenhang mit sequenziellen sozialen Dilemmas. Während klassische Reinforcement Learning Ansätze gezeigt haben, dass sie zu emergenter Kooperation fähig sind, ist die Forschung zur Erweiterung dieser Methoden auf das aufstrebende Gebiet des Quantum Multi-Agent Reinforcement Learning noch begrenzt, insbesondere mit dem Einsatz von Kommunikation. In dieser Arbeit wenden wir das zweistufige Kommunikationsprotokoll Mutual Acknowledgment Token Exchange (MATE), seine Erweiterung Mutually Endorsed Distributed Incentive Acknowledgment Token Exchange (MEDIATE), den Peer-Rewarding Mechanismus Gifting und Reinforced Inter-Agent Learning (RIAL), einen Ansatz zum Erlernen eines diskreten Kommunikationsprotokolls, auf Quantum Q-Learning an. Wir bewerten die resultierenden acht Ansätze hinsichtlich ihrer Auswirkungen auf emergente Kooperation in drei sequenziellen sozialen Dilemmas, nämlich dem iterierten Prisoner’s Dilemma, der iterierten Stag Hunt und dem iterierten Game of Chicken. Unsere experimentellen Ergebnisse zeigen, dass die Ansätze MATETD, AutoMATE, MEDIATE-I and MEDIATE-S ein hohes Maß an Kooperation in allen drei sequenziellen sozialen Dilemmas erreichten, was beweist, dass Kommunikation eine mögliche Methode ist, um emergente Kooperation in Quantum Multi-Agent Reinforcement Learning zu erreichen.
Autor/in:
Christian Reff
Betreuer:
Michael Kölle, Leo Sünkel, Claudia Linnhoff-Popien
Studentische Abschlussarbeit | Veröffentlicht Mai 2025 | Copyright © QAR-Lab
Anfragen zu dieser Arbeit an die Betreuer