• Home
  • Aktuelles
  • Technologie
  • Forschung
  • Lehre
  • Wirtschaft
  • Jobs
  • Home
  • Aktuelles
  • Technologie
  • Forschung
  • Lehre
  • Wirtschaft
  • Jobs
Kontakt
  • Deutsch
  • English

  • Home
  • Aktuelles
  • Technologie
  • Forschung
  • Lehre
  • Wirtschaft
  • Jobs
Kontakt
  • Deutsch
  • English

Quantum Transformer: Nutzung Variationeller Quantenschaltkreise zur Natürlichen Sprachverarbeitung

Quantum Transformer: Nutzung Variationeller Quantenschaltkreise zur Natürlichen Sprachverarbeitung

Abstract:

Jüngste Fortschritte im Bereich großer Sprachmodelle haben Transformermodelle als dominantes Paradigma in der natürlichen Sprachverarbeitung etabliert. Während diese Modelle Spitzenleistungen erzielen, führt ihr exponentielles Wachstum in Bezug auf Parameteranzahl und Rechenaufwand zu zunehmenden Bedenken hinsichtlich Skalierbarkeit, Energieverbrauch und ökologischer Nachhaltigkeit. Parallel dazu hat sich Quantum Machine Learning als vielversprechendes Forschungsfeld herausgebildet, das untersucht, ob Quantencomputing effizientere Lernmechanismen bieten kann, insbesondere durch den Einsatz von parametrisierten Quantenschaltkreisen, die mit vergleichsweise wenigen Parametern wettbewerbsfähige Leistungen zeigen. Diese Arbeit untersucht, ob sich ein Quanten-Transformermodell entwerfen lässt, das die klassische Transformerarchitektur strukturell nachbildet und gleichzeitig auf Noisy Intermediate-Scale Quantum Hardware ausführbar bleibt. Zu diesem Zweck wird eine modulare, NISQ-kompatible Quanten-Transformerarchitektur vorgestellt, die die zentralen klassische Komponenten Embedding, Multi-Head Attention und Encoder-Decoder-Struktur mithilfe von VQCs realisiert. Jede Komponente wird mit flachen, stark verschränkenden Quantenschaltkreisen implementiert, um Schaltkreistiefe und Parameteranzahl zu minimieren. Das Modell wird anhand synthetischer Sprachmodellierungsaufgaben evaluiert, wobei Quanten- und klassische Varianten unter gleichen Bedingungen, einschließlich identischer Token-Vokabulare und äquivalenter Parameterbudgets verglichen werden. Die Ergebnisse zeigen, dass das Quantenmodell in der Lage ist, einfache formale Sprachen zu erlernen, schnell zu konvergieren und in bestimmten Konfigurationen deterministische Tokenfolgen perfekt zu rekonstruieren. Bei komplexeren Aufgaben, die Generalisierungsfähigkeit erfordern, bleibt die Leistung jedoch hinter der klassischer Modelle zurück. Diese Ergebnisse demonstrieren die prinzipielle Durchführbarkeit der vorgeschlagenen Architektur auf nahzeitlicher Hardware und positionieren das Modell als Machbarkeitsnachweis für das Potenzial von Encoder-Decoder-Quantum-Transformern in der Sprachverarbeitung.

Autor/in:

Julian Hager

Betreuer:

Michael Kölle, Gerhard Stenzel, Thomas Gabor, Claudia Linnhoff-Popien


Studentische Abschlussarbeit | Veröffentlicht Juni 2025 | Copyright © QAR-Lab
Anfragen zu dieser Arbeit an die Betreuer



QAR-Lab – Quantum Applications and Research Laboratory
Ludwig-Maximilians-Universität München
Oettingenstr. 67
80538 München
Telefon: +49 89 2180-9153
E-Mail: qar-lab@mobile.ifi.lmu.de

© Copyright 2025

Allgemein

Team
Kontakt
Impressum

Social Media

Twitter Linkedin Github

Sprache

  • Deutsch
  • English
Cookie-Zustimmung verwalten
Wir verwenden Cookies, um unsere Website und unseren Service zu optimieren.
Funktional Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Optionen verwalten Dienste verwalten Verwalten von {vendor_count}-Lieferanten Lese mehr über diese Zwecke
Einstellungen anzeigen
{title} {title} {title}