• Home
  • Aktuelles
  • Technologie
  • Forschung
  • Lehre
  • Wirtschaft
  • Jobs
  • Home
  • Aktuelles
  • Technologie
  • Forschung
  • Lehre
  • Wirtschaft
  • Jobs
Kontakt
  • Deutsch
  • English

  • Home
  • Aktuelles
  • Technologie
  • Forschung
  • Lehre
  • Wirtschaft
  • Jobs
Kontakt
  • Deutsch
  • English

QUBO-Generierung für (MAX-)3SAT mittels generativer KI-Methoden

QUBO-Generierung für (MAX-)3SAT mittels generativer KI-Methoden

Abstract:

Das Erstellen von QUBOs für 3-SAT Formeln mittels Pattern QUBOs bringt einige Herausforderungen. Das generieren der Pattern QUBOs und die Erstellung der QUBO ist aufgrund des Brute-Force Ansatzes technisch aufwendig. In dieser Arbeit werden zwei Machine Learning Ansätze für die QUBO Generierung gegeben einer 3-SAT Formel getestet. Für das Encoden der Formeln und Matrizen wurden verschiedene Encodings untersucht. Zu den Formel Encodings zählen Vektor, Word2Vec und BERT. Auf QUBOs wurden latent Repräsentationen getestet. Als Startmodell dient ein conditional Autoencoder. Variationen wie 2-Encoder, vortrainierte Encoder basierend auf einem RESNET18 wurden ebenso getestet. Für 1 Klausel Formeln konnten akkurate QUBOs generiert werden, für untersuchte Formeln mit bis zu 4 Klauseln überschneiden sich die Energien der Lösung- und Restzustände. Letztens wurde ein conditional Diffusion Modell aufgesetzt und mit Vektor, Word2Vec und BERT Formel Embeddings auf 5 und 7 random Klauseln trainiert. Mit BERT Formel Embeddings konnten mit den erstellten QUBOs durchschnittlich die meisten Klauseln einer Formel erfüllt werden. Die Formeln blieben aber zum Großteil ungelöst. Mit maskierten Training für Diffusion kann das Training noch verbessert werden. Es konnte im Durchschnitt mit Masken generierten QUBOs eine Klausel mehr erfüllt werden. Dies verlangt als Input eine vordefinierte Maske in der Datengeneration. Als Hauptgrund für die Ergebnisse kann die spärliche QUBO Datenstruktur und die Schwierigkeit für das Erstellen einer 3-SAT Formel Kodierung verantwortlich gemacht werden.

Autor/in:

Philippe Wehr

Betreuer:

Sebastian Zielinski, Michael Kölle, Claudia Linnhoff-Popien


Studentische Abschlussarbeit | Veröffentlicht März 2025 | Copyright © QAR-Lab
Anfragen zu dieser Arbeit an die Betreuer



QAR-Lab – Quantum Applications and Research Laboratory
Ludwig-Maximilians-Universität München
Oettingenstr. 67
80538 München
Telefon: +49 89 2180-9153
E-Mail: qar-lab@mobile.ifi.lmu.de

© Copyright 2025

Allgemein

Team
Kontakt
Impressum

Social Media

Twitter Linkedin Github

Sprache

  • Deutsch
  • English
Cookie-Zustimmung verwalten
Wir verwenden Cookies, um unsere Website und unseren Service zu optimieren.
Funktional Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Optionen verwalten Dienste verwalten Verwalten von {vendor_count}-Lieferanten Lese mehr über diese Zwecke
Einstellungen anzeigen
{title} {title} {title}