Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization
Dennis Kleinahns
* Affiliatelinks/Werbelinks
Links auf reinlesen.de sind sogenannte Affiliate-Links. Wenn du auf so einen Affiliate-Link klickst und über diesen Link einkaufst, bekommt reinlesen.de von dem betreffenden Online-Shop oder Anbieter eine Provision. Für dich verändert sich der Preis nicht.
Naturwissenschaften, Medizin, Informatik, Technik / Datenkommunikation, Netzwerke
Beschreibung
Bachelorarbeit aus dem Jahr 2024 im Fachbereich Informatik - Künstliche Intelligenz, Note: 1,3, Hochschule für Technik Stuttgart (Fakultät Vermessung, Informatik und Mathematik), Sprache: Deutsch, Abstract: Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.
Kundenbewertungen
Qunatencomputing, Optimierung