img Leseprobe Leseprobe

Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Dennis Kleinahns

PDF
18,99
Amazon iTunes Thalia.de Weltbild.de Hugendubel Bücher.de ebook.de kobo Osiander Google Books Barnes&Noble bol.com Legimi yourbook.shop Kulturkaufhaus ebooks-center.de
* Affiliatelinks/Werbelinks
Hinweis: Affiliatelinks/Werbelinks
Links auf reinlesen.de sind sogenannte Affiliate-Links. Wenn du auf so einen Affiliate-Link klickst und über diesen Link einkaufst, bekommt reinlesen.de von dem betreffenden Online-Shop oder Anbieter eine Provision. Für dich verändert sich der Preis nicht.

GRIN Verlag img Link Publisher

Naturwissenschaften, Medizin, Informatik, Technik / Datenkommunikation, Netzwerke

Beschreibung

Bachelorarbeit aus dem Jahr 2024 im Fachbereich Informatik - Künstliche Intelligenz, Note: 1,3, Hochschule für Technik Stuttgart (Fakultät Vermessung, Informatik und Mathematik), Sprache: Deutsch, Abstract: Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.

Weitere Titel in dieser Kategorie
Cover Microsoft Azure Security
Heinrich Gantenbein
Cover SQL
SQL
Ralf Adams
Cover SQL
SQL
Ralf Adams

Kundenbewertungen

Schlagwörter

Qunatencomputing, Optimierung