Il metodo di discesa stocastica del gradiente: convergenza e applicazioni.

Lazzara, Alessandro (2024) Il metodo di discesa stocastica del gradiente: convergenza e applicazioni. [Laurea], Università di Bologna, Corso di Studio in Matematica [L-DM270]
Documenti full-text disponibili:
[thumbnail of Thesis] Documento PDF (Thesis)
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato

Download (594kB)

Abstract

La discesa stocastica del gradiente è un metodo iterativo per l'ottimizzazione di certe funzioni, utilizzato specialmente in casi in cui la dimensione dei dati sia particolarmente elevata. Il seguente elaborato è incentrato sulla presentazione di questo metodo e sulla dimostrazione della sua convergenza quasi certa per funzioni obiettivo non convesse. Il testo si divide in tre parti: la prima parte tratta il metodo di discesa del gradiente deterministico e la sua convergenza nel caso convesso. Nella seconda parte si presenta il metodo di discesa del gradiente stocastico, ponendo particolare enfasi nel caso (molto comune nelle applicazioni) in cui la funzione obiettivo sia espressa mediante somma di funzioni. Prima della parte sulla convergenza quasi certa è presente una sezione in cui si mostra come si arriva alla convergenza average iterate e si descrive la variante Randomly stopped. La terza parte mostra come si può applicare la discesa stocastica del gradiente per risolvere problemi di regressione lineare; questa sezione è comprensiva di esempi e codici scritti utilizzando il software MATLAB.

Abstract
Tipologia del documento
Tesi di laurea (Laurea)
Autore della tesi
Lazzara, Alessandro
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Discesa stocastica del gradiente,Discesa del gradiente stocastico,SGD,Convergenza quasi certa,Average iterate convergence,Randomly stopped SGD,Ottimizzazione,Ottimizzazione stocastica,Ottimizzazione non convessa,Regressione lineare
Data di discussione della Tesi
31 Ottobre 2024
URI

Altri metadati

Statistica sui download

Gestione del documento: Visualizza il documento

^