Gestione di un sistema HSS tramite Maximum Entropy Inverse Reinforcement Learning

Fornaciari, Giacomo (2025) Gestione di un sistema HSS tramite Maximum Entropy Inverse Reinforcement Learning. [Laurea], Università di Bologna, Corso di Studio in Informatica [L-DM270]
Documenti full-text disponibili:
[thumbnail of Thesis] Documento PDF (Thesis)
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato

Download (3MB)

Abstract

Negli ultimi anni, con l'aumento dell'utilizzo di fonti rinnovabili, è diventato sempre più importante trovare sistemi capaci di accumulare energia per gestire al meglio la differenza tra produzione e consumo. Per questo motivo, l’idrogeno si sta rivelando una risorsa strategica, perché permette di immagazzinare energia prodotta in eccesso e di usarla quando serve. In questa tesi viene trattata l'ottimizzazione della gestione economica di un sistema di stoccaggio a idrogeno (Hydrogen Storage System, HSS), utilizzando tecniche come il Reinforcement Learning (RL) e l'Inverse Reinforcement Learning (IRL), in particolare sul metodo Maximum Entropy IRL. Per il lavoro di ricerca è stato realizzato un ambiente simulato, basato sulla libreria Gymnasium, che riproduce un impianto formato da un elettrolizzatore, una cella a combustibile e un serbatoio per l’idrogeno. Il modello sviluppato è in grado di imparare come gestire in modo ottimale la produzione, lo stoccaggio e la vendita di energia, con l’obiettivo di aumentare i profitti e ridurre gli sprechi. Sono stati messi a confronto diversi algoritmi, come Proximal Policy Optimization (PPO) e Deep Q-Network (DQN). Dai test è emerso che PPO offre maggiore stabilità e risultati migliori in scenari complessi. Inoltre, l’approccio IRL ha dimostrato di saper generare strategie più affidabili ed efficienti rispetto al solo RL, soprattutto in contesti dinamici e incerti. Per la ricerca sono stati utilizzati de dati simulati, visto che non sono ancora disponibili dataset industriali reali su larga scala. I risultati confermano il potenziale dell’IRL per migliorare la gestione dell’energia e rappresentano un passo in avanti verso soluzioni più sostenibili per la transizione energetica.

Abstract
Tipologia del documento
Tesi di laurea (Laurea)
Autore della tesi
Fornaciari, Giacomo
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Hydrogen Storage System,Idrogeno verde,Machine Learning,Ottimizzazione energetica,Reinforcement Learning,Inverse Reinforcement Learning,smart grid
Data di discussione della Tesi
15 Luglio 2025
URI

Altri metadati

Statistica sui download

Gestione del documento: Visualizza il documento

^