A First Study of Transferable and Explainable Deep Learning Models for HPC Systems

Palmisano, Enzo Pio (2020) A First Study of Transferable and Explainable Deep Learning Models for HPC Systems. [Laurea magistrale], Università di Bologna, Corso di Studio in Ingegneria informatica [LM-DM270]
Documenti full-text disponibili:
[thumbnail of Thesis] Documento PDF (Thesis)
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato

Download (15MB)

Abstract

Il lavoro descritto in questa tesi è basato sullo studio di modelli di Deep Learning applicati all’anomaly detection per la rilevazioni di stati anomali nei sistemi HPC (High-Performance Computing). In particolare, l’obiettivo è studiare la trasferibilità di un modello e di spiegarne il risultato prodotto attraverso tecniche dell’Explainable Artificial Intelligence. I sistemi HPC sono dotati di numerosi sensori in grado di monitorare il corretto funzionamento in tempo reale. Tuttavia, a causa dell’elevato grado di complessità di questi sistemi, si rende necessario l’uso di tecniche innovative e capaci di prevedere guasti, errori e qualsiasi tipo di anomalia per ridurre i costi di manutenzione e per rendere il servizio sempre disponibile. Negli anni ci sono stati numerosi studi per la realizzazioni di modelli di Deep Learning utili allo scopo, ma ciò che manca a questi modelli è la capacità di generalizzare a condizioni diverse da quelle riscontrate durante la fase di training. Nella prima parte di questo lavoro andremo, quindi, ad analizzare un modello già sviluppato per studiarne la trasferibilità e la sua generalizzazione per un’applicazione più ampia rispetto al dominio su cui è costruito. Un ulteriore problema è dato dalle modalità di risposta di un modello ad un determinato input. Molto spesso risulta essere incomprensibile anche per coloro che hanno costruito il modello, la risposta prodotta. Perciò, attraverso le tecniche dell’Explainable Artificial Intelligence, vengono studiati e analizzati i vari output del modello per comprenderne il funzionamento e motivare i risultati corretti ed errati. Il sistema HPC che andremo ad analizzare è chiamato MARCONI ed è di proprietà del consorzio no-profit Cineca di Bologna. Il Cineca è composto da 70 università italiane, quattro centri di ricerca nazionali e il Ministero di Università e ricerca (MIUR). Il Cineca rappresenta uno dei più potenti centri di supercalcolo per la ricerca scientifica in Italia.

Abstract
Tipologia del documento
Tesi di laurea (Laurea magistrale)
Autore della tesi
Palmisano, Enzo Pio
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
machine learning,deep learning,HPC,Explainable Artificial Intelligence,LIME,submodular-pick,attivazioni reti neurali,anomaly detection,autoencoder,apprendimento supervisionato,a first study of transferable and explainable deep learning models for hpc systems
Data di discussione della Tesi
12 Marzo 2020
URI

Altri metadati

Statistica sui download

Gestione del documento: Visualizza il documento

^