Marastoni, Gabriele
(2018)
Towards predictive maintenance at LHC computing centers: exploration of monitoring data at CNAF.
[Laurea], Università di Bologna, Corso di Studio in
Fisica [L-DM270], Documento ad accesso riservato.
Documenti full-text disponibili:
|
Documento PDF (Thesis)
Full-text accessibile solo agli utenti istituzionali dell'Ateneo
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato
Download (11MB)
| Contatta l'autore
|
Abstract
Nel campo delle applicazioni industriali e scientifiche, l'emergere del machine learning sta cambiando il modo in cui la raccolta dei dati e la loro analisi è concepita e realizzata. Nel dettaglio, l'analisi di volumi massivi di file log compiute da unità computazionali facenti parte di infrastrutture estremamente grandi e complesse sta diventando un modo impegnativo ma promettente per estrarre informazioni fruibili nell'ambito del miglioramento e ottimizzazione nell'uso delle risorse e per un risparmio economico.
Questo è particolarmente interessante per il calcolo computazionale al LHC anche perchè si prevede che le attività future saranno svolte in "flat budget" per maggior parte dei finanziamenti elargiti nei prossimi anni. La Worldwide LHC Computing Grid coordina le operazioni di una grande quantità di centri di calcolo nel mondo, ognuno di questi è una composizione coerente di spazi di storage, potere di elaborazione e connessioni network sopra la quali vengono eseguite una grande quantità di applicazioni che lavorano con livelli di software comuni o specifici di determinati esperimenti. Questi servizi producono grandissimi volumi di log eterogenei e non strutturati i quali possono essere digeriti attraverso approcci tipici del Big Data Analitics. Presso il data center Tier-1 di Bologna il CNAF ha iniziato un'attività in quest'ambito con tentativi di analisi dati; si propone nel lungo periodo di ingegnerizzare e schierare una soluzione di manutenzione predittiva basata su tecniche di machine learning.
Questo lavoro di tesi si propone di raccogliere, manipolare ed esplorare i log prodotti da un servizio specifico del CNAF - StoRM, il servizio di gestione dello storage. L'obiettivo è gettare le basi di questa indagine collezionando osservazioni e producendo strumenti che possano essere utilizzati da altri su differenti tipi di log; quindi fare un primo piccolo passo verso un approccio basato sulla manutenzione predittiva per i centri computazionali di LHC.
Abstract
Nel campo delle applicazioni industriali e scientifiche, l'emergere del machine learning sta cambiando il modo in cui la raccolta dei dati e la loro analisi è concepita e realizzata. Nel dettaglio, l'analisi di volumi massivi di file log compiute da unità computazionali facenti parte di infrastrutture estremamente grandi e complesse sta diventando un modo impegnativo ma promettente per estrarre informazioni fruibili nell'ambito del miglioramento e ottimizzazione nell'uso delle risorse e per un risparmio economico.
Questo è particolarmente interessante per il calcolo computazionale al LHC anche perchè si prevede che le attività future saranno svolte in "flat budget" per maggior parte dei finanziamenti elargiti nei prossimi anni. La Worldwide LHC Computing Grid coordina le operazioni di una grande quantità di centri di calcolo nel mondo, ognuno di questi è una composizione coerente di spazi di storage, potere di elaborazione e connessioni network sopra la quali vengono eseguite una grande quantità di applicazioni che lavorano con livelli di software comuni o specifici di determinati esperimenti. Questi servizi producono grandissimi volumi di log eterogenei e non strutturati i quali possono essere digeriti attraverso approcci tipici del Big Data Analitics. Presso il data center Tier-1 di Bologna il CNAF ha iniziato un'attività in quest'ambito con tentativi di analisi dati; si propone nel lungo periodo di ingegnerizzare e schierare una soluzione di manutenzione predittiva basata su tecniche di machine learning.
Questo lavoro di tesi si propone di raccogliere, manipolare ed esplorare i log prodotti da un servizio specifico del CNAF - StoRM, il servizio di gestione dello storage. L'obiettivo è gettare le basi di questa indagine collezionando osservazioni e producendo strumenti che possano essere utilizzati da altri su differenti tipi di log; quindi fare un primo piccolo passo verso un approccio basato sulla manutenzione predittiva per i centri computazionali di LHC.
Tipologia del documento
Tesi di laurea
(Laurea)
Autore della tesi
Marastoni, Gabriele
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
log,monitoring,big data,lhc,storm,cnaf,tier-1,python,data centre
Data di discussione della Tesi
7 Dicembre 2018
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Marastoni, Gabriele
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
log,monitoring,big data,lhc,storm,cnaf,tier-1,python,data centre
Data di discussione della Tesi
7 Dicembre 2018
URI
Statistica sui download
Gestione del documento: