Documenti full-text disponibili:
Abstract
Negli ultimi anni il deep learning ha riscontrando molto interesse da parte della comunità scientifica, in gran parte grazie ai risultati ottenuti a partire dal 2012 nell’ambito di visione artificiale, del riconoscimento del parlato e della sintesi vocale.
I più importanti risultati nell’ambito di deep learning sono stati ottenuti addestrando modelli di machine learning su dataset statici, iterando più volte la procedura di addestramento su tutti i dati disponibili. Ciò si contrappone a come gli umani imparano, cioè vedendo i dati (immagini, suoni,
ecc.) una sola volta ma riuscendo comunque a ricordare il passato con un elevato livello di precisione. Il modo in cui gli umani apprendono viene chiamato apprendimento continuo (o continuous learning).
Approcci all’addestramento dei modelli che evitano di osservare un pattern del dataset ripetutamente soffrono di un problema chiamato catastrophic forgetting, per il quale si tende a dimenticare le caratteristiche dei pattern visti in passato, facendo sì che il modello riconosca solo pattern simili a quelli visti recentemente.
Varie soluzioni al problema sono state proposte, ma nessuna ottiene ancora performance simili a quelle ottenibili con l’approccio cumulativo, che esegue la procedura di addestramento su tutti i dati disponibili iterativamente.
Il contributo dell’autore è stato quello di calcolare l’accuratezza della tecnica di apprendimento continuo iCaRL su dataset CORe50 e confrontare la performance ottenuta con i risultati ottenuti da altri autori nello stesso dataset utilizzando altre tecniche.
I risultati mostrano come gli approcci attuali all’apprendimento continuo siano ancora nella loro infanzia, ottenendo livelli di accuratezza non comparabili a quelli ottenibili con l’approccio cumulativo.
Abstract
Negli ultimi anni il deep learning ha riscontrando molto interesse da parte della comunità scientifica, in gran parte grazie ai risultati ottenuti a partire dal 2012 nell’ambito di visione artificiale, del riconoscimento del parlato e della sintesi vocale.
I più importanti risultati nell’ambito di deep learning sono stati ottenuti addestrando modelli di machine learning su dataset statici, iterando più volte la procedura di addestramento su tutti i dati disponibili. Ciò si contrappone a come gli umani imparano, cioè vedendo i dati (immagini, suoni,
ecc.) una sola volta ma riuscendo comunque a ricordare il passato con un elevato livello di precisione. Il modo in cui gli umani apprendono viene chiamato apprendimento continuo (o continuous learning).
Approcci all’addestramento dei modelli che evitano di osservare un pattern del dataset ripetutamente soffrono di un problema chiamato catastrophic forgetting, per il quale si tende a dimenticare le caratteristiche dei pattern visti in passato, facendo sì che il modello riconosca solo pattern simili a quelli visti recentemente.
Varie soluzioni al problema sono state proposte, ma nessuna ottiene ancora performance simili a quelle ottenibili con l’approccio cumulativo, che esegue la procedura di addestramento su tutti i dati disponibili iterativamente.
Il contributo dell’autore è stato quello di calcolare l’accuratezza della tecnica di apprendimento continuo iCaRL su dataset CORe50 e confrontare la performance ottenuta con i risultati ottenuti da altri autori nello stesso dataset utilizzando altre tecniche.
I risultati mostrano come gli approcci attuali all’apprendimento continuo siano ancora nella loro infanzia, ottenendo livelli di accuratezza non comparabili a quelli ottenibili con l’approccio cumulativo.
Tipologia del documento
Tesi di laurea
(Laurea magistrale)
Autore della tesi
Gatto, Lorenzo
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
continuous,learning,apprendimento,continuo,machine,deep,learning,catastrophic,forgetting,core50,icarl
Data di discussione della Tesi
22 Marzo 2018
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Gatto, Lorenzo
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
continuous,learning,apprendimento,continuo,machine,deep,learning,catastrophic,forgetting,core50,icarl
Data di discussione della Tesi
22 Marzo 2018
URI
Statistica sui download
Gestione del documento: