Modelli di Deep Learning per la generazione di Linguaggio Naturale

Binzoni, Andrea (2021) Modelli di Deep Learning per la generazione di Linguaggio Naturale. [Laurea], Università di Bologna, Corso di Studio in Informatica [L-DM270]
Documenti full-text disponibili:
[img] Documento PDF (Thesis)
Disponibile con Licenza: Creative Commons: Attribuzione - Non commerciale - Condividi allo stesso modo 4.0 (CC BY-NC-SA 4.0)

Download (1MB)

Abstract

I modelli di Deep Learning forniscono l'architettura ideale in numerose applicazioni in ambito LNP, tra cui la generazione automatica di testo, l'attività su cui si concentra questo elaborato e considerata di notevole interesse per la comunità scientifica e la grande industria. Partendo dai concetti fondamentali del Machine Learning e dalle principali famiglie di Reti Neurali, vengono introdotte le tecniche fondamentali di modellazione linguistica e infine analizzato il funzionamento dei modelli generativi più performanti: Long Short-Term Memory, GRU, GAE e le rivoluzionarie architetture Transformer, BERT e GPT-3, che oggi rappresentano lo stato dell'arte di questa attività. La fase sperimentale comprende la realizzazione di un modello linguistico a livello carattere basato su Long Short-Term Memory, in cui verranno illustrate tutte le procedure coinvolte e i risultati ottenuti, dall'organizzazione del corpus al processo di addestramento, fino alla fase generativa, in cui si compie con successo la produzione testuale in lingua italiana.

Abstract
Tipologia del documento
Tesi di laurea (Laurea)
Autore della tesi
Binzoni, Andrea
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Deep Learning,Natural Language Processing,Machine Learning,Modelli Linguistici,Transformer,LSTM,generazione automatica di testo,text generation,reti neurali,reti neurali ricorrenti
Data di discussione della Tesi
15 Dicembre 2021
URI

Altri metadati

Statistica sui download

Gestione del documento: Visualizza il documento

^