Verri, Alessandro
(2024)
Verso una migliore comprensione dei modelli linguistici di grandi dimensioni: Spiegabilità attraverso XAI.
[Laurea], Università di Bologna, Corso di Studio in
Informatica per il management [L-DM270]
Documenti full-text disponibili:
Abstract
Negli ultimi anni, i Large Language Models (LLM) hanno raggiunto un livello di sofisticazione tale da produrre testi simili a quelli umani in una vasta gamma di contesti applicativi. Tuttavia, la natura opaca e la complessità intrinseca di questi modelli rendono difficile comprenderne il funzionamento interno, sollevando problemi di affidabilità, sicurezza ed etica. L’Explainable Artificial Intelligence (XAI) mira a rendere più trasparenti le “scatole nere” dell’AI, fornendo strumenti e tecniche per interpretare i risultati dei modelli.
Questa tesi esplora l'efficacia di alcuni metodi di XAI, come LIME (Local Interpretable Model-agnostic Explanations) e Captum, applicandoli a LLM di piccole dimensioni. Attraverso esperimenti iniziali, come l’identificazione della capitale di una nazione, si è valutato quali parti del prompt risultano più significative per la predizione, confrontando la capacità esplicativa dei vari tool. I risultati mostrano che i metodi basati sulla perturbazione (LIME e Captum, Perturbation Based) forniscono spiegazioni più coerenti e interpretazioni più comprensibili rispetto ai metodi basati sul gradiente. Tuttavia, resta la necessità di ulteriori ricerche per affrontare limiti quali la complessità dei modelli di maggiori dimensioni, l'ottimizzazione della configurazione ottimale degli strumenti XAI e l’applicazione degli strumenti a prompt e task più complessi.
In definitiva, questa tesi evidenzia come l’applicazione di tecniche XAI sugli LLM possa favorire una maggiore trasparenza e affidabilità, suggerendo possibili direzioni future per lo sviluppo di standard, benchmark e metodologie di testing più avanzati.
Abstract
Negli ultimi anni, i Large Language Models (LLM) hanno raggiunto un livello di sofisticazione tale da produrre testi simili a quelli umani in una vasta gamma di contesti applicativi. Tuttavia, la natura opaca e la complessità intrinseca di questi modelli rendono difficile comprenderne il funzionamento interno, sollevando problemi di affidabilità, sicurezza ed etica. L’Explainable Artificial Intelligence (XAI) mira a rendere più trasparenti le “scatole nere” dell’AI, fornendo strumenti e tecniche per interpretare i risultati dei modelli.
Questa tesi esplora l'efficacia di alcuni metodi di XAI, come LIME (Local Interpretable Model-agnostic Explanations) e Captum, applicandoli a LLM di piccole dimensioni. Attraverso esperimenti iniziali, come l’identificazione della capitale di una nazione, si è valutato quali parti del prompt risultano più significative per la predizione, confrontando la capacità esplicativa dei vari tool. I risultati mostrano che i metodi basati sulla perturbazione (LIME e Captum, Perturbation Based) forniscono spiegazioni più coerenti e interpretazioni più comprensibili rispetto ai metodi basati sul gradiente. Tuttavia, resta la necessità di ulteriori ricerche per affrontare limiti quali la complessità dei modelli di maggiori dimensioni, l'ottimizzazione della configurazione ottimale degli strumenti XAI e l’applicazione degli strumenti a prompt e task più complessi.
In definitiva, questa tesi evidenzia come l’applicazione di tecniche XAI sugli LLM possa favorire una maggiore trasparenza e affidabilità, suggerendo possibili direzioni future per lo sviluppo di standard, benchmark e metodologie di testing più avanzati.
Tipologia del documento
Tesi di laurea
(Laurea)
Autore della tesi
Verri, Alessandro
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
XAI,LLM,AI,LIME,Captum
Data di discussione della Tesi
17 Dicembre 2024
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Verri, Alessandro
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
XAI,LLM,AI,LIME,Captum
Data di discussione della Tesi
17 Dicembre 2024
URI
Statistica sui download
Gestione del documento: