Analisi delle Limitazioni dei Large Language Models nell’Ottimizzazione del Codice: Uno Studio Comparativo

Barbanti, Alessandro (2024) Analisi delle Limitazioni dei Large Language Models nell’Ottimizzazione del Codice: Uno Studio Comparativo. [Laurea], Università di Bologna, Corso di Studio in Informatica [L-DM270], Documento ad accesso riservato.
Documenti full-text disponibili:
[thumbnail of Thesis] Documento PDF (Thesis)
Full-text accessibile solo agli utenti istituzionali dell'Ateneo
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato

Download (639kB) | Contatta l'autore
[thumbnail of Supplementary file] Documento PDF (Supplementary file)
Full-text accessibile solo agli utenti istituzionali dell'Ateneo
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato

Download (294kB) | Contatta l'autore

Abstract

L’analisi e l’ottimizzazione del codice rappresentano una sfida cruciale per i Large Language Models (LLM), nonostante il loro crescente utilizzo in ambiti complessi come la programmazione assistita e la rilevazione di vulnerabilità. Tecniche consolidate come il copy propagation e il constant folding, comunemente impiegate dai compilatori statici, si sono rivelate difficili da replicare per questi modelli, a causa della loro analisi probabilistica anzichè semantica. In questo studio, sono stati analizzati modelli come Code2Vec, GraphCodeBERT, LLaMA e ChatGPT-4 per valutare la loro capacità di identificare l’equivalenza funzionale tra algoritmi standard e perturbati, utilizzando un dataset progettato ad hoc. Nonostante l’applicazione di tecniche di prompt engineering abbia portato a miglioramenti nelle performance, i risultati mostrano che gli LLM non sono ancora strumenti affidabili per l’analisi e l’ottimizzazione del codice. Questo lavoro esplora le difficoltà incontrate dai modelli e propone possibili direzioni per future ricerche volte a colmare queste lacune.

Abstract
Tipologia del documento
Tesi di laurea (Laurea)
Autore della tesi
Barbanti, Alessandro
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Large Language Models,analisi statica,copy propagation,constant folding,prompt engineering,analisi di vunerabilità,ChatGPT-4,LLaMA,GraphCodeBERT,Code2Vec,Ottimizzazione del codice
Data di discussione della Tesi
18 Dicembre 2024
URI

Altri metadati

Statistica sui download

Gestione del documento: Visualizza il documento

^