Benchmarking e Prompt Tuning di Large Language Model per la Generazione di Codice

Bighini, Luca (2024) Benchmarking e Prompt Tuning di Large Language Model per la Generazione di Codice. [Laurea], Università di Bologna, Corso di Studio in Ingegneria e scienze informatiche [L-DM270] - Cesena, Documento ad accesso riservato.
Documenti full-text disponibili:
[img] Documento PDF (Thesis)
Full-text non accessibile fino al 31 Marzo 2025.
Disponibile con Licenza: Creative Commons: Attribuzione - Non commerciale - Non opere derivate 4.0 (CC BY-NC-ND 4.0)

Download (3MB) | Contatta l'autore

Abstract

Questo lavoro esplora le capacità di generazione di codice Java avanzato da parte degli attuali modelli generativi di intelligenza artificiale open source, con un focus particolare sul contesto accademico universitario. Attraverso la valutazione di tre Large Language Model (LLM) – Deepseek-Coder, Mistral e CodeLlama – questo studio introduce un nuovo benchmark derivato da compiti di programmazione avanzati richiesti a studenti laureandi. I risultati indicano che, nonostante le generali buone prestazioni, vi è un ampio margine di miglioramento, soprattutto per quanto riguarda la generazione di codice che aderisce ai principi della programmazione orientata agli oggetti e nell'uso efficace degli stream di Java. È stata inoltre studiata la tecnica del prompt tuning, rivelatasi un fattore chiave per aumentare la versatilità dei modelli. Questo lavoro suggerisce nuove prospettive per la ricerca futura, sottolineando il potenziale dell'intelligenza artificiale nel semplificare lo sviluppo software.

Abstract
Tipologia del documento
Tesi di laurea (Laurea)
Autore della tesi
Bighini, Luca
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Intelligenza Artificiale,Transformer,Large Language Model,Benchmarking,Prompt Tuning
Data di discussione della Tesi
15 Marzo 2024
URI

Altri metadati

Gestione del documento: Visualizza il documento

^