Ferraiolo, Enrico
(2024)
Metodologie di attacco ai Large Language Models.
[Laurea], Università di Bologna, Corso di Studio in
Informatica [L-DM270]
Documenti full-text disponibili:
Abstract
Negli ultimi anni, i Large Language Model (LLM) hanno rappresentato una rivoluzione nell’elaborazione del linguaggio naturale grazie alle loro capacità generative e alla comprensione del contesto. Tuttavia questi modelli sono vulnerabili a diversi tipi di attacchi che possono comprometterne la sicurezza e l’affidabilità.
Questo studio vuole formalizzare il concetto degli attacchi ai Large Language Model dando una caratterizzazione matematica al problema.
Gli esperimenti condotti dimostrano la facilità con cui tali attacchi possono manipolare il comportamento del modello, evidenziando rischi per l’integrità e la sicurezza per i proprietari e gli utilizzatori.
Questa tesi, inoltre, affronta ed esplora le principali metodologie di attacco ai LLM sperimentando approfonditamente le tecniche di Prompt Injection e Data Poisoning.
Abstract
Negli ultimi anni, i Large Language Model (LLM) hanno rappresentato una rivoluzione nell’elaborazione del linguaggio naturale grazie alle loro capacità generative e alla comprensione del contesto. Tuttavia questi modelli sono vulnerabili a diversi tipi di attacchi che possono comprometterne la sicurezza e l’affidabilità.
Questo studio vuole formalizzare il concetto degli attacchi ai Large Language Model dando una caratterizzazione matematica al problema.
Gli esperimenti condotti dimostrano la facilità con cui tali attacchi possono manipolare il comportamento del modello, evidenziando rischi per l’integrità e la sicurezza per i proprietari e gli utilizzatori.
Questa tesi, inoltre, affronta ed esplora le principali metodologie di attacco ai LLM sperimentando approfonditamente le tecniche di Prompt Injection e Data Poisoning.
Tipologia del documento
Tesi di laurea
(Laurea)
Autore della tesi
Ferraiolo, Enrico
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Large Language Models,Intelligenza Artificiale,Attaccare Large Language Models,Natural Language Processing,Prompt Injection,Data Poisoning
Data di discussione della Tesi
18 Dicembre 2024
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Ferraiolo, Enrico
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Large Language Models,Intelligenza Artificiale,Attaccare Large Language Models,Natural Language Processing,Prompt Injection,Data Poisoning
Data di discussione della Tesi
18 Dicembre 2024
URI
Statistica sui download
Gestione del documento: