Metodologie di attacco ai Large Language Models

Ferraiolo, Enrico (2024) Metodologie di attacco ai Large Language Models. [Laurea], Università di Bologna, Corso di Studio in Informatica [L-DM270]
Documenti full-text disponibili:
[thumbnail of Thesis] Documento PDF (Thesis)
Disponibile con Licenza: Creative Commons: Attribuzione - Non commerciale - Condividi allo stesso modo 4.0 (CC BY-NC-SA 4.0)

Download (3MB)

Abstract

Negli ultimi anni, i Large Language Model (LLM) hanno rappresentato una rivoluzione nell’elaborazione del linguaggio naturale grazie alle loro capacità generative e alla comprensione del contesto. Tuttavia questi modelli sono vulnerabili a diversi tipi di attacchi che possono comprometterne la sicurezza e l’affidabilità. Questo studio vuole formalizzare il concetto degli attacchi ai Large Language Model dando una caratterizzazione matematica al problema. Gli esperimenti condotti dimostrano la facilità con cui tali attacchi possono manipolare il comportamento del modello, evidenziando rischi per l’integrità e la sicurezza per i proprietari e gli utilizzatori. Questa tesi, inoltre, affronta ed esplora le principali metodologie di attacco ai LLM sperimentando approfonditamente le tecniche di Prompt Injection e Data Poisoning.

Abstract
Tipologia del documento
Tesi di laurea (Laurea)
Autore della tesi
Ferraiolo, Enrico
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Large Language Models,Intelligenza Artificiale,Attaccare Large Language Models,Natural Language Processing,Prompt Injection,Data Poisoning
Data di discussione della Tesi
18 Dicembre 2024
URI

Altri metadati

Statistica sui download

Gestione del documento: Visualizza il documento

^