Fontana, Matteo
(2024)
Analisi delle Vulnerabilità dei Chatbot basati su Large Language Models.
[Laurea], Università di Bologna, Corso di Studio in
Informatica [L-DM270]
Documenti full-text disponibili:
![[thumbnail of Thesis]](https://amslaurea.unibo.it/style/images/fileicons/application_pdf.png) |
Documento PDF (Thesis)
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato
Download (4MB)
|
Abstract
Questa tesi affronta il tema della sicurezza nelle applicazioni basate su LLM. Nel dettaglio vengono affrontati i seguenti temi:
- Integrazione degli AI Agents nel Web: una descrizione sul come le vulnerabilità introdotte dagli AI Agents si integrano con le classiche vulnerabilità web. Vengono riportate le differenze di approccio richieste dalla GenAI cybersecurity rispetto alla cybersecurity classica. Inoltre, vengono trattati alcuni aspetti introduttivi relativi alle vulnerabilità dei chatbot con LLM integrato.
- Una Panoramica sulla Sicurezza degli LLM: fornisce una panoramica completa sui possibili approcci di attacco, sulle strategie di difesa e sui vari metodi di valutazione, focalizzati sulla sicurezza delle conversazioni con un LLM.
- Vulnerabilità degli LLM: in cui vengono descritte alcune delle vulnerabilità più note, ad oggi, presenti negli AI Agents. Sono, inoltre, forniti esempi pratici di scenari di attacco insieme a strategie e tecniche per mitigarli.
- Automatizzare la Ricerca di Vulnerabilità: un’analisi su come automatizzare la ricerca di vulnerabilità utilizzando tecniche di LLM Red Teaming, evidenziando anche i limiti ad esse correlati.
- Conclusioni: si discute lo stato dell’arte relativo ai chatbot dotati di intelligenza artificiale, ponendo enfasi sulla direzione intrapresa nel settore e sui possibili sviluppi futuri.
In generale, l’obiettivo è quello di esplorare i concetti fondamentali legati ai Large Language Models e alla Generative AI dal punto di vista della sicurezza informatica, affrontando gli argomenti da diverse prospettive e fornendo una guida chiara e approfondita per coloro che desiderano comprendere le vulnerabilità e le strategie di protezione ad esse associate.
Abstract
Questa tesi affronta il tema della sicurezza nelle applicazioni basate su LLM. Nel dettaglio vengono affrontati i seguenti temi:
- Integrazione degli AI Agents nel Web: una descrizione sul come le vulnerabilità introdotte dagli AI Agents si integrano con le classiche vulnerabilità web. Vengono riportate le differenze di approccio richieste dalla GenAI cybersecurity rispetto alla cybersecurity classica. Inoltre, vengono trattati alcuni aspetti introduttivi relativi alle vulnerabilità dei chatbot con LLM integrato.
- Una Panoramica sulla Sicurezza degli LLM: fornisce una panoramica completa sui possibili approcci di attacco, sulle strategie di difesa e sui vari metodi di valutazione, focalizzati sulla sicurezza delle conversazioni con un LLM.
- Vulnerabilità degli LLM: in cui vengono descritte alcune delle vulnerabilità più note, ad oggi, presenti negli AI Agents. Sono, inoltre, forniti esempi pratici di scenari di attacco insieme a strategie e tecniche per mitigarli.
- Automatizzare la Ricerca di Vulnerabilità: un’analisi su come automatizzare la ricerca di vulnerabilità utilizzando tecniche di LLM Red Teaming, evidenziando anche i limiti ad esse correlati.
- Conclusioni: si discute lo stato dell’arte relativo ai chatbot dotati di intelligenza artificiale, ponendo enfasi sulla direzione intrapresa nel settore e sui possibili sviluppi futuri.
In generale, l’obiettivo è quello di esplorare i concetti fondamentali legati ai Large Language Models e alla Generative AI dal punto di vista della sicurezza informatica, affrontando gli argomenti da diverse prospettive e fornendo una guida chiara e approfondita per coloro che desiderano comprendere le vulnerabilità e le strategie di protezione ad esse associate.
Tipologia del documento
Tesi di laurea
(Laurea)
Autore della tesi
Fontana, Matteo
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
LLM,GenAI,AI Agents,Cybersecurity,Prompt Injection,Red Teaming,Vulnerabilità Web,Vulnerabilità LLM
Data di discussione della Tesi
18 Dicembre 2024
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Fontana, Matteo
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
LLM,GenAI,AI Agents,Cybersecurity,Prompt Injection,Red Teaming,Vulnerabilità Web,Vulnerabilità LLM
Data di discussione della Tesi
18 Dicembre 2024
URI
Statistica sui download
Gestione del documento: