Documenti full-text disponibili:
![[thumbnail of Thesis]](https://amslaurea.unibo.it/style/images/fileicons/application_pdf.png) |
Documento PDF (Thesis)
Full-text accessibile solo agli utenti istituzionali dell'Ateneo
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato
Download (535kB)
| Contatta l'autore
|
Abstract
I Large Language Models (LLM) sono modelli di apprendimento automatico progettati per l'elaborazione del linguaggio naturale e trovano una delle loro principali applicazioni nello sviluppo di chatbot. È possibile migliorare le capacità di tali sistemi per un dominio applicativo specifico mediante l'approccio architetturale di Retrieval-Augmented Generation (RAG), che permette al modello LLM di attingere ad una base di conoscenza ulteriore sul dominio in oggetto.
L'obiettivo di questa tesi è l'implementazione di un prototipo di sistema RAG che sia realizzato da microservizi containerizzati e dispiegati su più macchine virtuali locali con risorse limitate. A seguito della presentazione delle tecnologie utilizzate, è svolta l'analisi dei requisiti del sistema e sono discusse le scelte effettuate di conseguenza in merito alla distribuzione delle risorse e al dispiegamento dei servizi. Successivamente, è descritto il processo implementativo del sistema, dalla configurazione delle macchine virtuali fino al deployment dei servizi. Infine, sono presentati e commentati i risultati ottenuti.
Abstract
I Large Language Models (LLM) sono modelli di apprendimento automatico progettati per l'elaborazione del linguaggio naturale e trovano una delle loro principali applicazioni nello sviluppo di chatbot. È possibile migliorare le capacità di tali sistemi per un dominio applicativo specifico mediante l'approccio architetturale di Retrieval-Augmented Generation (RAG), che permette al modello LLM di attingere ad una base di conoscenza ulteriore sul dominio in oggetto.
L'obiettivo di questa tesi è l'implementazione di un prototipo di sistema RAG che sia realizzato da microservizi containerizzati e dispiegati su più macchine virtuali locali con risorse limitate. A seguito della presentazione delle tecnologie utilizzate, è svolta l'analisi dei requisiti del sistema e sono discusse le scelte effettuate di conseguenza in merito alla distribuzione delle risorse e al dispiegamento dei servizi. Successivamente, è descritto il processo implementativo del sistema, dalla configurazione delle macchine virtuali fino al deployment dei servizi. Infine, sono presentati e commentati i risultati ottenuti.
Tipologia del documento
Tesi di laurea
(Laurea)
Autore della tesi
Boschetti, Elena
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Large Language Models,Retrieval-Augmented Generation,Ollama,Chroma,LangChain,Flask,Virtualizzazione,Macchine Virtuali,VirtualBox,Container,Docker,Docker Compose,Docker Swarm
Data di discussione della Tesi
14 Marzo 2025
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Boschetti, Elena
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Large Language Models,Retrieval-Augmented Generation,Ollama,Chroma,LangChain,Flask,Virtualizzazione,Macchine Virtuali,VirtualBox,Container,Docker,Docker Compose,Docker Swarm
Data di discussione della Tesi
14 Marzo 2025
URI
Statistica sui download
Gestione del documento: