Il full-text non è disponibile per scelta dell'autore.
(
Contatta l'autore)
Abstract
I Large Language Model (LLM) hanno rivoluzionato il campo del Natural Language Processing e dell'intelligenza artificiale, dimostrandosi in grado di risolvere un gran numero di "language task". Tuttavia, operano come "scatole nere", con limitato accesso a conoscenze fattuali. D'altra parte, i Knowledge Graph (KG) offrono maggior trasparenza e accesso a conoscenze fattuali mentre gli Abstract Meaning Representation (AMR) forniscono una rappresentazione strutturata della semantica di una frase. Di contro, la creazione e la gestione di KG e AMR sono spesso complesse e laboriose. Integrare LLM con KG e AMR emerge quindi come una strategia vantaggiosa, sfruttando le capacità dei LLM per affrontare le sfide nella costruzione di KG e AMR.
In questa tesi viene introdotto PAR (Parse And Repeat), un nuovo approccio alla trasformazione Text-to-AMR. Questo modello sfrutta il meccanismo di prompt dei LLM e una verifica iterativa per raffinare i grafi AMR. Quest'ultima consente di migliorare incrementalmente i grafi AMR prodotti sulla base dei suggerimenti forniti da un verificatore, cercando quindi di ottenere prestazioni ottimali in un ambiente zero-shot.
Abstract
I Large Language Model (LLM) hanno rivoluzionato il campo del Natural Language Processing e dell'intelligenza artificiale, dimostrandosi in grado di risolvere un gran numero di "language task". Tuttavia, operano come "scatole nere", con limitato accesso a conoscenze fattuali. D'altra parte, i Knowledge Graph (KG) offrono maggior trasparenza e accesso a conoscenze fattuali mentre gli Abstract Meaning Representation (AMR) forniscono una rappresentazione strutturata della semantica di una frase. Di contro, la creazione e la gestione di KG e AMR sono spesso complesse e laboriose. Integrare LLM con KG e AMR emerge quindi come una strategia vantaggiosa, sfruttando le capacità dei LLM per affrontare le sfide nella costruzione di KG e AMR.
In questa tesi viene introdotto PAR (Parse And Repeat), un nuovo approccio alla trasformazione Text-to-AMR. Questo modello sfrutta il meccanismo di prompt dei LLM e una verifica iterativa per raffinare i grafi AMR. Quest'ultima consente di migliorare incrementalmente i grafi AMR prodotti sulla base dei suggerimenti forniti da un verificatore, cercando quindi di ottenere prestazioni ottimali in un ambiente zero-shot.
Tipologia del documento
Tesi di laurea
(Laurea magistrale)
Autore della tesi
Negri, Andrea
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Large Language Models,Knowledge Graph,Abstract Meaning Rrepresentation,Prompting,Natural Language Processing
Data di discussione della Tesi
14 Dicembre 2023
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Negri, Andrea
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
Large Language Models,Knowledge Graph,Abstract Meaning Rrepresentation,Prompting,Natural Language Processing
Data di discussione della Tesi
14 Dicembre 2023
URI
Gestione del documento: