Tomassi, Martin
(2025)
Valutazione Metodologica ed Applicativa di KAN, MLP, Random Forest e XGBoost con Tecniche di Ottimizzazione su differenti casi di studio.
[Laurea], Università di Bologna, Corso di Studio in
Ingegneria e scienze informatiche [L-DM270] - Cesena
Documenti full-text disponibili:
Abstract
La presente tesi offre una valutazione metodologica ed empirica approfondita di quattro architetture di apprendimento automatico: Multi-Layer Perceptron (MLP), Kolmogorov-Arnold Networks (KAN), Random Forest (RF) e eXtreme Gradient Boosting (XGBoost). La ricerca si distingue per l'impiego di un rigoroso framework di validazione, garantendo stime affidabili della capacità di generalizzazione dei modelli in tre distinti casi di studio reali (regressione su dati tabellari, classificazione su serie storiche e classificazione di immagini). I risultati dimostrano che l'efficacia di un modello è strettamente dipendente dal contesto applicativo: XGBoost si è rivelato la scelta ottimale per problemi di regressione su dati strutturati, mentre le KAN hanno offerto un equilibrio superiore tra prestazioni e complessità parametrica in scenari di classificazione. Una sezione centrale di ablazione ha rivelato che i modelli ensemble mostrano una notevole resilienza al pruning, mantenendo la loro accuratezza anche con una riduzione significativa delle componenti, a differenza delle reti neurali che si degradano più rapidamente. L'analisi conclude che la selezione del modello più idoneo per il deployment non si basa unicamente sulle metriche di performance assolute, ma deve considerare un'attenta ponderazione della complessità computazionale, della scalabilità e della robustezza.
Abstract
La presente tesi offre una valutazione metodologica ed empirica approfondita di quattro architetture di apprendimento automatico: Multi-Layer Perceptron (MLP), Kolmogorov-Arnold Networks (KAN), Random Forest (RF) e eXtreme Gradient Boosting (XGBoost). La ricerca si distingue per l'impiego di un rigoroso framework di validazione, garantendo stime affidabili della capacità di generalizzazione dei modelli in tre distinti casi di studio reali (regressione su dati tabellari, classificazione su serie storiche e classificazione di immagini). I risultati dimostrano che l'efficacia di un modello è strettamente dipendente dal contesto applicativo: XGBoost si è rivelato la scelta ottimale per problemi di regressione su dati strutturati, mentre le KAN hanno offerto un equilibrio superiore tra prestazioni e complessità parametrica in scenari di classificazione. Una sezione centrale di ablazione ha rivelato che i modelli ensemble mostrano una notevole resilienza al pruning, mantenendo la loro accuratezza anche con una riduzione significativa delle componenti, a differenza delle reti neurali che si degradano più rapidamente. L'analisi conclude che la selezione del modello più idoneo per il deployment non si basa unicamente sulle metriche di performance assolute, ma deve considerare un'attenta ponderazione della complessità computazionale, della scalabilità e della robustezza.
Tipologia del documento
Tesi di laurea
(Laurea)
Autore della tesi
Tomassi, Martin
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
MLP,KAN,Random Forest,XGBoost,Machine Learning,Deep Learning,CNN,Random Search,Grid Search,Bayesian optimization,Genetic algorithms,Cross Validation,Time Series Cross Validation,Nested Cross Validation,Pruning,Ablation study
Data di discussione della Tesi
2 Ottobre 2025
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Tomassi, Martin
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
MLP,KAN,Random Forest,XGBoost,Machine Learning,Deep Learning,CNN,Random Search,Grid Search,Bayesian optimization,Genetic algorithms,Cross Validation,Time Series Cross Validation,Nested Cross Validation,Pruning,Ablation study
Data di discussione della Tesi
2 Ottobre 2025
URI
Statistica sui download
Gestione del documento: