Sfide Etiche nel Machine Learning: Analisi e Mitigazione dei Bias con un Approccio Multidisciplinare

Da Rocha Pinto, Cesare (2024) Sfide Etiche nel Machine Learning: Analisi e Mitigazione dei Bias con un Approccio Multidisciplinare. [Laurea], Università di Bologna, Corso di Studio in Informatica per il management [L-DM270], Documento full-text non disponibile
Il full-text non è disponibile per scelta dell'autore. (Contatta l'autore)

Abstract

Il presente elaborato si propone di analizzare e classificare una serie di bias che possono emergere nello sviluppo di modelli di machine learning. L’analisi si basa su fonti multidisciplinari, provenienti sia dalla letteratura specializzata, sia da ambiti che affrontano la statistica in relazione alla psicologia o all’economia. Attraverso una tassonomia ispirata agli studi recenti di Harini Suresh e John Guttag, vengono esplorate e categorizzate diverse tipologie di bias, mostrando come ciascuna possa influire sulle varie fasi del processo di modellazione. Nella seconda parte dell’elaborato, viene presentato un caso di studio pratico realizzato su un dataset di Kaggle. Utilizzando Python, ho sviluppato un modello predittivo che evidenzia in modo concreto gli effetti dei bias sia sull’accuratezza, sia sui risultati di fairness del modello. In particolare, l’analisi si concentra sulle disparità di genere nei salari, mostrando come i bias storici influenzino le previsioni economiche. Per mitigare questi bias, è stato applicato l’algoritmo Fair-SMOTE, un metodo di pre-processing che riequilibra le distribuzioni degli attributi sensibili nei dati di training. I risultati mostrano come l’uso di tecniche di bias mitigation migliori l’equità del modello senza comprometterne l’accuratezza, dimostrando l’importanza di gestire i bias per sviluppare modelli di machine learning eticamente responsabili.

Abstract
Tipologia del documento
Tesi di laurea (Laurea)
Autore della tesi
Da Rocha Pinto, Cesare
Relatore della tesi
Scuola
Corso di studio
Ordinamento Cds
DM270
Parole chiave
machine learning,bias,bias mitigation,fairness,gender gap,python,classificazione
Data di discussione della Tesi
29 Ottobre 2024
URI

Altri metadati

Gestione del documento: Visualizza il documento

^