Galeone, Christian
(2026)
Evoluzione degli Kubernetes Operator: Analisi comparativa tra approcci Stateful ed Event-Driven.
[Laurea magistrale], Università di Bologna, Corso di Studio in
Ingegneria informatica [LM-DM270], Documento ad accesso riservato.
Documenti full-text disponibili:
![[thumbnail of Thesis]](https://amslaurea.unibo.it/style/images/fileicons/application_pdf.png) |
Documento PDF (Thesis)
Full-text accessibile solo agli utenti istituzionali dell'Ateneo
Disponibile con Licenza: Salvo eventuali più ampie autorizzazioni dell'autore, la tesi può essere liberamente consultata e può essere effettuato il salvataggio e la stampa di una copia per fini strettamente personali di studio, di ricerca e di insegnamento, con espresso divieto di qualunque utilizzo direttamente o indirettamente commerciale. Ogni altro diritto sul materiale è riservato
Download (3MB)
| Contatta l'autore
|
Abstract
L'evoluzione delle architetture Cloud Native ha progressivamente spostato il focus dalla semplice orchestrazione dei container alla completa automazione delle operazioni di gestione e manutenzione. In questo contesto, il pattern Kubernetes Operator si è affermato come standard per incapsulare logiche operative complesse, portando tuttavia a una rapida proliferazione di controller personalizzati. Sebbene efficace, questo modello tradizionale basato su processi long-running impone un costo fisso in termini di risorse computazionali, gravando significativamente sul Control Plane del cluster anche nei periodi di inattività.
La presente tesi si propone di affrontare questa inefficienza strutturale esplorando l'adozione del paradigma serverless event-driven come alternativa architetturale per lo sviluppo di operatori. L'obiettivo è dimostrare come il disaccoppiamento tra la logica di controllo e il runtime, unito alla capacità di scalare a zero (zero-scaling), possa mitigare drasticamente il consumo di risorse senza compromettere l'affidabilità del sistema.
Il lavoro svolto analizza e confronta le prestazioni di un Operatore Stateful tradizionale basato su Kubebuilder rispetto a una controparte Serverless ingegnerizzata su Knative, integrando tecnologie di runtime avanzate come WebAssembly (Wasm) per minimizzare le latenze di avvio (cold start).
Attraverso una rigorosa analisi sperimentale, condotta simulando scenari di carico variabili, lo studio valuta i trade-off tra le due architetture, focalizzandosi su metriche chiave quali l'impronta di memoria (memory footprint), la reattività di riconciliazione e la scalabilità sotto stress.
I risultati ottenuti evidenziano come l'approccio serverless rappresenti una soluzione promettente per scenari ad alta densità di automazione, offrendo una prospettiva concreta per la riduzione dell'overhead infrastrutturale e favorendo pratiche di green computing all'interno dei moderni data center.
Abstract
L'evoluzione delle architetture Cloud Native ha progressivamente spostato il focus dalla semplice orchestrazione dei container alla completa automazione delle operazioni di gestione e manutenzione. In questo contesto, il pattern Kubernetes Operator si è affermato come standard per incapsulare logiche operative complesse, portando tuttavia a una rapida proliferazione di controller personalizzati. Sebbene efficace, questo modello tradizionale basato su processi long-running impone un costo fisso in termini di risorse computazionali, gravando significativamente sul Control Plane del cluster anche nei periodi di inattività.
La presente tesi si propone di affrontare questa inefficienza strutturale esplorando l'adozione del paradigma serverless event-driven come alternativa architetturale per lo sviluppo di operatori. L'obiettivo è dimostrare come il disaccoppiamento tra la logica di controllo e il runtime, unito alla capacità di scalare a zero (zero-scaling), possa mitigare drasticamente il consumo di risorse senza compromettere l'affidabilità del sistema.
Il lavoro svolto analizza e confronta le prestazioni di un Operatore Stateful tradizionale basato su Kubebuilder rispetto a una controparte Serverless ingegnerizzata su Knative, integrando tecnologie di runtime avanzate come WebAssembly (Wasm) per minimizzare le latenze di avvio (cold start).
Attraverso una rigorosa analisi sperimentale, condotta simulando scenari di carico variabili, lo studio valuta i trade-off tra le due architetture, focalizzandosi su metriche chiave quali l'impronta di memoria (memory footprint), la reattività di riconciliazione e la scalabilità sotto stress.
I risultati ottenuti evidenziano come l'approccio serverless rappresenti una soluzione promettente per scenari ad alta densità di automazione, offrendo una prospettiva concreta per la riduzione dell'overhead infrastrutturale e favorendo pratiche di green computing all'interno dei moderni data center.
Tipologia del documento
Tesi di laurea
(Laurea magistrale)
Autore della tesi
Galeone, Christian
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Indirizzo
CURRICULUM INGEGNERIA INFORMATICA
Ordinamento Cds
DM270
Parole chiave
Cloud Computing, Serverless, Function-as-a-Service, Kubernetes, Operator, Knative, Cold Start
Data di discussione della Tesi
26 Marzo 2026
URI
Altri metadati
Tipologia del documento
Tesi di laurea
(NON SPECIFICATO)
Autore della tesi
Galeone, Christian
Relatore della tesi
Correlatore della tesi
Scuola
Corso di studio
Indirizzo
CURRICULUM INGEGNERIA INFORMATICA
Ordinamento Cds
DM270
Parole chiave
Cloud Computing, Serverless, Function-as-a-Service, Kubernetes, Operator, Knative, Cold Start
Data di discussione della Tesi
26 Marzo 2026
URI
Statistica sui download
Gestione del documento: