La piattaforma U-Probe mira ad essere un supporto ad un crescente numero di utilizzatori che hanno necessità di valutare le performances di un modello e soprat- tutto la sua incertezza. Per questo motivo la piattaforma è dotata di una intuitiva interfaccia grafica semplice da utilizzare anche per i non addetti ai lavori. L’analisi dell’incertezza delle predizioni di un modello di Machine Learning o Deep Learning può essere effettuata utilizzando varie tecniche. Alcune di queste sono intrusive (anche dette by design), tali tecniche vanno a modificare l’architettura in- troducendo strumenti probabilistici che possono fornire importanti indicazioni sulle caratteristiche delle predizioni, a livello di affidabilità e incertezza. Tali tecniche comprendono ad esempio le Bayesian Neural Networks, i Variational Autoencoders ed i Deep Gaussian Processes. Sono tecniche molto performanti, sia nel mitigare l’overfitting che nell’uncertainty quantification, di contro sono però molto costose e richiedono molte risorse di calcolo e di tempo per l’allenamento dei modelli. Esistono poi le tecniche semi-intrusive, i cui più conosciuti rappresentanti sono i Deep En- semble; esse rappresentano una ampia classe di approcci che in generale combinano più modelli secondo criteri specifici in modo da valutare l’efficienza, l’incertezza e l’affidabilità delle predizioni senza interferire troppo con le architetture di partenza, ma richiedendo comunque un ampio dispendio di risorse. In questo lavoro abbiamo deciso di utilizzare per i nostri scopi esclusivamente metodi post-hoc, cioè non intrusivi, come il Trust Score ed il Monte Carlo Dropout, che sono in grado di fare efficaci valutazioni sull’incertezza delle predizioni quando il modello è stato già allenato, senza andare a interferire con le fasi di apprendimento o a modificare i parametri già imparati dal modello durante la back propagation. Tali metodi sono leggermente meno performanti dei metodi intrusivi, ma hanno il vantaggio di essere estremamente più rapidi e meno costosi.

U-ProBE: a graphical Python interface to handle uncertainties in deep learning models / Bandini L., (candidato); Bacciu, D.; Del Corso, G.; Caudai, C.. - ELETTRONICO. - (2024 Nov 29).

U-ProBE: a graphical Python interface to handle uncertainties in deep learning models

Del Corso G.
Relatore interno
;
Caudai C.
Relatore interno
2024

Abstract

La piattaforma U-Probe mira ad essere un supporto ad un crescente numero di utilizzatori che hanno necessità di valutare le performances di un modello e soprat- tutto la sua incertezza. Per questo motivo la piattaforma è dotata di una intuitiva interfaccia grafica semplice da utilizzare anche per i non addetti ai lavori. L’analisi dell’incertezza delle predizioni di un modello di Machine Learning o Deep Learning può essere effettuata utilizzando varie tecniche. Alcune di queste sono intrusive (anche dette by design), tali tecniche vanno a modificare l’architettura in- troducendo strumenti probabilistici che possono fornire importanti indicazioni sulle caratteristiche delle predizioni, a livello di affidabilità e incertezza. Tali tecniche comprendono ad esempio le Bayesian Neural Networks, i Variational Autoencoders ed i Deep Gaussian Processes. Sono tecniche molto performanti, sia nel mitigare l’overfitting che nell’uncertainty quantification, di contro sono però molto costose e richiedono molte risorse di calcolo e di tempo per l’allenamento dei modelli. Esistono poi le tecniche semi-intrusive, i cui più conosciuti rappresentanti sono i Deep En- semble; esse rappresentano una ampia classe di approcci che in generale combinano più modelli secondo criteri specifici in modo da valutare l’efficienza, l’incertezza e l’affidabilità delle predizioni senza interferire troppo con le architetture di partenza, ma richiedendo comunque un ampio dispendio di risorse. In questo lavoro abbiamo deciso di utilizzare per i nostri scopi esclusivamente metodi post-hoc, cioè non intrusivi, come il Trust Score ed il Monte Carlo Dropout, che sono in grado di fare efficaci valutazioni sull’incertezza delle predizioni quando il modello è stato già allenato, senza andare a interferire con le fasi di apprendimento o a modificare i parametri già imparati dal modello durante la back propagation. Tali metodi sono leggermente meno performanti dei metodi intrusivi, ma hanno il vantaggio di essere estremamente più rapidi e meno costosi.
29-nov-2024
Istituto di Scienza e Tecnologie dell'Informazione "Alessandro Faedo" - ISTI
Uncertainty Quantification
Bayesian Neural Networks
Probabilistic Modelling
CAUDAI, CLAUDIA
DEL CORSO, GIULIO
Davide Bacciu
File in questo prodotto:
File Dimensione Formato  
Tesi_triennale_Lorenzo_Bandini.pdf

accesso aperto

Descrizione: Tesi triennale Informatica
Tipologia: Altro materiale allegato
Licenza: Creative commons
Dimensione 1.88 MB
Formato Adobe PDF
1.88 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14243/514779
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact