Vari tipi di sistemi di Intelligenza Artificiale (IA) sono ormai presenti in molti ambiti. Troviamo queste tecnologie in campi come la finanza, la sanità, la gestione dei rischi, il sistema giudiziario, ma anche in settori più legati all’intrattenimento, come la generazione di immagini e la raccomandazione di contenuti multimediali. Attualmente queste tecnologie sono accessibili non solo a tecnici e specialisti, ma anche ad utenti non esperti/e, che possono utilizzarle in vari modi, ad esempio attraverso i loro smartphone. Tuttavia, nonostante questa ampia diffusione, i dubbi sull’affidabilità dell’IA rimangono forti1. Buona parte di tale diffidenza deriva dall’opacità tipica dei processi decisionali che stanno alla base di queste tecnologie, che spesso riutilizzano conoscenze implicite immagazzinate in vasti dataset. In questo senso, diverse iniziative sono state intraprese per migliorare la comprensione da parte degli/lle utenti, attraverso la crescita dell’area di ricerca chiamata eXplainable AI (XAI)2. Quest’ultima ha un duplice obiettivo: da un lato, incrementare la comprensione umana dei sistemi IA e, dall’altro, spiegare le motivazioni alla base delle loro decisioni, rispettando requisiti di ‘interpretabilità’ e ‘affidabilità’.
Quali sono gli scopi dell'Intelligenza Artificiale? Verso una spiegazione teleologica
Ferrario, RobertaCo-primo
Methodology
2025
Abstract
Vari tipi di sistemi di Intelligenza Artificiale (IA) sono ormai presenti in molti ambiti. Troviamo queste tecnologie in campi come la finanza, la sanità, la gestione dei rischi, il sistema giudiziario, ma anche in settori più legati all’intrattenimento, come la generazione di immagini e la raccomandazione di contenuti multimediali. Attualmente queste tecnologie sono accessibili non solo a tecnici e specialisti, ma anche ad utenti non esperti/e, che possono utilizzarle in vari modi, ad esempio attraverso i loro smartphone. Tuttavia, nonostante questa ampia diffusione, i dubbi sull’affidabilità dell’IA rimangono forti1. Buona parte di tale diffidenza deriva dall’opacità tipica dei processi decisionali che stanno alla base di queste tecnologie, che spesso riutilizzano conoscenze implicite immagazzinate in vasti dataset. In questo senso, diverse iniziative sono state intraprese per migliorare la comprensione da parte degli/lle utenti, attraverso la crescita dell’area di ricerca chiamata eXplainable AI (XAI)2. Quest’ultima ha un duplice obiettivo: da un lato, incrementare la comprensione umana dei sistemi IA e, dall’altro, spiegare le motivazioni alla base delle loro decisioni, rispettando requisiti di ‘interpretabilità’ e ‘affidabilità’.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


