Vari tipi di sistemi di Intelligenza Artificiale (IA) sono ormai presenti in molti ambiti. Troviamo queste tecnologie in campi come la finanza, la sanità, la gestione dei rischi, il sistema giudiziario, ma anche in settori più legati all’intrattenimento, come la generazione di immagini e la raccomandazione di contenuti multimediali. Attualmente queste tecnologie sono accessibili non solo a tecnici e specialisti, ma anche ad utenti non esperti/e, che possono utilizzarle in vari modi, ad esempio attraverso i loro smartphone. Tuttavia, nonostante questa ampia diffusione, i dubbi sull’affidabilità dell’IA rimangono forti1. Buona parte di tale diffidenza deriva dall’opacità tipica dei processi decisionali che stanno alla base di queste tecnologie, che spesso riutilizzano conoscenze implicite immagazzinate in vasti dataset. In questo senso, diverse iniziative sono state intraprese per migliorare la comprensione da parte degli/lle utenti, attraverso la crescita dell’area di ricerca chiamata eXplainable AI (XAI)2. Quest’ultima ha un duplice obiettivo: da un lato, incrementare la comprensione umana dei sistemi IA e, dall’altro, spiegare le motivazioni alla base delle loro decisioni, rispettando requisiti di ‘interpretabilità’ e ‘affidabilità’.

Quali sono gli scopi dell'Intelligenza Artificiale? Verso una spiegazione teleologica

Ferrario, Roberta
Co-primo
Methodology
2025

Abstract

Vari tipi di sistemi di Intelligenza Artificiale (IA) sono ormai presenti in molti ambiti. Troviamo queste tecnologie in campi come la finanza, la sanità, la gestione dei rischi, il sistema giudiziario, ma anche in settori più legati all’intrattenimento, come la generazione di immagini e la raccomandazione di contenuti multimediali. Attualmente queste tecnologie sono accessibili non solo a tecnici e specialisti, ma anche ad utenti non esperti/e, che possono utilizzarle in vari modi, ad esempio attraverso i loro smartphone. Tuttavia, nonostante questa ampia diffusione, i dubbi sull’affidabilità dell’IA rimangono forti1. Buona parte di tale diffidenza deriva dall’opacità tipica dei processi decisionali che stanno alla base di queste tecnologie, che spesso riutilizzano conoscenze implicite immagazzinate in vasti dataset. In questo senso, diverse iniziative sono state intraprese per migliorare la comprensione da parte degli/lle utenti, attraverso la crescita dell’area di ricerca chiamata eXplainable AI (XAI)2. Quest’ultima ha un duplice obiettivo: da un lato, incrementare la comprensione umana dei sistemi IA e, dall’altro, spiegare le motivazioni alla base delle loro decisioni, rispettando requisiti di ‘interpretabilità’ e ‘affidabilità’.
2025
Istituto di Scienze e Tecnologie della Cognizione - ISTC - Sede Secondaria Trento
978 88 8080 749 0
Spiegazione teleologica, artefatto, scopo, funzione propria, negoziazione di funzioni
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14243/573821
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ente

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact