I sistemi di Intelligenza Artificiale (IA) e la robotica sono entrati da tempo nelle nostre società, con impieghi tra loro molto diversi e nei settori più disparati. I complessi sistemi di calcolo che sono alla base dell'IA sono da tempo osservati e studiati anche in ambito giuridico, in alcuni casi come oggetto di regolazione, ma più spesso in relazione agli effetti prodotti in termini di responsabilità civile e penale. Tanto sono diventate pervasive le applicazioni di IA che non sono mancati i primi interventi istituzionali sul tema, si pensi alla risoluzione 16 febbraio 2017 del Parlamento UE recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica. Molte e diverse sono le sperimentazioni oggi in corso, tutte con ricadute importanti sotto il profilo giuridico. E molte sono già le riflessioni giuridiche prodotte in letteratura, che per l'appunto guardano specialmente all'effetto prodotto dal robot o dal sistema di IA nella società e all'impatto di queste applicazioni sul nostro ordinamento giuridico. Non è dunque né possibile né utile tornare indietro, per chiedersi se queste applicazioni e queste nuove scoperte - come sempre peraltro nella storia dell'umanità - abbiamo in sé "buone o cattive" qualità. Pur se ad uno stadio in molti casi già avanzato della ricerca in ambito tecnico-informatico, come giuristi ci interessa sempre e comunque comprendere se l'uso di tali sistemi s'imponga sulle regole esistenti, invocandone modifiche; e se i limiti e le garanzie fondamentali dei nostri sistemi giuridici non siano in qualche modo forzati da esse. Allo stesso tempo, viste le potenzialità, urge interrogarsi anche per capire in che modo l'IA, in alcuni ambiti specialmente, possa costituire uno spunto per rafforzare e per rendere più effettivi alcuni diritti fondamentali oggi in sofferenza. Non solo cioè applicazioni che guardano allo sviluppo dell'economia e del mercato, come è in parte fisiologico che sia. In molti casi, i sistemi di IA restano confinati nell'universo della ricerca scientifica, in altri sono già emersi e valorizzati sul mercato. In altri ancora, essi potrebbero avere prospettive d'uso rilevanti specialmente in ambito pubblico, come per esempio nel caso dei sistemi destinati al settore sanitario dove si pongono l'obiettivo di prevedere l'evoluzione di alcune patologie, oppure in ambito giudiziario ove sono impiegati per orientare la decisione dei giudici. Applicazioni di questo tipo richiedono certamente un approfondimento giuridico, anche solo su temi "classici" come quello della riservatezza dei dati sensibili, della responsabilità per danni causati dagli algoritmi, della proprietà intellettuale della black box. In questo ricco e articolato disegno, che impone una riflessione multidisciplinare tra studiosi di informatica, di diritto e professionisti (medici, giudici, avvocati), il panel propone un confronto aperto e interlocutorio per discutere delle sfide più recenti, a partire dallo stato dell'arte e soprattutto "con occhio lungo" di prospettiva in vista dello sviluppo di sempre nuove applicazioni. Tra i settori pubblici oggi investiti in via sperimentale dall'uso di sistemi di IA debole o forte (dai sistemi di Natural Language Processing al Machine Learnig fino alle black box), verranno presi in esame, con qualche ambizione comparativa che possa far emergere potenzialità e debolezze, il settore sanitario e quello giudiziario. In generale, il panel intende mettere in evidenza i possibili benefici derivanti dall'uso di questi applicativi (risparmio di costi, valutazioni imparziali e più "affidabili", verificabilità dei criteri impiegati ecc.) e i limiti (almeno quelli oggettivi) che essi incontrano nei diversi sistemi giuridici (principi e regole invalicabili).

L'intelligenza artificiale "predittiva" in ambito pubblico: norme e casi

Marina Pietrangelo;Giancarlo Taddei Elmi;Francesco Romano;
2019

Abstract

I sistemi di Intelligenza Artificiale (IA) e la robotica sono entrati da tempo nelle nostre società, con impieghi tra loro molto diversi e nei settori più disparati. I complessi sistemi di calcolo che sono alla base dell'IA sono da tempo osservati e studiati anche in ambito giuridico, in alcuni casi come oggetto di regolazione, ma più spesso in relazione agli effetti prodotti in termini di responsabilità civile e penale. Tanto sono diventate pervasive le applicazioni di IA che non sono mancati i primi interventi istituzionali sul tema, si pensi alla risoluzione 16 febbraio 2017 del Parlamento UE recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica. Molte e diverse sono le sperimentazioni oggi in corso, tutte con ricadute importanti sotto il profilo giuridico. E molte sono già le riflessioni giuridiche prodotte in letteratura, che per l'appunto guardano specialmente all'effetto prodotto dal robot o dal sistema di IA nella società e all'impatto di queste applicazioni sul nostro ordinamento giuridico. Non è dunque né possibile né utile tornare indietro, per chiedersi se queste applicazioni e queste nuove scoperte - come sempre peraltro nella storia dell'umanità - abbiamo in sé "buone o cattive" qualità. Pur se ad uno stadio in molti casi già avanzato della ricerca in ambito tecnico-informatico, come giuristi ci interessa sempre e comunque comprendere se l'uso di tali sistemi s'imponga sulle regole esistenti, invocandone modifiche; e se i limiti e le garanzie fondamentali dei nostri sistemi giuridici non siano in qualche modo forzati da esse. Allo stesso tempo, viste le potenzialità, urge interrogarsi anche per capire in che modo l'IA, in alcuni ambiti specialmente, possa costituire uno spunto per rafforzare e per rendere più effettivi alcuni diritti fondamentali oggi in sofferenza. Non solo cioè applicazioni che guardano allo sviluppo dell'economia e del mercato, come è in parte fisiologico che sia. In molti casi, i sistemi di IA restano confinati nell'universo della ricerca scientifica, in altri sono già emersi e valorizzati sul mercato. In altri ancora, essi potrebbero avere prospettive d'uso rilevanti specialmente in ambito pubblico, come per esempio nel caso dei sistemi destinati al settore sanitario dove si pongono l'obiettivo di prevedere l'evoluzione di alcune patologie, oppure in ambito giudiziario ove sono impiegati per orientare la decisione dei giudici. Applicazioni di questo tipo richiedono certamente un approfondimento giuridico, anche solo su temi "classici" come quello della riservatezza dei dati sensibili, della responsabilità per danni causati dagli algoritmi, della proprietà intellettuale della black box. In questo ricco e articolato disegno, che impone una riflessione multidisciplinare tra studiosi di informatica, di diritto e professionisti (medici, giudici, avvocati), il panel propone un confronto aperto e interlocutorio per discutere delle sfide più recenti, a partire dallo stato dell'arte e soprattutto "con occhio lungo" di prospettiva in vista dello sviluppo di sempre nuove applicazioni. Tra i settori pubblici oggi investiti in via sperimentale dall'uso di sistemi di IA debole o forte (dai sistemi di Natural Language Processing al Machine Learnig fino alle black box), verranno presi in esame, con qualche ambizione comparativa che possa far emergere potenzialità e debolezze, il settore sanitario e quello giudiziario. In generale, il panel intende mettere in evidenza i possibili benefici derivanti dall'uso di questi applicativi (risparmio di costi, valutazioni imparziali e più "affidabili", verificabilità dei criteri impiegati ecc.) e i limiti (almeno quelli oggettivi) che essi incontrano nei diversi sistemi giuridici (principi e regole invalicabili).
2019
Istituto di Informatica Giuridica e Sistemi Giudiziari - IGSG
intelligenza artificiale
diritto
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14243/392885
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact