fbpx

Dopo gli interventi sull’IA a firma di Daniele Onori (https://www.centrostudilivatino.it/le-frontiere-giuridiche-dellintelligenza-artificiale-1/https://www.centrostudilivatino.it/intelligenza-artificiale-ed-emulazione-della-decisione-del-giudice-2/, https://www.centrostudilivatino.it/intelligenza-artificiale-e-giustizia-lesperimento-della-corte-di-appello-di-brescia-3/, https://www.centrostudilivatino.it/intelligenza-artificiale-e-giustizia-i-principi-della-carta-etica-europea-4/, https://www.centrostudilivatino.it/intelligenza-artificiale-e-giustizia-judex-ex-machina-5/), la riflessione di oggi del dr. Francesco Mario Agnoli, già presidente di sezione alla Corte di appello di Bologna e componente del CSM, torna a sottolinea i rischi del suo utilizzo in ambito giudiziario.

1. L’Intelligenza artificiale (IA) sta uscendo dai laboratori dei tecnici e dai film di fantascienza e  comincia a far parte della vita quotidiana, ma ancora in modi marginali e discreti: essi, non mettendo in dubbio la prevalenza in ogni caso del fattore umano, consentono di apprezzare i benefici della cosiddetta “quarta rivoluzione industriale”, caratterizzata dal dominio della digitalizzazione e dell’automazione, e lasciano in ombra i potenziali rischi. Questi invece sono molto presenti e avvertiti da un certo numero di giuristi, che da tempo si pongono il problema dell’impatto che l’IA può avere nel mondo del diritto considerato in tutti i suoi possibili aspetti. 

Gli ottimisti si mostrano convinti che l’IA riuscirà preziosa per la definitiva affermazione dei sistemi di giustizia predittiva – previsione su base matematica dell’esito dei processi – e di polizia predittiva – profilazione delle persone per calcolarne la pericolosità criminale -, o più semplicemente per aiutare giudici e avvocati grazie agli algoritmi che propongono la soluzione migliore avvalendosi di migliaia di dati raccolti  in un database. A lorosi contrappongono, forse con maggiori ragioni, i pessimisti, sgomenti di fronte alla notizia che a Shanghai Pudong (Cina) sarà presto all’opera il primo giudice-robot: un algoritmo in grado di prendere decisioni con un’accuratezza – si dice – del 97 per centoUn conto, difatti, è l’algoritmo che agevola e arricchisce la tradizionale ricerca dei precedenti, uno, tutto diverso, l’algoritmo che decide, sostituendo ai processi cognitivi e decisionali della mente umana matematiche procedure di scarsa o nulla comprensibilità: sicché le decisioni dei giudici robot risultano per chi vi è coinvolto (a cominciare dall’imputato, assolto o condannato che sia, e, più in generale, dalle parti di qualunque giudizio e dei loro avvocati) del tutto immotivate e per nulla trasparenti.

2. Nel campo dell’Intelligenza Artificiale l’Europa è indietro rispetto a Cina e agli USA per quanto riguarda l’aspetto tecnologico, ma li sopravanza nel tentativo di giungere fin d’ora a una sua corretta regolamentazione, che per essere tale deve porre prescrizioni e paletti in grado di evitare qualunque impatto negativo sulla dignità e i diritti dell’uomo, sui principi-base dello stato di diritto e della democrazia.  E’ questo l’intento di varie iniziative a livello sia di Unione Europea sia di Consiglio d’Europa. Fra le prime la “Proposta di Regolamento” varata il 21 aprile 2021 dal Parlamento Europeo. A sua volta, il Consiglio d’Europa, dopo avere pubblicato, il 4 dicembre 2018, la “Carta Etica Europea per l’uso dell’Intelligenza Artificiale nei sistemi di giustizia penale e nei relativi ambienti”, ha fatto seguire, a fine 2020, lo “Studio di fattibilità di un nuovo quadro normativo sulla concezione, lo sviluppo e l’applicazione  dei sistemi di Intelligenza Artificiale” elaborato  dal Comitato ad hoc sull’Intelligenza Artificiale del Consiglio d’Europa (CAHAI) costituito, appunto, al fine di evidenziare e contrastare quelli che lo stesso Studio definisce “i rischi incombenti sullo stato di diritto e la democrazia”.

Le conclusioni del CAHAI propongono il varo di un sistema fondato su un insieme di strumenti giuridici di natura vincolante, come una Convenzione del Consiglio d’Europa, e non vincolante. Per quanto riguarda in particolare la giustizia e i sistemi giudiziari, ferma la garanzia degli irrinunciabili principi dell’equo processo, del contraddittorio e dell’indipendenza e imparzialità del giudice, gli interessati dovrebbero essere messi in grado di valutarne l’effettività in ogni singolo caso. Quindi di rendersi conto, attraverso  informazioni significative e comprensibili, se e come i sistemi di IA siano stati utilizzati dal giudice a supporto della propria decisione. Non si può che concordare, ma (soprattutto per i pessimisti) resta il problema di come questi risultati possano essere ottenuti e come si possa realizzare il requisito posto dalla Proposta di Regolamento:   “i sistemi di IA devono essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo in modo appropriato”.

Un requisito di difficile realizzazione, dal momento che gli stessi tecnici  concordano nel ritenere che  “i modelli IA fanno predizioni molto precise, ma il modo in cui le fanno è incomprensibile ai ricercatori”: un’oscurità operativa, per la quale è stata coniata la definizione di black box algorithm, che giustificail timore che non sia applicabile all’IA il concetto definito dagli anglofoni “explainability” (più o meno “spiegabilità”, “comprensibilità”);già oggi, ma ancor più quando la capacità di pensare dei cervelli elettronici, che potranno relazionarsi direttamente fra loro, si sottrarrà totalmente al  controllo di quelli umani.

3. Tanto la tecnologia (forse senza troppo preoccuparsene) quanto la dottrina giuridica (a volte con un senso di angoscia) hanno individuato il momento di una mutazione di civiltà in questa autonoma, e per vari versi oscura, capacità di pensare e di autodeterminarsi già acquisita o sul punto di essere acquisita da quelle che sono pur sempre macchine, ma che, appunto a causa di questa mutazione, potrebbero  trasformarsi da res in personae, come dalla proposta, avanzata già nel 2010 dal giurista israeliano Gabriel Hallvy, di attribuire una “personalità elettronica” ai robot, che li affiancherebbe come nuovi soggetti di diritto a quelli già esistenti (persone fisiche e giuridiche).

Come emerge anche da questa proposta, il problema è immensamente più vasto, ma giovano a meglio comprenderne l’importanza e l’urgenza certe sue applicazioni settoriali. E’ il caso del diritto penale, per il quale, si accolga o no la proposta di Hallvy, è inevitabile chiedersi se per macchine capaci di sviluppare un pensiero autonomo, per di più inconoscibile per chi dovrebbe tenerlo sotto controllo, sia ancora valido il broccardo “Machina delinquere non potest”, spesso presente negli studi sull’argomento (dal momento che l’ha preso come titolo, cito per tutti il denso saggio di Costanza Corridori in Giustizia Insieme),che pongono già all’attualità domande concrete di non rinviabile risposta: che accade “se un veicolo autonomo dotato di intelligenza artificiale investe un pedone? Chi risponde se il robot chirurgo sbaglia l’approccio medico? E chi se una chatbot inizia a diffamare un utente su una piattaforma social?”.

4. Se, senza escluderlo per un vicino futuro, si concorda con la prevalente opinione secondo la quale oggi i robot, nonostante l’algoritmo di autoapprendimento che permette loro di autonomamente modificarsi imparando dall’esperienza, non sono ancora abbastanza autonomi da poter essere considerati responsabili delle proprie azioni, non resta che la ricerca, a volte  faticosa e sempre a  rischio di incorrere in inammissibili ipotesi di responsabilità oggettiva, di un “colpevole” umano: il loro programmatore, il fabbricante del veicolo a guida autonoma o chi lo utilizza con una pur ridotta residuale possibilità di intervento sulla guida, il chirurgo che in un’operazione  si adegua acriticamente al suggerimento del dispositivo, il titolare del social network che non tiene sotto costante controllo il “prodotto” dei chatbot intelligenti di cui ha deciso di avvalersi.

Da questo punto di vista, una volta che si abbia ben chiaro  che la transizione da res a persona comporta l’attribuzione all’entità robotica non solo (e forse non tanto) di  responsabilità e doveri, ma anche (e forse soprattutto) di diritti e tutele, la soluzione a prima vista più comoda sarebbe il riconoscimento ai sistemi di IA della personalità elettronica proposta da Hallvy, con conseguente loro diretta responsabilità per gli illeciti compiuti tanto agli effetti penali che a quelli civili. Tuttavia, se si può immaginare un sistema nel quale la persona elettronica, se e quando diventerà  titolare di un proprio patrimonio, potrà rispondere civilmente dei danni arrecati, diversa e assai più ardua la situazione per la responsabilità penale. Difatti se, acquisita intelligenza e capacità giuridica, la “Machina delinquere potest”, tuttavia “pati non potest” dal momento che la sofferenza resta  un privilegio delle creature di carne e sangue. Di conseguenza l’entità robotica, non potendo avvertire la natura afflittiva  della pena, nemmeno ha, pur possedendo l’intelligenza per farlo, la capacità, caratteristica esclusiva della natura umana, di rielaborarla in modo da farne base e  motivo di un  proprio  interiore miglioramento.

                                                                             Francesco Mario Agnoli

Share