Il Sottosegretario alla Presidenza del Consiglio, Alfredo Mantovano, è intervenuto al Convegno “La tutela della persona nella regolazione dell’intelligenza artificiale”, presso l’Università Sapienza di Roma.
Di seguito il video e il testo dell’intervento.

Saluto tutti gli organizzatori, i docenti di questo importantissimo Ateneo e chiedo scusa se, come è stato già preannunciato, dovrò allontanarmi molto presto e avrò il rammarico di non poter ascoltare le altre relazioni proprio per questa coincidenza istituzionale. 

Parto da un fatto di cronaca che risale al mese di ottobre 2024, e che è riemerso nei giorni scorsi. Aurora Tila, una ragazza di appena 13 anni, muore dopo che il fidanzato l’aveva gettata da un balcone. E pochi giorni fa si è saputo che la ragazza, anziché confidare i tormenti di una relazione, che era tossica, ad un’amica o a un parente più o meno stretto, aveva chiesto consigli all’intelligenza artificiale.

È un caso isolato? Nell ‘aprile dello scorso anno un californiano di 16 anni si suicida dopo aver confidato le proprie intenzioni a un noto software di I.A. Secondo i genitori, il software non aveva mai interrotto la conversazione, non aveva mai attivato protocolli di emergenza, e anzi, addirittura avrebbe fornito consigli su come suicidarsi in alcuni passaggi, facendo una sorta di apologia “bella morte” – forse nella programmazione era stato riversato I dolori del giovane Werther.

Sono vicende preoccupanti, che denunciano quali ricadute possa avere questa nuova tecnologia. Non sono evidentemente le uniche.

Pensiamo: allo sviluppo di sistemi d’arma che integrano software di I.A.; ai sistemi di riconoscimento facciale usati per fini di controllo sociale e politico; agli algoritmi di I.A. che rendono possibile la creazione di nuove droghe sintetiche in tempi fino a poco tempo fa inimmaginabili; all’impennata di deepfake, usati per le truffe, ma anche per manipolare convincimenti politici; agli impatti sulla libertà di espressione degli algoritmi di I.A. che monitorano i contenuti pubblicati sul web. 

E non sono da trascurare gli effetti occupazionali, che si stanno già registrando in giro per il mondo.

Questo scenario, che potrebbe essere anche più completo e quindi più preoccupante, sollecita delle aspettative: alle istituzioni viene chiesta la formula per trasformare l’intelligenza artificiale da minaccia a occasione, da fonte di danni a spinta per uno sviluppo equo.

E il compito è reso difficile non per la tecnologia in sé, che anzi offre possibilità promettenti: pensiamo allo sviluppo di nuove cure mediche, alla prevenzione dei dissesti idrogeologici – che è una delle principali emergenze nazionali –, al rafforzamento della difesa da attacchi cyber, fino alla tutela del patrimonio culturale. Quest’ultimo, come insegnano vicende recenti di cronaca, è uno degli asset più importanti della nostra nazione e già adesso le forze di polizia, grazie a sistemi di I.A., possono confrontare con velocità istantanea le milioni di fotografie di opere d ‘arte rubate presenti nel loro dataset con le immagini rinvenute online. Proprio ieri vi è stata la notizia del ritrovamento di un quadro dell’ottocento trafugato anni fa e rintracciato proprio grazie all’uso di queste nuove tecnologie.

Ciò che rende l’impresa complessa, a volte proibitiva, è la difficoltà di individuare gli strumenti più adeguati allo scopo perché, come sempre, si viaggia da un estremo all’altro. La tentazione più immediata è di demandare l’addomesticamento dell’intelligenza artificiale alla stessa tecnologia, nella speranza che essa si “aggiusti” man mano che si avanza tempo; la tentazione opposta è di ricorrere a interventi regolatori pervasivi.

Entrambe le opzioni sono illusorie. Come sempre l’equilibrio da rintracciare è un equilibrio difficile e precario.

A smontare la prima opzione credo che siano sufficienti i decenni di “entusiasmante” globalizzazione che abbiamo alle spalle: che non so quanto rassicurino sulla capacità di auto-regolazione delle innovazioni tecnologiche ed economiche.

Ma anche la seconda opzione è impraticabile, per via della velocità che caratterizza lo sviluppo dell’I.A., ed è anche controproducente. Siamo nella sede di un’importante facoltà di giurisprudenza, e nella storia del diritto inglese si ricorda ancora adesso il Red Flag Act, una legge inglese del 1865 che, per motivi di sicurezza, poneva delle restrizioni sulle prime vetture a vapore, quelle che poi sarebbero diventate le automobili. Tra queste restrizioni vi era l’obbligo di far precedere il veicolo da un uomo a piedi con una bandiera rossa di avvistamento. Il risultato fu disastroso e lo sviluppo di quella che adesso si chiama automotive, nel UK conobbe un rallentamento nei confronti delle altre nazioni.

Allora, noi partiamo da un libro. E questo libro, redatto da Rosita D’Angiolella, ha il pregio di descrivere il modello a cui si sono ispirati il Governo e il Parlamento nell’adottare la legge n. 132 dello scorso anno. La Cons. D’Angiolella non è una estranea alla materia. Ha fornito già un apporto tecnico importante nella stesura delle norme della legge, ne ha seguito i lavori parlamentari, ha coordinato anche quello che potremmo definire il backstage tecnico tra ministeri interessati, e adesso è impegnata nel coordinamento dei decreti attuativi, sotto la guida della presidente Quadri e del DAGL della Presidenza del Consiglio.

Come è spiegato nel volume, la legge da un lato, non cede alla tentazione di dettare norme di dettaglio, che sarebbero destinate ad una obsolescenza rapida. Disegna un ecosistema generale di principi – etici e giuridici, a partire dall’antropocentrismo –, e di presidi istituzionali entro cui sviluppare in modo più armonico e “giusto” questa tecnologia. 

Dall’altro, interviene direttamente per favorire l’innovazione. Mette a disposizione risorse finanziarie ingenti – fino a poco meno di un miliardo di euro – in favore di piccole e medie imprese con elevato potenziale di sviluppo che operano nei settori dell’intelligenza artificiale e della cybersicurezza. E anche di imprese di maggiori dimensioni, egualmente innovative e con elevato potenziale di sviluppo, sviluppo per promuovere se stesse come campioni tecnologici nazionali. 

Questa misura si affianca ad altre iniziative che alimentano le capacità nazionali nel campo dello sviluppo dell’I.A.. Penso al recente acquisto del “Computer ad alte prestazioni” per il sito di CINECA di San Giovanni a Teduccio (Na), o al progetto “IT4LIA AI Factory”, che ha fatto sì che la Commissione Ue assegnasse al Tecnopolo di Bologna un nuovo supercomputer all’avanguardia.

Concludo dicendo però che l’istanza di giustizia che riguarda l’impiego dell’intelligenza artificiale impone un passo ulteriore.

Vi è una differenza rispetto a quanto accaduto per altre innovazioni tecnologiche più o meno recenti, che pure apparivano sconvolgenti – penso all’irruzione della televisione, a internet, alla telefonia mobile. Qui la richiesta di tutela non riguarda singoli aspetti della persona umana – i diritti sindacali, la libertà contrattuale, il rispetto della privacy, i diritti del consumatore, e così via –, qui si rivolge direttamente a preservare l’essenza stessa dell’Uomo. Ne costituisce una traccia evidente il sempre più diffuso ricorso, anche a livello internazionale, del concetto di I.A. “antropocentrica”.

E questo ha una evidente implicazione filosofica. Pare un paradosso, ma la tecnologia più rivoluzionaria e innovativa degli ultimi secoli impone di tornare alle domande più antiche, a quel fantastico passaggio della poesia di Leopardi “ed io che sono?”, nel Cantico del pastore errante. Leopardi non dice “io chi sono?”, dice “io che sono?”.  Quindi “Che cos’è l’Uomo?”, “Qual è la fonte della sua dignità?”, “Qual è il rapporto tra Uomo e Natura, tra Uomo e Tecnica?”. 

Ma ha implicazioni dirette e anche sul piano del Diritto e sulla definizione del ruolo del giurista. Al Diritto – e quindi al giurista – viene chiesto di redigere e di applicare norme non più solo “efficienti”, ma anzitutto “giuste”, dopo decenni di schiacciamento su un orizzonte tecnicistico ed economicistico. “Giuste” significa ancorate a criteri eticamente solidi, che si facciano carico dell’essere umano oltre una dimensione meramente materiale ed economica.

Questa era la prospettiva della migliore tradizione giuridica italiana, quella che ha avuto sede in queste aule. Era la prospettiva di un indimenticato maestro – le cui lezioni per me sono ancora fonte di ricordi felici -, il filosofo del diritto Sergio Cotta, che aveva la cattedra in questo ateneo e che si confrontò con il tema dell’innovazione tecnologica negli anni ’60 e ’70 del secolo scorso.

Lui non demonizzava, pur facendo riferimento al diritto naturale, l ‘innovazione tecnologica: invitava a inquadrare la sfida tecnologica” – la “Sfida tecnologica” era il testo di un suo saggio del 1968 – all’interno di una prospettiva antropologica dal respiro ampio. Una prospettiva capace di integrare anche gli aspetti immateriali e trascendenti presenti nella natura dell’uomo.

Da qui ricavò i tratti irrinunciabili del giurista che non abdica alla sua funzione di fronte alle sfide dell’oggi e del domani. 

Perdonate se adesso leggerò un passaggio di questo suo saggio. È l’unica citazione che faccio, ma la ritengo di grande peso e soprattutto di grande attualità. Scrive Cotta: «Libertà responsabile della volontà individuale, effettiva partecipazione dei consociati alla vita civile in tutti i livelli del processo decisionale, rispetto dei diritti personali e degli interessi generali, efficienza, responsabilità e controllo del Potere: sono proprio questi gli elementi di cui la società tecnologica ha bisogno per darsi strutture istituzionali a misura umana e sottrarsi all’insidia totalitaria che la minaccia». E continua: «Tocca ad ogni uomo coltivare nell’intimo della propria coscienza le premesse spirituali di tali elementi. Tocca tuttavia al giurista inventarne ed elaborarne le forme organizzative adatte alle esigenze attuali. Ma lo potrà fare solo se si assumerà intera la propria responsabilità umana e metterà le proprie capacità professionali, con l’audacia inventiva e la sapiente riflessione richieste dai tempi, a servizio della ragione, della pace, in una parola sola, dell’uomo».

Ecco, lo studio condotto dalla dott.ssa D’Angiolella ha il pregio di raccogliere questa sfida. Il suo lavoro non costituisce, per chi ha avuto già occasione di consultarlo, una mera esegesi delle nuove disposizioni. Al contrario, stimola la lettura delle questioni giuridiche, anche di quelle più tecniche, alla luce del più ampio orizzonte, necessariamente interdisciplinare, più ampio, necessariamente interdisciplinare, che è l ‘orizzonte da cui è scaturita la legge 132, e avvia così con il lettore un dialogo aperto, continuo, di alto livello, tra tutte le discipline coinvolte.

A tutti voi auguro buon lavoro in questa mattinata. Rinnovo le scuse per dovermi allontanare tra breve. E sono certo che l ‘approfondimento di stamane sarà una preziosa occasione per contribuire a orientare l’intelligenza artificiale verso uno sviluppo – riprendo ancora le parole di Sergio Cotta – sempre più «a servizio della ragione, della pace, in una parola sola, dell’uomo». 

Vi ringrazio.
 

Share