Una presentazione dell’opera, con qualche considerazione a margine delle tematiche trattate nel testo.
Gianpaolo Natale, La scienza del rischio. Come agire in modo scientifico per evitare errori ed incidenti, TS Teseo Sicurezza Davide Falletta Editore, 2025, pp.337.
Stabilità, protezione, sicurezza, sono esigenze primarie che ciascuno percepisce e persegue per il bene di sé, dei propri cari e di ciò di cui dispone e ha la responsabilità; quindi, anche del bene cosiddetto comune, ossia delle persone che, tra loro in relazione, danno vita a una comunità umana, alla società.
“La sicurezza collettiva si manifesta nella stabilità delle istituzioni, nell’ordine pubblico e nell’organizzazione delle comunità. Ad esempio, una famiglia si sente sicura quando vive in un quartiere tranquillo. Ma quel quartiere è sicuro solo se esistono leggi rispettate, forze dell’ordine efficienti, infrastrutture affidabili. La sicurezza individuale, dunque, non è mai isolata, ma interdipendente (ed) è anche una responsabilità condivisa; lo Stato garantisce le condizioni strutturali, ma ogni cittadino deve partecipare con comportamenti responsabili. La sicurezza sanitaria (prevenire le malattie o curarle), quella ambientale (rispettare norme ecologiche), quella sui luoghi di lavoro (prevenire gli infortuni) sono esempi di come la sicurezza richieda cooperazione e cultura. La sicurezza non si limita dunque alla protezione fisica, ma include anche la stabilità emotiva, economica e sociale. La certezza di avere un lavoro stabile, una casa sicura, accesso a cure mediche e una rete di protezione di supporto affettiva contribuisce a un senso di sicurezza complessivo”.
“Senza sicurezza non esiste libertà, né progresso, né vita dignitosa. La sicurezza è la culla su cui si costruisce ogni civiltà” (Anonimo) [1].
In tale prospettiva, domandarsi “come agire per evitare errori e incidenti?” richiede una risposta all’altezza della posta in gioco. A questo offre un contributo significativo Gianpaolo Natale, che, nel suo recente volume dedicato alla Scienza del rischio [2], tratta il tema del rischio nelle molteplici dimensioni in cui oggi si declina la sicurezza – nazionale, pubblica, informatica, sul lavoro, dei trasporti, energetica, etc. – allo scopo di aiutare a comprenderlo per imparare a governarlo “in modo scientifico”.
L’autore è ingegnere esperto di sicurezza dei sistemi complessi e di risk management e da oltre trent’anni svolge professionalmente attività di consulenza e formazione in ambiti safety e security per aziende, enti ed organizzazioni ad alta criticità sia in Italia che all’estero; già autore di numerose pubblicazioni tecniche, è ricercatore nell’ambito della Scienza della sicurezza e docente presso varie istituzioni e sedi accademiche (cfr. anche il suo https://www.centrostudilivatino.it/perche-in-italia-la-sicurezza-e-ancora-una-speranza-anche-nei-luoghi-di-lavoro/).
Chi ha conoscenze e competenze in ambiti specifici troverà certamente soddisfazione nel cimentarsi con terminologia, formule, schemi, grafici, propri delle singole discipline, ad. es. ingegneristiche, finanziarie, e potrà soffermarsi maggiormente in capitoli e paragrafi a maggior tasso di tecnicalità. Tuttavia, le parti più specialistiche, pur presentando un’opera caratterizzata da un rigore metodologico tipicamente accademico come la materia richiede, non ne esauriscono il valore, ma costituiscono i pilastri affidabili che reggono una trattazione il cui taglio, per desiderio dichiarato dallo stesso autore, è in larga parte “volutamente colloquiale e non paludato”, di agevole e piacevole comprensione anche per i “non addetti ai lavori”.
Lungi dall’elaborare dotte speculazioni teoriche con la pretesa di calare dall’alto soluzioni certe ad ogni possibile problema, l’autore, con metodo quindi autenticamente scientifico, osserva la realtà, ne coglie le evidenze, si lascia provocare dalla sua complessità e, senza nulla escludere dall’orizzonte dell’indagine, prende sul serio le domande che ne scaturiscono e propone possibili risposte concrete, valorizzando i contributi di chi, nei diversi campi della sicurezza, ha prodotto pensiero, criteri, chiavi di lettura, strumenti di analisi, modelli.
Il risultato è una guida “per chi vuole passare dalla reazione alla prevenzione” basata su fatti reali – noti eventi disastrosi, ma anche episodi meno conosciuti – verificatisi in diversi ambiti: aeronautica, trasporti, energia nucleare, medicina e sanità, economia e finanza, cybersecurity, intelligenza artificiale. Casi reali da cui sono tratti strumenti di analisi nati dall’esperienza sul campo e modelli applicabili per gestire situazioni critiche, potenziali o attuali, per impostare valutazioni e adottare decisioni efficaci e nel contempo equilibrate e proporzionate, in ottica sia preventiva che di buona governance di situazioni problematiche già manifeste, in sistemi semplici o complessi.
Il volume è articolato in 8 capitoli, preceduti da una presentazione dello stesso autore [3].
Orientato dal criterio secondo cui “E’ impossibile per un uomo imparare ciò che crede di sapere” e che “Il peggior nemico della conoscenza non è l’ignoranza, ma l’illusione della conoscenza” [4], il testo pone anzitutto i fondamentali Elementi di Scienza della Sicurezza(Cap. 2) e definisce le nozioni di base: la “sicurezza”, il “pericolo”, il “rischio” e la sua misurazione, la “funzione di disutilità”.
Ampia trattazione è quindi dedicata alla correlazione tra Il comportamento umano e la sicurezza (Cap. 3), muovendo dalla constatazione che “Nel campo della sicurezza, dunque, il comportamento umano è una delle variabili più complesse e influenti. Nessuna tecnologia, procedura o struttura organizzativa può garantire da sola la sicurezza se non viene tradotta in azioni sicure da parte delle persone che operano nel sistema. Il comportamento è il punto di contatto tra il progetto e la realtà operativa: è lì che la sicurezza viene realizzata o compromessa”.
L’osservazione dei comportamenti umani mostra che “Quando un comportamento ha diverse conseguenze positive, immediate e certe ma nessuna conseguenza negativa, immediata e certa, esso è destinato a diventare un’abitudine e, qualora si tratti di un comportamento ritenuto sconveniente, lo chiameremo vizio. (…) Situazione analoga è per chi contravviene alle regole di sicurezza, il quale generalmente ottiene vantaggi immediati e certi, consistenti ad esempio nel minor fastidio che sia evitando di indossare i dispositivi di protezione, oppure accorciando le procedure per economizzare energie e risparmiare tempo, contro l’ipotesi futura e dubbia di un infortunio o di una sanzione”.
Da qui la necessità di “stimolare i comportamenti virtuosi creando “una cultura della sicurezza nell’organizzazione” intesa come “l’insieme dei valori condivisi in una organizzazione che orientano i comportamenti”, mediante un “processo educativo”, del quale ne vengono esposte le fasi, i principi e la relativa trasposizione sul piano metodologico con il metodo Behavior-based Safety BBS. “Il processo necessario per cambiare lo stato delle cose è un processo educativo che deve partire dal rinforzo differenziale. Per influenzare positivamente i comportamenti sicuri, bisogna renderli più visibili, gratificanti e immediatamente riconosciuti”.
Condizione necessaria affinché ciò possa effettivamente trovare attuazione all’interno di un sistema, è la promozione di un contesto di just culture, in opposizione alla blame culture [5] .
Vengono quindi analizzate le dinamiche del comportamento umano sotto stress che condizionano le reazioni di una persona in un contesto di pericolo, sia a livello individuale che collettivo (crowd management) per riconoscerne elementi utili nell’ottica della prevenzione e del buon governo dei fenomeni.
Il binomio comportamento umano – sicurezza richiama evidentemente e giustamente l’importanza del tema delle competenze, di chi progetta come di chi opera sul campo, intese sia come conoscenze specifiche che come capacità di fare (know how) in un determinato settore (specializzazione). Aspetto certamente necessario, ma non sufficiente.
In proposito l’autore richiama l’importanza anche delle cosiddette soft skills, ossia quelle “competenze trasversali che hanno a che fare con la comunicazione, l’empatia, la collaborazione e la gestione delle emozioni”. La ricca casistica riportata nel testo attesta efficacemente quanto la carenza o la presenza di tali “competenze umane trasversali” – ossia che trovano fondamento nella natura della persona in quanto tale, e che quindi ciascuno può coltivare a prescindere dal possesso o meno di conoscenze e abilità tecniche specialistiche – sia stata determinante, rispettivamente, per il verificarsi di alcuni eventi avversi o per ridurli sensibilmente.
“Un errore diffuso è considerare le soft skills come un “corredo” gentile ma opzionale. In realtà esse sono parte integrante della sicurezza. (…) Le soft skills, dunque non sono un comportamento estetico ma il vero collante che rende funzionanti le competenze tecniche. Sono il linguaggio silenzioso che permette alle squadre di affrontare la complessità senza frantumarsi. La loro invisibilità le rende spesso sottovalutate, ma proprio come nel caso dello stress e delle folle, ciò che non si vede è spesso ciò che più conta. Riconoscerle, coltivarle e inserirle a pieno titolo nei sistemi di sicurezza significa investire non soltanto in efficienza, ma soprattutto in umanità”.
D’altra parte, risulta altrettanto efficace il monito circa il “lato oscuro delle competenze”, ossia “le cosiddette trappole comportamentali, quelle insidie che non compaiono nei manuali tecnici ma che emergono con forza nei momenti critici, trasformandosi in fattori di rischio tanto potenti quanto invisibili”(…), che “non hanno una spia luminosa che le segnala. Vivono nel quotidiano e si rivelano all’improvviso, spesso solo quando è troppo tardi. Per questo sono subdole: perché si confondono con la normalità, si radicano nelle abitudini, fino a diventare parte del paesaggio”.
Sono il “si era sempre fatto così”, “non è mai successo nulla”; è la compiacenza con la quale “paradossalmente, l’esperienza stessa può trasformarsi in un rischio. La fiducia eccessiva nelle proprie competenze porta a sottovalutare regole e procedure, come se fossero inutili per chi “sa già come vanno le cose”; è la scorciatoia della “tentazione di saltare un passaggio per guadagnare tempo, alleggerire la fatica”; è il silenzio di non osare a segnalare un pericolo “per paura di contraddire un superiore, di apparire incompetente o di rovinare il clima di un gruppo” (e qui la prevenzione passa per “il contrario della cultura della colpa: è la cultura dell’ascolto”); è l’irrigidimento cognitivo dell’“ostinazione a seguire una sola strada anche quando la realtà dimostra che quella scelta è sbagliata”; è il conformismo “che porta ad allinearsi al pensiero della maggioranza per paura di apparire dissonanti”; è la reattività emotiva in cui “la tensione, la rabbia o l’ansia prendono il sopravvento, il lavoratore perde lucidità e alimenta escalation che potevano essere evitate”.
Trappole che appaiono come “il negativo fotografico delle soft skills”.
Il 4° Capitolo è dedicato a Gli stati indesiderati dei sistemi. Dalle condizioni non sicure ai disastri. Rammentando che “lo scopo della scienza della sicurezza è lo studio degli stati indesiderati dei sistemi, per prevenirne o mitigarne gli effetti” e che “uno stato indesiderato non è semplicemente un evento negativo, ma uno stato del sistema che si discosta apprezzabilmente dalle condizioni accettabili, in termini di sicurezza, funzionalità, affidabilità o continuità operativa e che determina, o può determinare, una perdita di utilità per il gestore del sistema”, viene proposta una classificazione degli stati indesiderati “secondo una progressione crescente di gravità“ e un’analisi per ciascuno di essi: “condizioni non sicure, incidenti, infortuni, emergenze, crisi, disastri”.
Segue un’esposizione delle tecniche investigative degli incidenti: deduzione (dal generale al particolare); induzione (dal particolare al generale); abduzione (la ricerca della spiegazione plausibile), considerando che “L’investigazione di un incidente non è mai un’attività puramente tecnica, ma un processo complesso che combina raccolta di dati oggettivi, ragionamento logico e interpretazione contestuale. Ribadiamo che, a differenza della gestione del rischio, che parte da premesse certe e tenta di prevedere conseguenze incerte, l’analisi post-evento parte da conseguenze certe (i danni, lo stato del sistema dopo l’incidente) e cerca di ricostruire premesse incerte (le cause e i fattori predisponenti)”.
Per trasformare la sicurezza “da un’attività reattiva a un processo di intelligenza preventiva” vengono illustrate le tecniche di hunting,che vengono impiegate nella “logica di andare “a caccia” di segnali nascosti, vulnerabilità latenti e anomalie deboli, prima che queste si traducano in eventi critici”. Qui “la sfida non è soltanto tecnica, ma culturale: significa allenare le organizzazioni a cercare attivamente ciò che non funziona ancora, invece di limitarsi a reagire a ciò che è già accaduto. In questa prospettiva, il risk hunting, il threat hunting e l’accident hunting diventano strumenti non solo di prevenzione, ma di apprendimento continuo”.
Il Capitolo 5 è dedicato a Le High Reliability Organizations (HRO): organizzazioni ad alta affidabilità.
Indicate come “uno dei capitoli più significativi nella storia della scienza della sicurezza”, con il termine HRO si intendono quelle organizzazioni “che, pur operando in contesti intrinsecamente rischiosi e caratterizzati da elevata complessità tecnica e organizzativa, riescono a mantenere nel tempo livelli eccezionalmente bassi di incidenti gravi (…); sistemi socio-tecnici che, invece di essere soggiogati al rischio, ne fanno un elemento costitutivo della loro identità, riuscendo a trasformarlo in occasione di apprendimento e in stimolo costante al miglioramento”. Compito arduo, ma possibile perché una HRO (ad esempio un reparto di terapia intensiva, un centro di controllo aereo o una centrale nucleare) “non si definisce tale soltanto per l’adozione di procedure di sicurezza formali o di tecnologie efficaci, bensì per la presenza di una vera e propria cultura organizzativa orientata all’affidabilità” ad ogni livello gerarchico, dal top management fino agli operatori in prima linea. Ciò che le differenzia rispetto ad altre organizzazioni “ordinarie” (ad esempio una fabbrica artigianale o un ufficio amministrativo, benché anch’essi con procedure e norme di sicurezza da rispettare) è il loro “modo di pensare il rischio”, che le HRO“vivono come un processo dinamico, che richiede costante attenzione, adattamento e apprendimento collettivo”.
Posta l’esposizione di modelli e metodi per la gestione del rischio tipici delle HRO, risultano di particolare interesse anche le ulteriori considerazioni circa la trasferibilità dei principi che ne stanno a fondamento, anche se con strumenti differenti, alle organizzazioni “ordinarie”, ossia che operano in contesti non caratterizzati da scenari ad altissimo rischio.
“Perfino in una PMI è possibile coltivare la sensibilità alle operazioni quotidiane, attraverso un management che non si chiuda negli uffici ma mantenga un contatto diretto con la realtà dei processi produttivi”. “La trasferibilità del modello HRO, dunque, non deve essere intesa come una clonazione dei contesti originari, bensì come un’ispirazione culturale e metodologica. Ciò che conta è adottare la stessa mentalità, al di là delle proprie dimensioni e risorse: considerare la sicurezza come un processo dinamico e collettivo, valorizzare l’apprendimento continuo, e riconoscere che l’errore non è un nemico da nascondere, ma un segnale da interpretare. In questa prospettiva, anche le organizzazioni “ordinarie” possono diventare, almeno in parte, delle mini-HRO, capaci di affrontare la complessità del presente con maggiore lucidità”.
Anche in tale contesto, vale dunque l’osservazione (posta in apertura del capitolo) che “Siamo ciò che facciamo ripetutamente, quindi l’eccellenza non è un atto, ma un’abitudine” (Aristotele).
Il 6° Capitolo Cenni di analisi decisionale: fondamenti, modelli e applicazioni in sicurezza, ingegneria ed economia esamina il panorama dell’analisi decisionale, di cui indica i fondamenti teorici, ne individua gli strumenti e i modelli matematici principali impiegati (ad esempio la teoria dell’utilità attesa, gli alberi decisionali, l’analisi baynesiana, nonché la teoria dei giochi, che fornisce il quadro teorico per analizzare decisioni interattive, ossia non prese in forma indipendente o individuale, ma in contesti in cui più decisori interagiscono e l’esito dipende dalle scelte di tutti), illustrando come vengono concretamente applicati i metodi decisionali in tre ambiti: sicurezza, ingegneria, economia-finanza.
Ne emerge che “un aspetto cruciale, trasversale a tutti gli ambiti è la necessità di integrare i metodi decisionali con i dati reali e con la comprensione dei limiti umani”.
La realtà, e ciò risulta particolarmente evidente nella nostra epoca, è complessa, è frutto di interdipendenze, mostra novità e mutamenti imprevisti, non lineari e spesso repentini. Stante l’incertezza del contesto, potrebbe quindi essere ritenuto privo di utilità, o addirittura illusorio, procedere cercando di ancorare valutazioni, decisioni e azioni a principi e metodi rigorosi, “scientifici”; di fatto, ciò significherebbe voler perseguire obiettivi di sicurezza, prevenzione e governo del rischio “navigando a vista”, limitandosi a “inseguire” i fenomeni nei loro accadimenti.
Ma abdicare all’impegno di impiegare l’intelligenza e i talenti umani in ottica prospettica, ossia precauzionale e protettiva di beni meritevoli di tutela, è una prospettiva che non rende giustizia alla naturale propensione umana a non viver come bruti ma a seguir virtute e canoscenza [6]; contraria ma uguale – in tal caso “per eccesso” anziché “per difetto” – alla pretesa prometeica di voler possedere la conoscenza integrale di tutto il reale, presente e futuro, al fine di eliminare a priori ogni limite e criticità, attuale e potenziale, connesso alla dimensione terrena dell’esistenza.
Appare dunque ragionevole un approccio che orienti l’azione con criteri e metodi che, realisticamente, tengano conto delle incertezze date dalla imprevedibilità del mutare delle situazioni, non le ignori, ma cerchi di governale, per quanto e meglio possibile.
Tale è il metodo che propone Natale, presentando l’Analisi Bayesiana del rischio (Cap. 7). Il teorema di Thomas Bayes “esprime in modo essenziale un principio che oggi appare quasi intuitivo (quanto spesso trascurato): la probabilità di un evento non è un numero assoluto, immutabile e scollegato dal contesto, ma dipende sempre dalle informazioni disponibili. La probabilità, in altre parole, è un giudizio che deve essere continuamente aggiornato ogni volta che nuove evidenze si presentano”; conseguentemente “la probabilità non misura un destino immutabile, ma la nostra conoscenza di quel destino. E tale conoscenza è, per sua natura, relativa al contesto in cui ci muoviamo. Parlare di analisi bayesiana del rischio significa dunque riconoscere che ogni valutazione deve essere un processo dinamico, dove l’incertezza viene incorporata e gestita, e non eliminata o ignorata”. Si tratta di “approccio normale alla complessità” che tiene conto che “il rischio, nel mondo reale, non si presenta quasi mai come il prodotto lineare di una singola variabile isolata. Al contrario, emerge, da reti intricate di interdipendenza, dove cause e conseguenze si intrecciano in modo non lineare e spesso controintuitivo”. (…) “In un mondo segnato dalla complessità e dall’incertezza, la logica bayesiana non rappresenta soltanto un’opzione metodologica, ma un passaggio essenziale verso una sicurezza che non nega l’incertezza, bensì la governa con razionalità”.
In ambito sicurezza l’impiego di un potente strumento come l’intelligenza artificiale (di seguito, come nel testo, indifferentemente “IA” o “AI”) nell’analisi del rischio, condotta secondo il metodo bayesiano, è un esempio efficace di come l’IA può (deve) essere un importantissimo alleato dell’uomo, in tal caso dello scienziato della sicurezza; avendo sempre ben chiaro che lo strumento al servizio dello scienziato non deve mai essere confuso con lo scienziato.
“L’incontro fra intelligenza artificiale e analisi bayesiana del rischio rappresenta un passo decisivo verso una gestione più razionale e resiliente della complessità. L’IA fornisce la potenza analitica per elaborare dati in tempo reale e rilevare schemi invisibili all’occhio umano: l’approccio bayesiano garantisce che quei dati vengano interpretati alla luce del contesto, tradotti in probabilità trasparenti e continuamente aggiornati. È in questa integrazione che si intravede il futuro della scienza del rischio: un futuro in cui l’incertezza non viene subita, ma governata attraverso un equilibrio intelligente fra potenza di calcolo e rigore probabilistico”.
Un approccio al tema del corretto utilizzo dell’IA il cui valore va oltre lo specifico ambito oggetto della presente trattazione, e che, sul piano del metodo, merita di essere considerato e applicato anche in contesti diversi.
L’IA ha enormi potenzialità, ben superiori a quelle umane, che non sarebbe ragionevole non mettere in campo al servizio della tutela e promozione di beni di valore. Il suo impiego sensato consiste nel rispettare ciò che gli è proprio, ossia essere uno strumento al servizio dell’uomo, il quale, traendovi il massimo possibile in termini di informazioni, dati, calcoli, etc., a sua volta svolge l’opera che gli è propria, non delegabile a una macchina, impiegando caratteri e facoltà esclusivamente umani – intelligenza (vere nomine), discernimento, giudizio, prudenza, sensibilità, libertà, volontà – operando delle scelte e assumendo decisioni. Tra le quali, ad esempio, anche quella di effettuare comparazioni e ordinare gli elementi acquisiti e disponibili secondo una gerarchia di valori e beni; cosa evidentemente impossibile a una macchina pensata e impostata per fornire risposte superiori a quelle che, senza il suo utilizzo, potrebbe acquisire l’uomo, ma esclusivamente in termini di efficienza e velocità di output (rispetto ai prompt che le sono stati dati della persona che ha inserito la domanda), ossia sul piano quantitativo. L’efficacia dell’IA consiste certamente anche nell’individuare (su base statistica) correlazioni tra elementi e quindi di stabilire connessioni e presentare un risultato ampio e articolato sul tema oggetto di indagine, ma all’uomo compete la progettualità: un’attività superiore sul piano qualitativo, che implica chiarezza di motivazioni, obiettivi e finalità, capacità di riconoscere e di creare relazioni tra persone, fatti, comportamenti, esperienze, concetti, valutazioni, informazioni, dati, etc.; per la quale utilizzerà anche un tassello – l’IA – importantissimo, ma non esclusivo né decisivo.
Proprio all’IA è dedicata la parte finale del volume, Intelligenza Artificiale, scienza del rischio e scienza della sicurezza(Cap. 8), che esplora le interazioni teoriche e pratiche fra IA, rischio e sicurezza, mettendone in luce le opportunità, le sfide e le implicazioni etiche e organizzative.
L’IA “porta alla scienza della sicurezza un cambio di prospettiva: da strumenti che carcavano di calcolare la probabilità del rischio sulla base del passato, a sistemi che imparano a cogliere l’insolito, il raro, l’impercettibile (…) per percepire in anticipo i fremiti che precedono il disastro. Non per eliminarlo, ma per affrontarlo con maggiore lucidità e preparazione” in quanto “può generare modelli predittivi per la stima della dinamica del rischio” nel senso che “riesce a catturare e rappresentare il comportamento dinamico di un sistema complesso, cioè l’evoluzione nel tempo delle sue condizioni di rischio, basandosi su una quantità di dati e relazioni che vanno ben oltre la capacità di analisi umana (…). Questo significa che l’AI non si limita a dire “il rischio X ha una probabilità del 5%, ma può individuare tendenze nascoste che mostrano come il rischio stia cambiando, crescendo o diminuendo, e quali fattori contribuiscono a tale evoluzione (…). In questo senso, l’AI non sostituisce la competenza umana, ma fornisce mappe dinamiche del rischio: non ci dicono con certezza dove colpirà la prossima crisi, ma ci aiutano a leggere il terreno che stiamo percorrendo, individuando i punti in cui il terreno si fa instabile”.
Ciò premesso, attenzione, potremmo dire, al “fuoco amico”: “l’AI è certamente una straordinaria opportunità per la scienza della sicurezza, ma non va dimenticato che essa stessa è anche una nuova sorgente di rischio, capace di generare scenari inattesi” che nel testo vengono esposti: rischi emergenti; vulnerabilità algoritmiche; rischi sistemici, che mostrano che essa “non è soltanto una “barriera di sicurezza” in più, ma una componente nuova da includere nella stessa analisi del rischio. (…) La vera sfida per la scienza della sicurezza, dunque, non è scegliere se usare o meno l’intelligenza artificiale, ma imparare a gestirla anche come un rischio in sé, con strumenti analitici e organizzativi adeguati”.
In particolare, l’IA, in quanto strumento “che influisce sulla vita delle persone, deve essere soggetta a criteri stringenti di responsabilità. Accanto alla dimensione legale vi è quella etica. L’AI rischia infatti di amplificare ingiustizie e disuguaglianze se non viene governata con attenzione”: (…) “la governance algoritmica, dunque, non è solo questione tecnica ma culturale”.
Il testo La scienza del rischio di Gianpaolo Natale è un’opera certamente di interesse per chi si occupa, a vario titolo, di sicurezza, ma da cui può trarre beneficio una platea più ampia di persone, anche se con una formazione e un bagaglio di conoscenze differenti. A chi abbia concretamente a cuore il bene individuale e comune non sfugge l’importanza delle sue implicazioni pratiche, tante e diverse, ma sempre tra loro correlate; e, tra queste, anche la sicurezza delle persone e quindi di attività, ambienti, mezzi nei quali e con i quali la vita delle persone concretamente si svolge.
Roberto Respinti
[1] Questa, come tutte le successive citazioni riportate in carattere corsivo, sono tratte dal testo in oggetto (cfr. Nota 2), salvo ove diversamente indicato.
[2] Gianpaolo Natale, La scienza del rischio. Come agire in modo scientifico per evitare errori ed incidenti, TS Teseo Sicurezza Davide Falletta Editore, 2025, pp.337
[3] Il primo capitolo La sicurezza: un bisogno primordiale è dedicato ai temi richiamati in apertura di questa presentazione.
[4] Le due citazioni sono presenti nel testo con le rispettive fonti: la prima Epitetto, I secolo; la seconda Daniel J. Boorstin, 1995, aforisma erroneamente attribuito a Stephen Hawking.
[5] “La Just Culture, parola difficile da tradurre in italiano, è quella cultura della sicurezza, giusta, adeguata a far sì che gli errori rappresentino una fonte di apprendimento per migliorare il livello di sicurezza nei sistemi e nelle organizzazioni complesse. Una cultura volta maggiormente a prevenire (just culture) che non a criminalizzare (blame culture) facilita la conoscenza dei fattori causali di incidenti e disastri al solo scopo di prevenzione. Un approccio completamente opposto a quello della “cultura della colpa” e della “caccia al colpevole” (https://www.justculture.it/). “James Reason ha descritto una “cultura giusta” come un’atmosfera di fiducia in cui le persone sono incoraggiate, e persino premiate, per fornire informazioni essenziali relative alla sicurezza, ma in cui sono anche chiare su dove la linea deve essere tracciata tra comportamenti accettabili e inaccettabili” (https://skybrary.aero/articles/just-culture) [siti consultati il 31/12/25].
[6] Dante Alighieri, Divina Commedia, Canto XXVI dell’Inferno, V. 119.