di Claudio Ferioli
Segretario Generale ASIS Italy
Uno degli argomenti oggi più affrontati in tutte le sedi è l’Intelligenza Artificiale. Secondo molti osservatori si tratta uno dei grandi trend che sta modificando il nostro mondo, assieme ai cambiamenti climatici, alla rivoluzione demografica e alle imprevedibili dinamiche geopolitiche. Come per gli altri trend, gli impatti vanno ben oltre la dimensione tecnico-funzionale e sono solo parzialmente prevedibili. Mi ha molto colpito, ad esempio, la forte attenzione che Papa Francesco sta ponendo sul tema: dopo aver lanciato la “Rome call for AI Ethics” nel 2020, il prossimo giugno sarà il primo pontefice a partecipare ad una riunione del G7, in cui parlerà proprio dell’Intelligenza Artificiale – segno del rilevante impatto dell’IA sulla vita dell’umanità intera.
Il nostro è uno dei settori in cui l’IA potrebbe avere (e sta già avendo) impatti radicali: è pertanto indispensabile che, chi fa mestiere della sicurezza, conosca opportunità e rischi dell’Intelligenza Artificiale e fornisca il proprio contributo per il suo utilizzo corretto.
Ma qual è oggi lo stato dell’arte dell’IA nella sicurezza aziendale? Quali sono gli sviluppi prevedibili nel prossimo futuro? A tutti i colleghi che non hanno una competenza verticale sul tema (cioè alla maggior parte di noi, me compreso), segnalo due fondamentali fonti per comprendere presente e futuro prossimo dell’IA.
Una fonte sarà disponibile entro la fine del 2024: nell’incontro “Stati Generali della Sicurezza”, che sarà organizzato come ogni anno da OSSIF (l’Osservatorio sulla Sicurezza di ABI), saranno presentati i risultati dell’Osservatorio “AI for Financial Urban Security”, promosso da OSSIF e AIPSA, coordinato da Spike Replay ed a cui ASIS Italy ha aderito sin dall’inizio. Si tratta della prima grande iniziativa italiana per comprendere l’uso dell’IA nella Corporate Security: anche se focalizzato sul settore finanziario, i risultati avranno rilevo generale. Pertanto, stay tuned!
L’altra fonte invece è già disponibile: ASIS Foundation ha pubblicato la ricerca “Artificial Intelligence in Security: Opportunities and Implications”, che esamina l’attuale impiego dell’IA nelle tecnologie di sicurezza: il lavoro, fruibile for free per tutti gli associati ASIS, è del 2021 (quindi non recente, considerata la velocità della tecnologia), tuttavia rimane estremamente valido.
Uno tra i numerosi risultati dell’analisi è la fotografia dell’attuale livello dell’IA nella security: riprendendo una scala di classificazione a quattro livelli nota in letteratura, la ricerca evidenzia che oggi ci troviamo al livello più basso, definito come Narrow AI, in cui cioè l’IA è impiegata per automatizzare compiti ben definiti e con scopi chiaramente delimitati. Ad esempio, il riconoscimento facciale su vasta scala, il drastico miglioramento dell’accuratezza di un segnale radar, oppure, al di fuori della security, la produzione di un testo o di un video. La classificazione al livello iniziale non deve ingannare: come sappiamo, si tratta già di applicazioni rivoluzionarie, in grado di abilitare innovazioni significative.
Ancor più interessante, però, è comprendere cosa sarà fattibile nel prossimo futuro. Il lavoro di ASIS Foundation esclude la possibilità di raggiungere i due livelli più alti, definiti come Artificial General Intellicenge e Artificial Super Intelligence, in cui le applicazioni performano rispettivamente come un umano (quindi hanno capacità di definire strategie, formulare piani, provare emozioni) oppure meglio di un umano. L’impossibilità di raggiungere questi livelli superiori è confermata da diversi esperti, che escludono la loro raggiungibilità proprio per le logiche alla base dell’IA (si direbbe che sono “impossibili per costruzione”): ad esempio, Luciano Floridi, famosissimo filosofo dell’informazione, paragona la domanda “quando raggiungeremo l’Intelligenza Artificiale Generale?” a quella di chi, salito a Firenze sul treno diretto a Roma, chiedesse quanto manca a Bologna: la domanda non ha senso, in quanto si sta andando in tutt’altra direzione.
Esclusi i due livelli superiori, la ricerca di ASIS Foundation evidenzia invece la possibilità (la certezza) di raggiungere il livello intermedio della Broad AI, in cui applicazioni IA sono in grado di integrare più applicazioni specifiche (di Narrow IA), per costruire un sistema più ampio, con elevati livelli di autonomia decisionale. Pensiamo, ad esempio, ad un’applicazione che integrasse applicazioni specifiche di analisi video e di analisi ambientale, per creare una Control Room totalmente automatizzata. Casi concreti di Broad AI sono, ad esempio, i Veicoli a Guida Autonoma, alcuni in stato avanzato di sperimentazione o già in produzione (a chi fosse interessato, suggerisco la recente pubblicazione di ASIS Foundation “Autonomous Veicles: Threats, Risks and Opportunities”).
La prospettiva di realizzare o acquistare, nel prossimo futuro, soluzioni di Broad AI in molte aree della security, amplifica le riflessioni non strettamente “tecnico-funzionali” che oggi già accompagnano le soluzioni di Narrow AI: come affrontare l’impiego malevolo della tecnologia, garantire la sicurezza cyber delle applicazioni, far evolvere il quadro normativo, rispettare i diritti fondamentali e la privacy, ecc.
Io voglio qui proporre una riflessione meno dibattuta, ma non meno importante, relativa ai rischi di efficacia organizzativa nell’impiego di possibili soluzioni di Broad AI. Per comprenderli, è utile una digressione storica: negli anni ’80 molte aziende occidentali decisero di realizzare fabbriche unmanned, cioè (quasi) senza apporto umano ma completamente gestite dai Robot, sfruttando i grandi progressi di allora nelle tecnologie di automazione. Come noto, tranne rare eccezioni i risultati furono deludenti e, in molti casi, disastrosi: ci si rese conto dell’imprescindibilità del fattore umano, indispensabile per cogliere i segnali deboli presenti nelle linee produttive e garantire il miglioramento continuo dei prodotti, ma che nessun robot riusciva a catturare. Questo fallimento decretò, invece, il successo dell’industria giapponese, i cui metodi produttivi (lean production, TQM, ecc.) coniugavano ab origine l’efficacia dell’automazione con la sensibilità (ai segnali deboli) umana.
Nei sistemi di Broad AI (pensiamo all’esempio di una Contro Room totalmente automatizzata, prima descritto) la storia rischia di ripetersi: oggi l’AI è strutturalmente inadatta per individuare i segnali deboli e per comprenderne il senso: elementi invece sempre più necessari per anticipare crisi ed incidenti inattesi. La ricerca di ASIS Foundation è esplicita: “…AI is fallible and inflexible, and subsequently operates in an environment of black and white. In contrast, humans …can comprehend unusual environmental changes or disturbances with sufficient fluidity…Currently, AI does not have the capacity for human understanding – it cannot adapt as a human can and therefore cannot provide assurances under dynamic conditions. Security by its very nature is dynamic, therefore the implications of assurance deficits are profound…”.
Parallelamente, anzi congiuntamente alle tecnologie di Artificial Intelligence, è necessario sviluppare modelli e metodi di Organizational Intelligence, per diffondere e rendere sistematica la capacità delle organizzazioni di individuare e dare senso ai segnali deboli. Ritengo che la community dei Security Managers ed Experts possa e debba avere un ruolo decisivo in questa sfida: ASIS Italy ha attivato il gruppo di lavoro Human Factor and HRO per approfondire anche questi aspetti. Pertanto, anche qui…stay tuned!