Di Nicola Bressan, APP
Mercoledì 14 giugno, a Strasburgo si è, quasi in sordina, fatta la storia. Per la prima volta, infatti, è stato approvato il primo regolamento al mondo dedicato all’intelligenza artificiale (AI). Con una votazione conclusasi a larga maggioranza (499 voti a favore, 28 contrari e 98 astensioni), il testo, che vede come correlatori gli eurodeputati Brando Benifei (italiano – S&D) e Dragos Tudorache (rumeno – Renew), prevede che i sistemi di intelligenza artificiale sviluppati e utilizzati in Europa siano pienamente in linea con i diritti e i valori dell’UE, tra cui la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale ed ambientale.
COSA PREVEDE IL REGOLAMENTO
L’obiettivo dichiarato da parte europea è quello di regolamentare l’AI in modo da combattere la discriminazione digitale, la disinformazione e i deepfake attraverso -ed è qui che si vede l’innovazione europea- un approccio basato sul rischio che stabilisce, a seconda del livello, obblighi per fornitori e per coloro che impiegano sistemi di AI. L’UE ha, dunque, adottato un social scoring che “vieterebbe sistemi di AI con un livello di rischio inaccettabile per la sicurezza delle persone, in particolare quelli utilizzati per la classificazione delle persone in base al loro comportamento sociale o alle loro caratteristiche personali”[1]. Tra i sistemi AI considerati ad alto rischio, il testo ha individuato:
- sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico. Confermata, invece, la possibilità di sistemi di identificazione biometrica a distanza “a posteriori”, ma solamente per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria.
- sistemi di polizia predittiva, fondati su profilazione, ubicazione o comportamenti criminali passati, e i programmi di riconoscimento delle emozioni sfruttati dalle forze dell’ordine nei luoghi di lavoro, negli istituti d’istruzione e alle frontiere.
- sistemi che usano l’estrazione non mirata dei dati biometrici da internet o dai video delle TVCC. L’UE intende, dunque, vietare quella tecnologia che creando database di riconoscimento facciale va in violazione dei diritti alla privacy e umani.
- sistemi utilizzati per influenzare gli elettori e l’esito delle elezioni nonché i sistemi di raccomandazione usati dai social media con più di 45 milioni di utenti.
Inoltre, l’UE ha richiesto ai sistemi di AI generativa, come ChatGPT, un rigoroso rispetto dei requisiti di trasparenza richiedendo la pubblicazione di una dichiarazione attestante come il contenuto sia generato dall’AI e prevedendo modalità operative per distinguere deep-fake da quelle reali e fornire garanzie contro la generazione di contenuti illegali.
E ORA? LA CORSA ALLA COMPLIANCE
All’indomani dell’approvazione a Strasburgo, il testo dev’essere studiato e analizzato dalle molte aziende che fanno uso di AI. per il Sole 24 Ore, infatti, si tratta di una vera e propria “corsa alla compliance”[2] con la consapevolezza da parte delle aziende che il testo cambierà poco rispetto alla sua versione parlamentare (le uniche modifiche potrebbero riguardare le esenzioni previste al ban al riconoscimento facciale). Nonostante i due anni di grace period, che per gli esperti saranno molto utili alle aziende per costruire i processi di compliance al regolamento, il rischio per le aziende italiane, fortemente interessate all’AI come rileva lo studio del PoliMi[3], è quello di “fare le pentole senza coperchi” ovvero “esporsi a responsabilità per danni dall’AI e sanzioni privacy”.
INNOVAZIONE O STRETTA?
Da Strasburgo passa il futuro e quello che è chiaro è che, in Europa, aziende e AI stesse dovranno necessariamente allinearsi alle disposizioni che saranno emanate dagli organi regolamentari europei, disposizioni che secondo alcuni rappresentano una vera e propria stretta all’espansione dell’AI nella società. Il testo, secondo queste teorie, strizzerebbe, sin troppo, l’occhio ai tanti dubbi affiorati nei mesi scorsi da parte di diverse autorità nazionali (tra cui l’italiano Garante Privacy[4]) ed europee[5]. Tuttavia, la manovra, secondo gli organi europei, non sarà una stretta all’AI bensì, come affermato su Twitter dalla Presidente del parlamento UE Roberta Metsola, una “legislazione equilibrata e incentrata sull’uomo che definirà lo standard globale per gli anni a venire” e che porta “l’Europa a guidare l’innovazione”.
L’obiettivo posto dall’UE è alto e per nulla di facile realizzazione però, certamente, necessario e sentito all’interno degli uffici (e non solo) europei ovvero quello di portare l’AI all’interno del cortile della Convenzione dei diritti dell’uomo. Un’impresa, titanica forse, ma certamente in grado di indirizzare i nostri futuri lavorativi e non.
[1] EurActiv, Il Parlamento europeo approva il regolamento sull’intelligenza artificiale – EURACTIV Italia
[2] Sole 24 Ore, Il Parlamento europeo approva l’AI Act, cosa cambierà per le nostre aziende? – Il Sole 24 ORE
[3] CIO, L’IA nelle imprese italiane, a che punto siamo? | CIO
[4] Garante Privacy, AI – Intelligenza artificiale – Garante Privacy
[5] EurActiv, The outstanding concerns surrounding generative AI – EURACTIV.com