Pubblicato, sulla Gazzetta Ufficiale dell’Unione europea, serie L, del 12 luglio, l’atteso regolamento UE 2024/1689 che stabilisce regole armonizzate sull’intelligenza artificiale (IA) e che apporta modifiche a numerosi altri regolamenti (regolamento intelligenza artificiale). Un testo con cui Stati e attori pubblici e privati sono immediatamente chiamati a fare i conti perché, anche se la sua applicazione è fissata, per la maggior parte delle norme, al 2 agosto 2026, con alcune sezioni che invece saranno già applicabili dal 2 febbraio 2025 (si tratta del capo II relativo alle pratiche di intelligenza artificiale vietate e del capo III sui sistemi di IA classificati come ad alto rischio), è evidente che sin da subito è necessario calibrare lo sviluppo di software e sistemi in base alle norme del regolamento. Inoltre, entro il 2 novembre 2024 gli Stati dovranno individuare le autorità pubbliche chiamate a fare rispettare gli obblighi a tutela dei diritti fondamentali. In ogni caso, è evidente che le aziende, dai fornitori agli sviluppatori di sistemi di IA, e le pubbliche amministrazioni dovranno già procedere a una mappatura dei sistemi utilizzati e valutare l’applicazione delle regole differenziate a seconda dell’uso. Si introduce, anche in questo settore, una responsabilità che segue l’intera catena del valore dell’IA, con l’individuazione di specifici obblighi per tutti gli attori che partecipano alla diffusione, inclusi importatori e distributori e la connessa necessità di prestare una particolare attenzione nella conclusione dei contratti.
Il regolamento è una pietra miliare – così come lo è stato il regolamento GDPR – ed è destinato a dare un’impronta anche ad altri atti internazionali (si veda il post sulla Convenzione del Consiglio d’Europa http://www.marinacastellaneta.it/blog/al-via-il-primo-trattato-globale-sullintelligenza-artificiale.html.) e nazionali (si veda la Strategia italiana per l’intelligenza artificiale 2024-2026, Strategia Italiana). Con un principio guida ossia che i sistemi di intelligenza artificiale non possono muoversi in uno spazio senza diritto. Il testo è costituito da un Preambolo di 180 considerando, 113 norme e 13 allegati e si propone di migliorare il funzionamento del mercato interno con la promozione dell’intelligenza artificiale che deve essere antropocentrica e affidabile, in modo da arrivare a una competitività responsabile e in grado di assicurare il livello elevato di protezione dei diritti umani, prevedendo anche interventi “difensivi” volti a bloccare gli effetti nocivi dei sistemi di IA nell’Unione. Fissati alcuni divieti assoluti in ragione del livello di rischio inaccettabile (sistemi indicati nell’all’Allegato III) come l’uso di sistemi di categorizzazione biometrica e obblighi di trasparenza e informazione che sono direttamente correlati al grado di rischio inteso come la combinazione della probabilità del verificarsi di un danno e la sua gravità, che va da quello inaccettabile, all’alto rischio (sistemico, significativo o grave), da quello limitato al rischio minimo. Tra i sistemi considerati ad alto rischio sono indicati quelli destinati ad essere usati dall’autorità giudiziaria e nei processi democratici. È l’articolo 9 a occuparsi del sistema di gestione del rischio e l’articolo 14 impone la sorveglianza umana nei sistemi di IA di questo tipo che devono essere progettati in modo tale da poter essere sempre supervisionati da persone fisiche per tutto il periodo in cui sono in uso. Tra le novità, la valutazione di impatto sui diritti fondamentali che immette un meccanismo simile alla VIA, in rapporto alle categorie di persone fisiche che saranno interessate da questi sistemi, nonché il sistema di etichettatura per evidenziare i contenuti falsi (deep fake).
Il testo, inoltre, introduce, nel capo XII, un quadro sanzionatorio che include sanzioni amministrative pecuniarie elevate che arrivano, per le imprese, fino al 7% del fatturato annuo calcolato su scala mondiale e per le persone fisiche fino a 35.000.000 euro.
Aggiungi un commento