È il primo trattato internazionale che prova a regolare l’utilizzo dell’intelligenza artificiale, con l’obiettivo di garantire il rispetto dei diritti umani e la rule of law ed evitare che le nuove tecnologie travolgano l’impianto costruito in anni di lavoro. Il Consiglio d’Europa, il 17 maggio (CM(2024)52-final), ha adottato la Convenzione quadro sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto, frutto di due anni di lavoro che hanno poi trovato una convergenza in seno al Comitato dei Ministri (qui il rapporto esplicativo rapporto esplicativo). Pur trattandosi di un trattato globale unico, appare chiaro che, anche per la genericità degli obblighi e per lo spazio lasciato a interventi statali, non sarà in grado di incidere sulle multinazionali della tecnologia come il regolamento Ue sull’intelligenza artificiale (IA Act), già approvato e in fase di pubblicazione sulla Gazzetta Ufficiale dell’Unione europea. Tanto più che la Convenzione non riguarda gli aspetti economici e di mercato. Il testo, quindi, mira a garantire che le attività svolte nel ciclo di vita dei sistemi di intelligenza artificiale da parte di attori pubblici e privati siano conformi alle regole, piuttosto generali, stabilite nel trattato.
In ogni caso, la sua potenziale ampia applicazione soggettiva e la centralità del rispetto dei diritti umani potrebbero fornire un contributo per porre un freno a uno sviluppo tecnologico che presenta notevoli rischi per principi e valori democratici, a rischio, a causa delle tecnologie, da diverso tempo. Il testo è il risultato di due anni di lavoro del Comitato sull’intelligenza artificiale a cui hanno partecipato rappresentanti dei 46 Stati parti al Consiglio d’Europa, dell’Unione europea e di 11 Stati non membri (Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, Perù, Santa Sede, Stati Uniti e Uruguay) e altri rappresentanti del settore privato e dell’accademia. Per l’entrata in vigore è richiesta la ratifica di 5 Stati di cui almeno tre del Consiglio d’Europa. Un numero basso di ratifiche, quindi, ulteriore elemento che rischia di intaccare l’efficacia del Trattato e che mostra più un desiderio di avere un trattato quale che sia rispetto alla volontà di incidere in modo effettivo sulla regolamentazione. Per quanto riguarda l’ambito di applicazione, gli Stati parti dovranno garantire l’applicazione delle regole sia al settore pubblico sia a quello privato che agisce per conto delle autorità pubbliche.
Con il nuovo trattato, che fornisce una nozione classica di intelligenza artificiale, si punta in particolare alla trasparenza e all’identificazione dei contenuti generati dai sistemi di intelligenza artificiale. Le misure per identificare, valutare, prevenire e attenuare i rischi includono anche la possibilità di applicare una moratoria o altri divieti se l’utilizzo dell’IA “presenta rischi incompatibili con le norme in materia di diritti umani”. In primo piano, la protezione della privacy e il divieto di discriminazione e la trasparenza, con l’obbligo di indicare i contenuti frutto dell’intelligenza artificiale. Previste garanzie procedurali per le vittime di violazioni dei diritti umani. La Convenzione non si applica se sono coinvolti interessi di sicurezza nazionale, alle questioni di difesa nazionale e alle attività di ricerca e sviluppo. Gli Stati dovranno istituire un organismo nazionale che verifichi il rispetto della Convenzione.
Aggiungi un commento