Le regole del Consiglio d’Europa per l’Intelligenza Artificiale
Il Consiglio d’Europa, che riunisce 46 Stati membri, ha adottato la Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto. Si tratta del primo trattato internazionale che preveda norme giuridiche vincolanti in materia sui sistemi di Intelligenza Artificiale (IA). Il trattato, aperto anche ai Paesi non europei, stabilisce un quadro giuridico che copre l’intero ciclo di vita dei sistemi di IA e affronta i rischi che tali sistemi potrebbero presentare, promuovendo al contempo un’innovazione responsabile. La convenzione adotta un approccio basato sui rischi alla progettazione, allo sviluppo, all’utilizzo e alla disattivazione dei sistemi di IA, che richiede un attento esame di tutte le potenziali conseguenze negative legate all’utilizzo dei sistemi di IA.
La convenzione copre l’utilizzo dei sistemi di IA nel settore pubblico, comprese le aziende che operano per suo conto, e nel settore privato, attraverso due modalità per conformarsi ai suoi principi e obblighi nel quadro della regolamentazione del settore privato: gli Stati che aderiranno possono scegliere di essere sottoposti direttamente alle disposizioni applicabili della convenzione o, in alternativa, prendere altre misure per conformarsi alle disposizioni del trattato rispettando appieno i loro obblighi internazionali in materia di diritti umani, democrazia e Stato di diritto.
La convenzione stabilisce requisiti di trasparenza e controllo adattati ai contesti e ai rischi specifici, tra cui l’identificazione dei contenuti generati dai sistemi di IA. Gli Stati dovranno adottare misure per identificare, valutare, prevenire e attenuare i possibili rischi e valutare la necessità di una moratoria, di un divieto o di altre misure appropriate riguardanti l’utilizzo di sistemi di IA laddove tale utilizzo potrebbe presentare rischi incompatibili con le norme in materia di diritti umani.
Inoltre, gli Stati aderenti dovranno determinare le responsabilità e stabilire l’obbligo di rendere conto in caso di impatto negativo, garantire che i sistemi di IA rispettino l’uguaglianza, compresa quella di genere, e assicurare il divieto di discriminazione e la protezione della privacy. Le persone che interagiscono con un sistema di IA devono, ad esempio, essere informate del fatto che stanno interagendo con un sistema di questo tipo. Inoltre, gli Stati che aderiranno al trattato dovranno assicurare la disponibilità di vie di ricorso e garanzie procedurali per le vittime di violazioni dei diritti umani legate all’utilizzo di sistemi di IA.
In relazione ai rischi per la democrazia, il trattato richiede agli Stati che vi aderiranno, di adottare misure per assicurare che i sistemi di IA non siano utilizzati per compromettere le istituzioni e i processi democratici, tra cui il principio di separazione dei poteri, il rispetto dell’indipendenza giudiziaria e l’accesso alla giustizia. Infine, gli Stati dovranno istituire un meccanismo di controllo indipendente per verificare il rispetto della convenzione, ma dovranno anche sensibilizzare il pubblico, stimolare un dibattito pubblico informale e tenere consultazioni multilaterali su come utilizzare la tecnologia IA.
La convenzione è stata preparata in due anni di lavoro da un organismo intergovernativo, il Comitato sull’intelligenza artificiale, che ha riunito rappresentanti dei 46 Stati membri del Consiglio d’Europa, l’Unione europea (Ue) e 11 Stati non membri (Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, Perù, Santa Sede, Stati Uniti d’America e Uruguay), nonché rappresentanti del settore privato, della società civile e del mondo accademico, che hanno partecipato in qualità di osservatori.
La Segretaria generale del Consiglio d’Europa, Marija Pejčinović, che ha già concesso un’intervista a Città Nuova, ha rilevato che «la Convezione quadro sull’intelligenza artificiale è un trattato globale unico nel suo genere, che assicurerà che l’intelligenza artificiale rispetti i diritti delle persone, è una risposta alla necessità di disporre di una norma di diritto internazionale sostenuta da Stati di diversi continenti uniti da valori comuni, che consenta di trarre vantaggio dall’intelligenza artificiale, riducendo al contempo i rischi che questa presenta». In definitiva, «con questo nuovo trattato, intendiamo assicurare un utilizzo responsabile dell’IA che rispetti i diritti umani, la democrazia e lo Stato di diritto».
Il Vaticano, che ha lo status di osservatore al Consiglio d’Europa, per il tramite del Segretario per i Rapporti con gli Stati e le Organizzazioni internazionali, S.E. Mons. Paul Richard Gallagher, ha evidenziato come la Santa Sede segua con particolare attenzione la nuova convenzione sull’IA, in linea con le sollecitazioni di papa Francesco che ha lancio un appello alla comunità internazionale affinché adottasse «un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’IA nelle sue molteplici forme», considerando un processo di discernimento etico e giuridico quale «un’occasione preziosa per una riflessione condivisa sul ruolo che la tecnologia dovrebbe avere nella nostra vita individuale e comunitaria e su come il suo utilizzo possa contribuire alla creazione di un mondo più equo e umano».
Sebbene la Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto abbia un carattere vincolante nei confronti degli Stati che l’adotteranno, è anche vero che l’adesione è volontaria e che le società private che realizzano i sistemi di IA si muovono per loro conto.
__