Bruxelles – Non c’è la svolta negativa a cui si rischiava di andare incontro per una possibile opposizione francese. L’approvazione della prima legge al mondo per disciplinare gli usi dell’intelligenza artificiale targata Ue ha il vento in poppa dopo il via libera di oggi (2 febbraio) da parte degli ambasciatori dei Ventisette dell’accordo di compromesso raggiunto dai co-legislatori del Parlamento e del Consiglio dell’Ue sull’Atto Ue sull’intelligenza artificiale. Mancano ora solo due voti all’Eurocamera sul fotofinish della legislatura e la maratona di 36 ore tra il 6 e l’8 dicembre 2023 per finalizzare l’intesa non andrà sprecata.
Come ricorda la presidenza di turno belga del Consiglio dell’Ue, l’ormai prossimo Regolamento “è una pietra miliare, che segna le prime regole per l’intelligenza artificiale nel mondo, con l’obiettivo di renderla sicura e nel rispetto dei diritti fondamentali dell’Unione”. Il via libera del Comitato dei rappresentanti permanenti non è stato certo fino all’ultimo, a causa della posizione della Francia. Negli ultimi mesi (prima e dopo l’accordo con il Parlamento Ue) Parigi ha trovato la sponda di Italia e Germania sulla richiesta di un regime normativo più leggero per i modelli generativi di intelligenza artificiale – come ChatGpt – introducendo piuttosto dei codici di condotta. La dura opposizione dei negoziatori dell’Eurocamera ha portato a un compromesso basato su un approccio a più livelli, con regole di trasparenza orizzontali per tutti i modelli. È rimasto però il rischio di un naufragio dei negoziati in Consiglio dell’Ue, con l’opposizione dei tre governi al momento dell’approvazione del testo finale: negli ultimi giorni si sono sfilati prima Berlino e poi Roma, lasciando Parigi in una scomoda posizione. Il via libera di oggi ha registrato alla fine l’unanimità dei Ventisette.
“Oggi è un bel giorno per l’Unione Europea”, ha commentato il co-relatore per il Parlamento Europeo sull’Atto Ue sull’intelligenza artificiale, Brando Benifei, che si è rallegrato dell’approvazione unanime “dopo settimane di rumors sulla stampa e di dubbi”. Come fanno sapere dall’Eurocamera, il prossimo passo è la votazione del testo in commissioni per il Mercato interno e la protezione dei consumatori (Imco) e per le Libertà civili, la giustizia e gli affari interni (Libe) il prossimo 13 febbraio. Dopodiché – a meno di una bocciatura in commissione – il voto finale da parte degli eurodeputati dovrebbe essere previsto per la prima sessione plenaria in programma ad aprile (tra il 10 e l’11). “Con l’Atto sull’Ia saremo più sicuri nell’uso delle nuove tecnologie nella vita di tutti i giorni, nel lavoro così come nel funzionamento delle nostre istituzioni”, ha ricordato il capo-delegazione del Pd al Parlamento Ue, ricordando che “è fondamentale sostenere l’applicazione anticipata delle regole per il contrasto a disinformazione e deepfakes“, in particolare “nell’anno elettorale più importante per l’Europa e per il mondo”. A questo proposito è stato lanciato a metà novembre il Patto Ue sull’intelligenza artificiale, per anticipare volontariamente i requisiti (considerati i tempi per l’entrata in vigore del Regolamento) e dal 24 gennaio la Commissione ha istituito al suo interno un Ufficio ad hoc.
Cosa prevede l’Atto Ue sull’intelligenza artificiale
Il testo dell’intesa ha mantenuto un livello orizzontale di protezione, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’Ia. Vietati invece – in quanto ‘livello inaccettabile‘ – i sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, l’assegnazione di un ‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale).
Per i sistemi ad alto rischio è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati Ue apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti. Una delle eccezioni più sostanziali è quella che riguarda la procedura di emergenza che consentirà alle forze dell’ordine l’utilizzo di strumenti che non hanno superato la procedura di valutazione, che dovrà dialogare con il meccanismo specifico sulla tutela dei diritti fondamentali. Anche l’uso di sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico ha visto delle deroghe “previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti”. L’utilizzo ‘post-remoto’ esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave, mentre quello in tempo reale “limitato nel tempo e nel luogo” per le ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica “specifica e attuale” e per la localizzazione o identificazione di una persona sospettata di aver commesso reati specifici (terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Nel testo dell’accordo sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di intelligenza artificiale possono essere utilizzati per molti scopi diversi (Ia per scopi generali) e in cui la tecnologia per scopi generali viene successivamente integrata in un altro sistema ad alto rischio. Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere – generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico – e della rapida espansione delle loro capacità, è stato concordato che i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata su un ampio spettro di dati generalizzati e senza etichette) dovranno rispettare una serie di obblighi di trasparenza prima di essere immessi sul mercato. Dalla stesura di una documentazione tecnica, al rispetto della legge Ue sul copyright, fino alla diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione.
Qualsiasi persona fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge Ue sull’intelligenza artificiale. In caso di violazione del Regolamento, l’azienda dovrà pagare o una percentuale del fatturato globale annuo nell’esercizio finanziario precedente o un importo predeterminato (a seconda di quale sia il più alto): 35 milioni di euro o il 7 per cento per le violazioni delle applicazioni vietate, 15 milioni di euro o il 3 per cento per le violazioni degli obblighi della legge, 7,5 milioni di euro o l’1,5 per cento per la fornitura di informazioni non corrette. Massimali più proporzionati saranno applicati invece per piccole e medie imprese e start-up.