HOT TOPICS  / Hge Invasione russa in Ucraina Unione della Salute Coronavirus Recovery plan Energia Allargamento UE
Intelligenza artificiale, Parlamento UE: necessario controllo umano su utilizzi militari e civili

Intelligenza artificiale, Parlamento UE: necessario controllo umano su utilizzi militari e civili

Approvata in plenaria la risoluzione che chiede alla Commissione più decisione nel definire i sistemi IA autonomi e le applicazioni per sicurezza dell'Unione, sanità, giustizia, trasporti e riconoscimento biometrico

Bruxelles – All’alba dell’era dell’intelligenza artificiale il Parlamento Europeo ha fatto capire che c’è e che vuole riservare all’UE un posto in prima fila. Con la relazione dell’eurodeputato del gruppo ID Gilles Lebreton, adottata ieri (mercoledì 20 gennaio) con 364 voti favorevoli, 274 contrari e 52 astensioni, da Bruxelles è arrivata la conferma che i Ventisette possono giocare un ruolo chiave in un settore in rapida evoluzione.

Robotica e tecnologie di ultima generazione hanno un impatto diretto su tutti gli aspetti della società – dall’ambito militare a quello dei trasporti, della sanità e della giustizia – e per questo motivo il Parlamento UE ha messo nero su bianco la necessità di definire i valori etici e le modalità di utilizzo dei sistemi di intelligenza artificiale autonomi (IA).

Una definizione chiara

Il primo punto da rilevare è la richiesta esplicita alla Commissione Europea di adottare non solo un quadro giuridico comune, ma prima di tutto le definizioni di intelligenza artificiale e autonomia. “L’IA è un sistema basato su software o integrato in dispositivi hardware che mostra un comportamento che simula l’intelligenza”, propone il relatore Lebreton. Questo significa che il sistema “raccoglie e tratta dati, analizza e interpreta il proprio ambiente e intraprende azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici“. Quando si parla di autonomia, si deve intendere “un  sistema che opera interpretando determinati dati forniti e utilizzando una serie di istruzioni predeterminate, senza essere limitato a tali istruzioni”.

Può sembrare accademia, ma trovandoci agli albori di una nuova era per la tecnologia è essenziale definire ogni dettaglio alla base. Questo perché, subito dopo, dovrebbe arrivare un quadro giuridico completo di “aspetti etici di tali tecnologie”, oltre alla “responsabilità e alla trasparenza del loro utilizzo”. Il tutto si deve basare su “valori umanisti intrinsecamente europei e universali, applicabili all’intera catena dello sviluppo, attuazione e impieghi dell’IA”. Definizione, principi, quadro giuridico. È questa la scaletta di priorità del Parlamento Europeo, come già era emerso con l’adozione di tre testi sull’intelligenza artificiale il 20 ottobre dello scorso anno.

In ogni settore, civile e non, l’intelligenza artificiale “deve essere soggetta a un significativo controllo umano“, in modo che “in qualsiasi momento un umano abbia i mezzi per correggerla, bloccarla o disattivarla”. Questo sia “in caso di comportamento imprevisto”, ma anche di “attacchi informatici, interferenza o qualora terzi acquisiscano tale tecnologia”.

L’ambito militare

Nel settore militare la considerazione di partenza è che “la Commissione Europea non contempla gli aspetti militari dell’utilizzo dell’intelligenza artificiale nel proprio Libro bianco“. Di qui il Parlamento UE si fa capofila nel tracciare la strada dei principi di utilizzo. Le condizioni di ingaggio sono il “rispetto del diritto internazionale” e che si possa sempre “identificare l’essere umano responsabile della decisione“.

L’intelligenza artificiale potrebbe essere utilizzata per “consolidare la sicurezza dell’Unione Europea e dei suoi cittadini“, per “addestramento ed esercitazione” sia di guerre convenzionali che di conflitti irregolari. Inoltre, “la robotica offrirà una migliore auto-protezione nel caso di operazioni in ambienti contaminati, spegnimenti di incendi, sminamenti a terra o in mare e azioni di difesa da sciami di droni”. E ancora “soccorso in caso di calamità, prevenzione delle crisi e mantenimento della pace” sono tra gli obiettivi della ricerca e dello sviluppo dell’IA in questo ambito.

Non uno scenario distopico in cui l’essere umano non ha più autorità sulle macchine, ma tutto l’opposto, anche in caso di conflitto. Questi sistemi “devono consentire agli umani responsabili di esercitare un controllo significativo, di assumere la piena responsabilità dei sistemi e rispondere di tutti i loro utilizzi”. Nel testo del relatore Lebreton sono definiti i requisiti minimi dei sistemi sviluppabili: “Distinguere tra non combattenti e combattenti sul campo di battaglia, riconoscere quando un combattente si arrende o è fuori combattimento”. Non devono avere “effetti indiscriminati, causare sofferenze inutili, né essere formati intenzionalmente sulla base di dati incompleti”. Per questo motivo i sistemi IA non possono essere messi nelle condizioni di “prendere decisioni autonome riguardanti i principi giuridici di distinzione, proporzionalità e precauzione”.

Sono tecnologie di nuova generazione agli antipodi rispetto ai sistemi d’arma autonomi letali (SALA), per cui il Parlamento UE chiede “il divieto di sviluppo, produzione e utilizzo”, in quanto privi di “un controllo umano significativo sulle funzioni critiche di selezione e attacco di bersagli individuali”. Per questo motivo alcuni dei sistemi SALA sono anche definiti “robot assassini”: il testo “esige che sia imposto il divieto di antropomorfizzarli”, per “evitare qualsiasi confusione tra una persona umana e un robot”.

Il ruolo dell’UE

Nell’affrontare la questione militare, Lebreton ricorda che “l’ambizione dell’Unione Europea è quella di essere un attore globale di pace” e, in linea con questo ruolo, “chiede che essa svolga un ruolo più ampio negli sforzi globali per il disarmo e la non proliferazione delle armi”.

Modello di Eurodrone (credits: Commissione UE)

Il testo non è però privo di un approccio pragmatico. Punto primo, “i nostri alleati nel quadro della NATO stanno integrando l’IA nei loro sistemi militari“. Di qui la necessità di “preservare l’interoperabilità mediante norme comuni, essenziali per svolgere operazioni in coalizione”. Punto secondo, “l’ecosistema globale dell’intelligenza artificiale è dominato da giganti del digitale americani e cinesi“. Perciò, per evitare di rimanere indietro in questo settore, “è essenziale muoversi verso un equilibrio migliore tra la ricerca di base e le applicazioni industriali”, stimolando “la crescita del proprio potenziale e delle proprie risorse”.

Il ruolo primario dell’Unione Europea dovrà comunque essere quello di stabilire un quadro giuridico internazionale per l’uso dell’intelligenza artificiale insieme alle Nazioni Unite. Attraverso il relatore Lebreton, il Parlamento UE ha invitato l’alto rappresentante per gli Affari esteri e la politica di sicurezza, Josep Borrell, “a preparare il terreno per negoziati globali intesi” e “a creare un regime di controllo delle armi basate sull’IA”. Al Consiglio si chiede invece di “tenere pienamente in considerazione i sistemi d’arma basati sull’IA” nel momento in cui vengono definite “norme comuni per il controllo delle esportazioni di tecnologia e attrezzature militari”.

L’ambito civile

Non di sole armi è fatta l’intelligenza artificiale e il Parlamento UE non lo ha dimenticato. La pandemia Covid-19 ha dimostrato le carenze dell’Unione dal punto di vista tecnologico e per evitare che si possa ritrovare nuovamente impreparata davanti a una crisi, “deve impegnarsi per conseguire la resilienza strategica“. In primis, gli Stati membri devono “ridurre la loro dipendenza da dati esteri” e garantire che l’autorità pubblica non venga minacciata dal “possesso di tecnologie di intelligenza artificiale più sofisticate da parte di potenti gruppi privati”, soprattutto “se sono di proprietà di un Paese terzo che non fa parte dell’Unione Europea”.

In secondo luogo, viene posta l’attenzione sui processi decisionali che si avvalgono dell’uso di sistemi IA: “Devono essere soggetti a criteri rigorosi per controllare la sicurezza, la trasparenza, la rendicontabilità, la non discriminazione e la responsabilità sociale e ambientale”. Il controllo umano nello sviluppo e nell’uso di tecnologie di ultima generazione in ambito civile è tanto importante quanto in quello militare.

Per quanto riguarda i settori di applicazione, il primo considerato è il riconoscimento biometrico. La relazione di Lebreton chiede alla Commissione di “valutare le conseguenze di una moratoria sull’utilizzo dei sistemi di riconoscimento facciale“, con particolare attenzione “nei luoghi pubblici e nei locali destinati all’istruzione e all’assistenza sanitaria”, in stazioni e aeroporti, “fino a quando le norme tecniche non saranno considerate pienamente conformi ai diritti fondamentali”.

A questo si lega la “profonda preoccupazione” per il dilagare di tecnologie di deepfake (che consentono di produrre foto, audio e video falsificati sempre più realistici): “Potrebbero essere utilizzati per compiere ricatti, creare notizie false o minare la fiducia dei cittadini e influenzare il dibattito pubblico”. Per cercare di contrastare gli effetti destabilizzanti sulla società, il Parlamento UE chiede l’introduzione dell’obbligo di etichetta “video non originale” da parte del creatore, “con severi limiti al loro utilizzo a fini elettorali” e lo sviluppo di “tecnologie di contrasto agli utilizzi dolosi dell’IA”.

Nel settore della sanità, è indiscutibile che l’intelligenza artificiale svolga un ruolo sempre più decisivo “attraverso algoritmi di supporto alla diagnosi, chirurgia robotica, protesi intelligenti”, ma anche “robot sociali per l’assistenza agli anziani, terapie digitali volte a migliorare l’indipendenza di persone affette da disturbi mentali e software di anticipazione delle epidemie”. Proprio per garantire il corretto utilizzo di queste tecnologie in un ambito ormai cruciale (soprattutto dopo la pandemia Covid-19), per gli eurodeputati è necessario che venga garantita “la protezione dei dati personali dei pazienti” e che “rispettino il principio della parità di trattamento in termini di accesso alle cure“. Anche in questo caso, il medico deve sempre avere la possibilità di discostarsi dalla soluzione proposta dalla tecnologia, “rispettando il giuramento di Ippocrate e mantenendo la responsabilità di qualsiasi decisione”.

A livello di utilizzo nel campo della giustizia, la relazione sottolinea che l’utilizzo dell’intelligenza artificiale “potrebbe migliorare l’analisi e la raccolta dei dati e la protezione delle vittime“, ma che lo sviluppo deve essere accompagnato da valutazioni d’impatto, nello specifico per “assicurare un giusto processo ed evitare distorsioni e discriminazioni”. In ogni caso, la tecnologia “non può sostituire il coinvolgimento di esseri umani nella pronuncia delle sentenze”, in un ambito in cui la decisione dell’essere umano è basilare.

Infine, i sistemi IA nel settore dei trasporti: “Offrono possibilità inedite di migliorare le prestazioni, affrontando le sfide della crescente domanda di spostamenti, della sicurezza e della dimensione ambientale”. Il bilancio di un maggiore coinvolgimento della tecnologia viene visto positivamente, perché renderebbe “più intelligenti, più efficienti e più convenienti tutti i modi di trasporto”, si legge nel testo. Considerati i miglioramenti in termini di mobilità, sicurezza e impatto ambientale dei veicoli a guida autonoma, la Commissione e gli Stati membri sono esortati a “garantire la cooperazione tra le autorità di regolamentazione e tutti gli attori pertinenti per la diffusione dei veicoli stradali automatizzati nell’UE”. È già l’alba dell’era dell’intelligenza artificiale e per il Parlamento Europeo non c’è nemmeno un secondo da perdere.

ARTICOLI CORRELATI