Bruxelles – Si mette in moto il Comitato europeo per la protezione dei dati, per tentare di dare coerenza alla risposta dei Ventisette alle sfide portate da nuovi sistemi di intelligenza artificiale come ChatGPT, senza pregiudicare le potenzialità di innovazione e sviluppo. L’Edpb, l’organismo indipendente dell’Ue adibito all’applicazione coerente del Gdpr (Regolamento generale sulla protezione dei dati) su tutto il territorio comunitario, ha deciso di istituire una task force “per promuovere la cooperazione e lo scambio di informazioni su eventuali azioni di applicazione condotte dalle autorità di protezione dei dati” proprio nei confronti di ChatGPT.
Come si legge in una nota pubblicata al termine della riunione di ieri (13 aprile) dei membri del Comitato, la decisione è arrivata dopo il confronto sulla “recente azione di enforcement” decisa dal Garante della Privacy italiano nei confronti della società OpenAI, che dal 30 marzo ha bloccato sul territorio nazionale l’utilizzo di ChatGPT, il sistema progettato per imitare la scrittura umana a partire da input più o meno specifici. Il provvedimento è scattato dopo il rilevamento della “mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti” da OpenAI, “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali” e di “filtri per la verifica dell’età degli utenti” (il chatbot è rivolto ai maggiori di 13 anni). In una seconda decisione dello stesso Garante di martedì (11 aprile), alla società che sviluppa software di intelligenza artificiale viene concesso di poter riprendere il servizio se entro il 30 aprile rispetterà una serie di richieste: da un’informativa “trasparente” a un “sistema di richiesta dell’età ai fini della registrazione”, fino a una campagna di informazione sui media “per informare le persone sull’uso dei loro dati personali ai fini dell’addestramento degli algoritmi”.
Nel frattempo si attende solo l’avvio dei negoziati tra i co-legislatori Ue (manca ancora la posizione dell’Eurocamera) sulla proposta di un quadro normativo sull’intelligenza artificiale presentata il 21 aprile del 2021 dalla Commissione Europea. Si tratta della prima iniziativa legislativa al mondo per definire un approccio normativo sui sistemi di IA, che l’esecutivo comunitario ha deciso di basare su una scala di rischio. Sono quattro i livelli definiti nella proposta: minimo (videogiochi abilitati per l’IA e filtri anti-spam), limitato (chatbot), alto (assegnazione di punteggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell’affidabilità delle prove in tribunale, chirurgia assistita da robot) e inaccettabile (tutto ciò che rappresenta una “chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone”, come l’assegnazione di un ‘punteggio sociale’ da parte dei governi). Tra il primo – in cui non è previsto nessun intervento – e l’ultimo – che sarà vietato integralmente – si gioca la partita europea sulla regolamentazione più o meno stringente delle applicazioni di IA.
Come funziona ChatGPT
ChatGPT è un chatbot, ovvero un software progettato per simulare una conversazione con un essere umano, come da anni se ne utilizzano per interagire direttamente con smartphone e altri dispositivi digitali. Quello sviluppato dalla società OpenAI e rilasciato nel novembre dello scorso anno ha però diverse caratteristiche peculiari, che lo distinguono dagli altri chatbot: tra le sue funzioni principali ci sono rispondere a domande specifiche, risolvere equazioni matematiche, scrivere codici, testi e articoli giornalistici e formulare raccomandazioni.
Come spiegato in un’attenta analisi de il Post, ChatGPT è un’intelligenza artificiale addestrata su un’enorme mole di testi – questo permette di avere output molto articolati – che ha la capacità di ricordare e riutilizzare i messaggi scambiati in precedenza con l’utente. Allo stesso tempo non è collegato a Internet e per il momento non è in grado di elaborare nulla che coinvolga fatti accaduti dopo il 2021. Ma soprattutto il suo database è composto di opinioni e analisi anche molto diverse tra loro e non categorizzate dagli sviluppatori su una scala di validità o autorevolezza, il che lo rende spesso generico e basato su ipotesi probabilistiche.
ChatGPT è solo l’ultimo dei più sofisticati chatbot, che dimostra verso quale direzione i sistemi di intelligenza artificiale potrebbero andare e quali spazi – anche professionali – potrebbero occupare. Un altro esempio di software di questo genere, sviluppato sempre dalla società OpenAI, è DALL•E (al momento non bloccato in Italia, a differenza di ChatGPT). Si tratta di un sistema a cui può essere chiesto di disegnare qualsiasi cosa, con gli input testuali più disparati, e l’intelligenza artificiale li trasforma da zero in un’immagine che non è mai esistita prima. L’algoritmo non è più basato su una tecnica di apprendimento automatico (il machine learining) a partire da immagini esistenti online, ma sul passaggio da un testo scritto a un’immagine visiva tramite l’IA. Per esempio a DALL•E può essere chiesto di disegnare un robot che protegge la privacy degli utenti online: se ne ottengono diverse immagini tutte diverse e tutte originali.