L'articolo di Sandro Gozi per "Milano Finanza"
Creare buone leggi è sempre difficile. Creare leggi efficaci per attività che non esistono ancora, nel rispetto del nostro modello di società, diventa ancora più difficile. Questa è la sfida che abbiamo deciso di affrontare in Europa con la nuova legge sull`Intelligenza Artificiale che abbiamo adottato a Strasburgo. Abbiamo cercato un buon equilibrio tra due requisiti fondamentali della nostra strategia. Da un lato, vogliamo promuovere e incoraggiare la ricerca, l`innovazione, lo sviluppo dei modelli, la promozione del software open source e colmare il nostro enorme ritardo competitivo rispetto agli Stati Uniti o alla Cina. Dall`altro lato, non vogliamo innovare a discapito dei nostri valori e delle nostre libertà fondamentali, che devono essere pienamente rispettate.
L`Europa si pone come una terza via tra il laissez-faire totale americano e il controllo totalitario cinese. Dopo il nostro voto, avvieremo le negoziazioni con il Consiglio dell`UE con l`obiettivo di raggiungere un accordo finale entro la fine dell`anno. Miriamo a stabilire regole armonizzate sull`IA, garantendo così il corretto funzionamento del mercato interno e la libera circolazione transfrontaliera di beni e servizi basati sull`intelligenza artificiale. Per quanto riguarda l`innovazione, credo che dovremo lavorare ulteriormente nella fase di negoziazione per favorire regole ancora più flessibili per i nostri operatori e le nostre imprese rispetto al testo del Parlamento, frutto di un compromesso difficile e che deve evolvere. L`Europa aspira a diventare un punto di riferimento globale per un`Intelligenza Artificiale affidabile. Con questa legge poniamo l`accento sulla necessità di garantire un`IA eticamente responsabile, tecnicamente robusta e in conformità con i valori democratici e i diritti fondamentali dell`Unione europea. Ciò passa innanzitutto attraverso una definizione precisa dell`intelligenza artificiale applicabile ai sistemi attuali e futuri. Gli sviluppatori di IA devono rispettare principi come l`intervento e la supervisione umana, la robustezza tecnica, la protezione della privacy e la governane dei dati, la trasparenza, la diversità, la non discriminazione, l`equità, nonché il benessere sociale e ambientale.
Tuttavia, dovremo fare una maggiore distinzione tra gli sviluppatori di modelli, ai quali è necessario concedere maggiori margini, e quelli delle applicazioni. Questo sarà senza dubbio una delle priorità nelle successive trattative. Abbiamo inoltre sviluppato diverse categorie di rischi: con un approccio mirato per identificare i sistemi ad alto rischio, riducendo invece la burocrazia per i sistemi a basso rischio. Solo i sistemi che presentano un rischio significativo per la salute, la sicurezza o i diritti fondamentali faranno parte dei primi. Stiamo spingendo per una chiara definizione dei ruoli dei diversi attori della catena del valore dell`IA, con un`attenzione particolare alle esigenze delle Pmi. Ad esempio, stiamo contrastando le clausole contrattuali abusive imposte unilateralmente. E soprattutto, vogliamo promuovere l`innovazione, ad esempio esentando le attività di ricerca e i componenti di IA con licenza libera. Nuove disposizioni su ciò che abbiamo chiamato «sandbox» consentono ai fornitori di testare i loro sistemi di IA senza dover subito conformarsi al quadro normativo. Tuttavia, anche la legge più perfetta non serve a molto senza un meccanismo di applicazione efficace.
Chiediamo dunque di potenziare l`Ufficio europeo per PIA, che sarà responsabile dell`applicazione delle regole. Ma tutto questo non può avvenire a scapito dell`indebolimento dei nostri valori e delle nostre libertà. Questa è la ragione per cui vietiamo usi invasivi e discriminatori. Ciò include pratiche come tecniche subliminali o manipolatorie deliberate, sfruttamento delle vulnerabilità delle persone e utilizzo a fini di valutazione sociale. Il divieto si estende anche ai sistemi di identificazione biometrica a distanza, alla categorizzazione biometrica basata su caratteristiche sensibili, ai sistemi di polizia predittiva, al riconoscimento delle emozioni in vari contesti e all`estrazione indiscriminata di dati biometrici per il riconoscimento facciale. Sebbene la maggior parte di questi divieti sia ampiamente condivisa, il divieto assoluto dei sistemi di identificazione biometrica a distanza in tempo reale negli spazi pubblici rimane controverso. Alcuni ritengono che possano esserci casi legittimi di utilizzo di tali sistemi, ad esempio nel campo dell`applicazione della legge, a condizione che siano garantite garanzie proporzionate e giustificate.
Anche io lo penso, e credo che dovremo lavorare ulteriormente su questi aspetti che saranno senza dubbio al centro delle prossime trattative con gli Stati membri. Infine, l`utilizzo dell`IA in politica suscita crescenti preoccupazioni, soprattutto riguardo alla rapida diffusione di contenuti negativi e fake-news. Mentre il cervello umano potrebbe impiegare ore per generare mille tweet di critiche e insulti politici, un`Intelligenza Artificiale potrebbe farlo in meno di 10 minuti. Questa facilità con cui PIA può diffondere contenuti negativi solleva interrogativi sulla responsabilità delle piattaforme online. Facebook, in particolare, ha subito importanti cambiamenti negli ultimi mesi, in gran parte a causa dell`avvento dell`IA. Tuttavia, resta da vedere se le altre piattaforme si sono adeguatamente attrezzate per affrontare questa problematica, per preservare la libertà di espressione, proteggendosi al contempo dagli abusi. Tutto questo richiede la creazione di un ambiente in cui siano gli utenti umani, identificabili e in carne e ossa, a essere liberi di esprimersi, anziché essere sopraffatti da troll o software di IA. Stiamo compiendo un passo importante verso la creazione di un solido quadro normativo per PIA in Europa e lo sviluppo di un modello unico al mondo. Ma dobbiamo anche lavorare contemporaneamente sugli strumenti di investimento nell`innovazione.
Avere buone regole è importante, ma poter finanziare buoni investimenti è ancora meglio. Questa è l`Europa che vogliamo: un moltiplicatore di opportunità, libertà e protezioni.