L’Europa tra le prime a varare un AI Act, che sancisce le regole per l’Intelligenza artificiale
Il Parlamento europeo ha definito le prime regole al mondo sull’intelligenza artificiale (AI Act). Mirano a garantire la sicurezza, la trasparenza e l’etica dell’IA in Europa. Le norme prevedono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e gli utenti di IA in base al livello di rischio che l’IA può comportare.
I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza umana saranno severamente vietati, compresi i sistemi che utilizzano tecniche nascoste o deliberatamente manipolative, sfruttano le vulnerabilità umane o sono utilizzati per la classificazione delle persone (classificazione delle persone in base al loro comportamento sociale, stato socioeconomico, ecc…).
I parlamentari hanno anche ampliato l’elenco delle pratiche di intelligenza artificiale vietate:
- Riconoscimento biometrico remoto in luoghi pubblici in tempo reale;
- Riconoscimento biometrico a distanza, con la sola eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
- Sistemi di categorizzazione biometrici che utilizzano dati sensibili (ad es. genere, razza, etnia, stato di cittadinanza, religione, orientamento politico);
- Sistemi di polizia predittivi (basati su profilazione, posizione o comportamento criminale);
- Sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nei servizi di frontiera, nei luoghi di lavoro e nelle istituzioni educative;
- Estrazione indiscriminata di dati biometrici dai social network o registrazioni video da telecamere a circuito chiuso per creare banche dati di riconoscimento facciale (violazione dei diritti umani e del diritto alla privacy).
I deputati hanno anche aggiunto all’elenco ad alto rischio i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dai social network.
I fornitori di IA ad alto rischio devono soddisfare una serie di requisiti, tra cui:
- condurre una valutazione del rischio e della conformità;
- registrare i propri sistemi nel database AI europeo;
- garantire un’elevata qualità dei dati utilizzati per l’addestramento dell’IA;
- garantire la trasparenza e la consapevolezza degli utenti;
- assicurare un efficace controllo umano e la possibilità di intervento;
- garantire la sicurezza e l’affidabilità dei sistemi di IA.
Gli utenti di IA ad alto rischio devono rispettare le regole di utilizzo e garantire il livello adeguato di competenze e conoscenze. Dovrebbero anche essere in grado di presentare reclami contro i sistemi di intelligenza artificiale.
I fornitori di IA a basso rischio, come i chatbot, devono informare gli utenti che stanno interagendo con l’IA e non con un essere umano. I parlamentari propongono inoltre la creazione di un regime speciale per scopi generali di IA e modelli di base come GPT-3, che possono essere utilizzati per vari scopi e hanno un grande potenziale di innovazione. Questo regime si baserà sul principio “fidati ma verifica” e includerà la certificazione di qualità e sicurezza.
I parlamentari sottolineano inoltre la necessità di sostenere lo sviluppo e l’applicazione dell’IA in linea con i valori europei e i diritti umani. Chiedono maggiori investimenti nell’intelligenza artificiale, maggiore alfabetizzazione e competenze digitali e cooperazione con altri paesi e organizzazioni internazionali.
Dopo che la posizione del Parlamento europeo sarà approvata in sessione plenaria, inizieranno i negoziati con il Consiglio e la Commissione per l’ulteriore adozione del disegno di legge.