Mentre l’intelligenza artificiale (AI) continua a progredire e ad entrare nella vita di tutti i giorni, la necessità di regolamentare questa nuova tecnologia è diventata fondamentale.
Lo scorso 9 dicembre l’Unione Europea ha compiuto un passo significativo in questo senso approvando “l’AI Act”, ovvero la prima regolamentazione al mondo dell’intelligenza artificiale.
I principi etici dell’AI Act
L’AI Act si basa su quattro principi etici fondamentali:
- Sicurezza: i sistemi di IA devono essere progettati e sviluppati in modo da non creare rischi per la sicurezza delle persone, dei beni o dell’ambiente;
- Trasparenza: i sistemi di IA devono essere trasparenti e comprensibili, in modo che le persone possano comprendere come funzionano e come possono influenzarle;
- Equita e non discriminazione: i sistemi di IA non devono discriminare le persone sulla base di razza, sesso, religione, orientamento sessuale o altre caratteristiche personali;
- Responsabilità: i sistemi di IA devono essere progettati e sviluppati in modo da poter essere responsabili delle loro azioni;
I livelli di rischio dell’AI Act
Le nuove regole contenute in questo provvedimento stabiliscono degli obblighi da parte dei fornitori dei servizi di AI e gli utenti. I livelli di rischio dell’AI Act sono classificati in base al grado di rischio associato:
– Rischio inaccettabile
Includono sistemi AI che costituiscono una minaccia per le persone, come giochi per bambini che inducano a comportamenti scorretti, la classificazione basata su caratteristiche personali (social scoring) e riconoscimento biometrico (incluso il riconoscimento facciale), con limitate eccezioni per l’uso da parte delle forze dell’ordine.
– Rischio alto
Comprendono sistemi dotati di IA che possono influenzare negativamente la sicurezza o i diritti fondamentali, divisi in categorie:
- Prodotti soggetti alla legislazione sulla sicurezza dell’UE (giocattoli, macchine, dispositivi medici);
- Sistemi registrati nel database dell’UE, come l’istruzione e le operazioni su infrastrutture critiche;
AI generative e AI di uso generalizzato
Le AI generative come ChatGPT e Google Bard dovranno rispettare i seguenti principi di trasparenza:
- Far riconoscere i contenuti generati dall’AI
- Non permettere di generare contenuti illegali
- Pubblicare un riassunto dei dati con copyright utilizzati per allenare i modelli di AI
– Rischio limitato
Include sistemi AI a rischio limitato, come quelli che generano ed alterano immagini, video e audio, con l’obbligo di seguire principi minimi di trasparenza per consentire decisioni consapevoli degli utenti.
Quando entrerà in vigore l’AI Act
L’AI Act sarà sottoposto al voto finale nel mese di febbraio di quest’anno, con l’entrata in vigore delle nuove regole prevista a partire dal 2025. Si prevede anche una fase sperimentale, dove le aziende potranno volontariamente aderire alle nuove regole anche prima del 2025.
In Italia si è già affrontato il problema?
Attualmente in Italia esiste una commissione sull’intelligenza artificiale per l’informazione presieduta prima da Giuliano Amato e, dopo le sue dimissioni, dal sacerdote Paolo Benanti. Questa commissione ha il compito di consigliare sulle eventuali strategie da seguire per gestire le implicazioni dei software di intelligenza artificiale sul settore dell’informazione e dell’editoria.
Esiste anche un altro comitato per una strategia sull’intelligenza artificiale, presieduto da 13 esperti per guidare la strategia nazionale sull’intelligenza artificiale.