AI Act: la regolamentazione europea sull’intelligenza artificiale

24 Gennaio 2024

Mentre l’intelligenza artificiale (AI) continua a progredire e ad entrare nella vita di tutti i giorni, la necessità di regolamentare questa nuova tecnologia è diventata fondamentale.

Lo scorso 9 dicembre l’Unione Europea ha compiuto un passo significativo in questo senso approvando “l’AI Act”, ovvero la prima regolamentazione al mondo dell’intelligenza artificiale.

I principi etici dell’AI Act

Principi etici AI – Immagine generata con Adobe Firefly

L’AI Act si basa su quattro principi etici fondamentali:

I livelli di rischio dell’AI Act

Immagine generata con Adobe Firefly

Le nuove regole contenute in questo provvedimento stabiliscono degli obblighi da parte dei fornitori dei servizi di AI e gli utenti. I livelli di rischio dell’AI Act sono classificati in base al grado di rischio associato:

– Rischio inaccettabile

Includono sistemi AI che costituiscono una minaccia per le persone, come giochi per bambini che inducano a comportamenti scorretti, la classificazione basata su caratteristiche personali (social scoring) e riconoscimento biometrico (incluso il riconoscimento facciale), con limitate eccezioni per l’uso da parte delle forze dell’ordine.

– Rischio alto

Comprendono sistemi dotati di IA che possono influenzare negativamente la sicurezza o i diritti fondamentali, divisi in categorie:

 AI generative e AI di uso generalizzato

Le AI generative come ChatGPT e Google Bard dovranno rispettare i seguenti principi di trasparenza:

– Rischio limitato

Include sistemi AI a rischio limitato, come quelli che generano ed alterano immagini, video e audio, con l’obbligo di seguire principi minimi di trasparenza per consentire decisioni consapevoli degli utenti.

Quando entrerà in vigore l’AI Act

L’AI Act sarà sottoposto al voto finale nel mese di febbraio di quest’anno, con l’entrata in vigore delle nuove regole prevista a partire dal 2025. Si prevede anche una fase sperimentale, dove le aziende potranno volontariamente aderire alle nuove regole anche prima del 2025.

In Italia si è già affrontato il problema?

Immagine generata con Adobe Firefly

Attualmente in Italia esiste una commissione sull’intelligenza artificiale per l’informazione presieduta prima da Giuliano Amato e, dopo le sue dimissioni, dal sacerdote Paolo Benanti. Questa commissione ha il compito di consigliare sulle eventuali strategie da seguire per gestire le implicazioni dei software di intelligenza artificiale sul settore dell’informazione e dell’editoria.

Esiste anche un altro comitato per una strategia sull’intelligenza artificiale, presieduto da 13 esperti per guidare la strategia nazionale sull’intelligenza artificiale.

Exit mobile version