mercoledì , Giugno 19 2024
Home / Comunicazione / Primo piano / Consiglio Ue, via a libera definitivo all’Ia act

Consiglio Ue, via a libera definitivo all’Ia act

Il Consiglio europeo ha dato il via libera definitivo all’Ia act, la legge europea sull’intelligenza artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale all’interno dell’Unione.

L’Ia act, che entrerà in vigore 20 giorni dopo la pubblicazione in Gazzetta ufficiale dell’Ue, diventerà applicabile dopo 24 mesi per consentire alle aziende di adeguarsi alle nuove regole. Fanno eccezione i divieti, che scatteranno dopo sei mesi, i controlli sui sistemi di ia per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).

Approvata all’unanimità, si tratta della prima legge in materia al mondo, che arriva alla fine di un iter iniziato diversi anni fa, quando nel febbraio del 2017 il Parlamento europeo aveva votato una risoluzione recante delle raccomandazioni alla Commissione sulle norme di diritto civile in merito alla robotica. In quell’occasione, per la prima volta, si erano analizzati i rischi connessi all’intelligenza artificiale e si era stabilita la necessità di un quadro normativo unico.

Due anni più tardi, era stata istituito un gruppo di esperti ad alto livello sull’intelligenza artificiale, per redigere le prime linee guida per un’ia affidabile, basate su sette principi chiave: azione umana e supervisione; robustezza tecnica e sicurezza, privacy e governance dei dati; trasparenza; diversità, non discriminazione ed equità; benessere sociale ed ambientale; accountability.

Da quei primi tentavi di regolamentazione, i sistemi di intelligenza artificiale hanno fatto enormi passi avanti, trovando applicazione in tutti gli ambiti della vita umana. L’Ia act, quindi, rappresenta un elemento fondamentale per tutelare i cittadini europei dai rischi connessi all’utilizzo di queste tecnologie.

Esso classifica i sistemi di intelligenza artificiale in quattro classi, ciascuna delle quali deve sottostare a delle regole precise. I sistemi a rischio minimo o nullo non hanno alcun impatto diretto sui diritti fondamentali o sulla sicurezza delle persone e per tale motivo non devono seguire particolari obblighi normativi. I sistemi a rischio limitato, anche se in maniera ridotta, possono comportare rischi per i diritti delle persone o influenzarne la volontà, pertanto devono sottostare a degli obblighi di trasparenza che rendano gli utenti consapevoli del fatto che stanno interagendo con tecnologie ia.

Per i sistemi ad alto rischio, come quelli per il reclutamento di personale o sanitari, con un impatto significativo sui diritti fondamentali e la sicurezza umane, invece, è previsto una valutazione dell’impatto, l’obbligo a registrarsi nella banca dati Ue apposita e determinati requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti.

Infine, quelli di categoria di rischio inaccettabile, che comprendono strumenti come la manipolazione cognitiva del comportamento, programmi di riconoscimento biometrico e l’assegnazione di “punteggi sociali”, contraddicono i valori e i principi fondamentali dell’Ue, compresi la democrazia, lo Stato di diritto e il rispetto della dignità umana e per tale motivo sono vietati, salvo piccole eccezioni.

Oltre a stabilire le pratiche vietate, i requisiti specifici per i sistemi ad alto rischio e gli obblighi per gli operatori di tali sistemi, la normativa regolamenta il mercato, la messa in servizio e l’uso dei sistemi di ia nell’Unione, impone misure in materia di monitoraggio del mercato, governance della vigilanza e applicazione, stabilisce regole di trasparenza e l’immissione di modelli per finalità generali, nonché misure a sostegno dell’innovazione, con particolare attenzione alle Pmi, comprese le start-up.

Check Also

Ue, via libera alla legge sul ripristino della natura

Dopo mesi di stallo arriva il via libera dell’Unione europea alla prima legge sul ripristino …