top of page
Immagine del redattoredanieleproietto92

L'Unione Europea abbraccia l'era dell'intelligenza artificiale con l'AI Act: impatto e adeguamenti.

L’UE è la prima a dotarsi di una legge sull’Intelligenza Artificiale, in difesa dei diritti fondamentali delle persone senza accantonare la spinta all’innovazione.



Tech Gif

L'Unione Europea ha compiuto un passo significativo nel mondo dell'intelligenza artificiale (IA) con l'introduzione dell'AI Act. Questo regolamento, adottato per affrontare le sfide e massimizzare i benefici dell'IA, rappresenta un punto di svolta ed è la prima regolamentazione di questa tecnologia avanzata. Tuttavia, l'adozione non è stata priva di discussioni e controversie, in particolare sulla questione dell'utilizzo dell'IA per la sorveglianza e la sicurezza.


L'AI Act è un quadro legislativo che mira a creare un ambiente normativo chiaro e coerente per l'uso dell'IA all’interno dell’Unione. Esso si basa su valori fondamentali come la trasparenza, la responsabilità, la non discriminazione e la sicurezza. Il regolamento stabilisce regole specifiche per i sistemi di IA ad alto rischio, come quelli utilizzati nei settori della salute, dell'istruzione, dei trasporti e della giustizia.


Durante i negoziati per l'approvazione dell'AI Act, si è verificato un impasse significativo riguardo all'uso dell'IA per la sorveglianza e la sicurezza. Semplificando: Il Parlamento Europeo temeva che l’ampio utilizzo di sistemi di sorveglianza basati sull’IA potesse minare la privacy e i diritti fondamentali dell’individuo e ha proposto così un blocco totale, mentre il Consiglio Europeo, che è l’espressione dei singoli stati, ha avuto un approccio più permissivo (senza contare l’intervento a gamba tesa di Italia, Francia e Germania per escludere i foundational models, i sistemi di addestramento alla base dei prodotti finali, dalla regolamentazione).


Dopo qualche settimana di negoziazione, gli stati hanno ceduto e l’AI Act ha quindi introdotto restrizioni sull'uso di sistemi di riconoscimento facciale e di altre tecnologie di sorveglianza in luoghi pubblici, affermando la necessità di rispettare i principi di proporzionalità e necessità.


Anche la questione dei foundational models è stata risolta grazie all’individuazione delle AI ad alto impatto (con un potere di calcolo di 10^25 FLOPs) che dovranno applicare ex ante la legislazione rispettando sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima della commercializzazione. Per i modelli inferiori, la legislazione viene applicata al momento della commercializzazione dei prodotti.


Questo approccio mira a garantire che le tecnologie di sorveglianza siano utilizzate solo quando è assolutamente necessario e nel rispetto dei diritti fondamentali.


Le aziende operanti nell'UE devono ora affrontare la sfida di adeguarsi all'AI Act. I regolamenti specifici sui sistemi ad alto rischio richiedono alle imprese di implementare misure di sicurezza, documentare processi decisionali automatizzati e designare responsabili della conformità. Inoltre, l'obbligo di trasparenza richiede alle aziende di fornire informazioni chiare sull'uso dell'IA, permettendo ai cittadini di comprendere come vengono prese le decisioni che li riguardano.


Le aziende che sviluppano sistemi di sorveglianza o tecnologie ad alto rischio devono prestare particolare attenzione alla conformità con le nuove normative. L'implementazione di misure etiche e responsabili diventa essenziale, non solo per rispettare la legge, ma anche per guadagnare la fiducia dei clienti e dei cittadini.


Le aziende avranno 24 mesi di tempo per adeguarsi mentre entro 6 mesi dovranno stoppare gli usi proibiti dall’AI Act. Per favorire l’innovazione le piccole e medie imprese hanno la possibilità di creare i "regulatory sandbox": degli ambienti di test esenti dalle regole. 


L’Unione Europea si è dotata anche di un ufficio dedicato per favorire e controllare l’applicazione della legge. 


L'adozione dell'AI Act da parte dell'Unione Europea rappresenta un passo avanti nella regolamentazione dell'IA, bilanciando l'innovazione tecnologica con la protezione dei diritti fondamentali. L'impasse sulla sorveglianza e la sicurezza ha evidenziato la necessità di un approccio equilibrato, incoraggiando l'innovazione senza compromettere la privacy e la sicurezza dei cittadini. Ora, è compito delle aziende adattarsi a questa nuova realtà normativa, implementando pratiche etiche e responsabili per garantire un futuro sostenibile e trasparente per l'IA nell'Unione Europea.


0 commenti

Comments


bottom of page