AI Act, cosa prevede il regolamento Ue: dai divieti ai modelli generativi

0

BRUXELLES (Public Policy / Policy Europe) – Il Parlamento europeo ha approvato in via definitiva mercoledì il regolamento sull’intelligenza artificiale (AI Act), che ora dovrà essere approvato anche dal Consiglio per poi essere pubblicato in Gazzetta ufficiale. Il testo mira a garantire che i sistemi di IA immessi sul mercato europeo e utilizzati nell’Ue siano sicuri e rispettino i diritti fondamentali e i valori dell’Ue. L’idea principale è quella di regolamentare l’IA in base alla capacità di quest’ultima di causare danni alla società, seguendo un approccio “basato sul rischio”: più alto è il rischio, più severe sono le regole.

La Commissione europea aveva presentato la proposta ad aprile 2021. I colegislatori hanno trovato un accordo lo scorso dicembre. Ecco, in sintesi, cosa prevede il regolamento, il primo al mondo a normare il settore dell’intelligenza artificiale:

DEFINIZIONI E AMBITO DI APPLICAZIONE

Per garantire che la definizione di sistema di IA fornisca criteri sufficientemente chiari per distinguere l’IA da sistemi software più semplici, il regolamento allinea la definizione all’approccio proposto dall’Ocse. Il testo chiarisce inoltre che il regolamento non si applica ad aree al di fuori del campo di applicazione del diritto dell’Ue e non dovrebbe, in ogni caso, influire sulle competenze degli Stati membri in materia di sicurezza nazionale o su qualsiasi entità a cui siano affidati compiti in questo settore. Inoltre, l’AI Act non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Allo stesso modo, il regolamento non si applica ai sistemi di IA utilizzati al solo scopo di ricerca e innovazione, né alle persone che utilizzano l’IA per motivi non professionali.

SISTEMI AD ALTO RISCHIO

Il regolamento prevede un livello orizzontale di protezione, compresa una classificazione ad alto rischio, per garantire che i sistemi di IA che non possono causare gravi violazioni dei diritti fondamentali o altri rischi significativi non vengano catturati. I sistemi di IA che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, ad esempio la divulgazione del fatto che il contenuto è stato generato dall’IA in modo che gli utenti possano prendere decisioni informate sull’ulteriore utilizzo.

continua – in abbonamento

NAF