L’IA tra regole e competitività: parla Pastorella (Azione)

0

di Daniele Venanzi

ROMA (Public Policy Bytes) – La necessità di sviluppare una potenza di calcolo sufficiente ad alimentare la domanda guidata dall’intelligenza artificiale stimola investimenti in data center nell’ordine delle centinaia di miliardi a livello globale. Al riguardo, il Governo italiano ha recentemente pubblicato una strategia; tuttavia, “non vigendo regole nazionali”, sussistono “ostacoli all’investimento” dovuti “all’incertezza normativa e delle tempistiche e la complessità degli iter autorizzativi”.

Altri “ostacoli normativi” precludono “la possibilità di andare oltre la fase di sperimentazione” in tema di guida autonoma, settore su cui è necessario diradare “incertezza e aree grigie” in fatto di “responsabilità” – tema centrale anche nella regolamentazione dei rapporti tra chatbot di IA e minori.

Public Policy Bytes ne ha parlato con Giulia Pastorella, deputata di Azione e relatrice di minoranza della legge italiana sull’intelligenza artificiale.

La scorsa settimana il Mimit ha pubblicato una “strategia per l’attrazione degli investimenti esteri nei data center”. Al momento, manca una legge nazionale di riferimento per il settore. Crede che il vuoto normativo possa rappresentare un ostacolo?

Gli operatori ci dicono che i maggiori ostacoli all’investimento nel nostro Paese sono proprio l’incertezza normativa e delle tempistiche e la complessità degli iter autorizzativi. Hai voglia, quindi, a incentivare o cercare di attrarre gli investimenti.
La prima cosa da fare è semplificare, sburocratizzare e, soprattutto, omogeneizzare, perché in questo momento, non vigendo regole nazionali sui data center, ciascun Comune italiano fa quello che vuole.

Il primo passo, dunque, dovrebbe consistere nell’implementare un iter autorizzativo, un codice Ateco e una destinazione d’uso unici; introdurre, insomma, chiarezza normativa, e poi gli investimenti arriveranno se ce ne sarà la domanda. Nel frattempo, bisogna instaurare un cosiddetto “level playing field” per tutti quelli che vogliono investire. Oggi, per esempio, coloro che investono più di un miliardo hanno quella che potremmo definire la “scorciatoia” dell’Unità di missione attrazione e sblocco degli investimenti (Umasi) del Mimit, che li accompagna per mano in questi iter. Perché loro sì e chi magari investe un pochino meno – ma comunque delle cifre importanti – deve invece passare per le forche caudine di mille procedure?

Noi parlamentari stiamo disperatamente tentando di fornire questa certezza normativa dall’estate 2024; tuttavia, un testo delega – che pur avrebbe permesso al Governo poi di incidere con dei decreti attuativi per identificare esattamente l’iter da implementare – è fermo: è stato rimandato in Commissione e, nel frattempo, non si si vedono alternative all’orizzonte. Mi chiedo, dunque, perché ci si metta a pubblicare strategie invece di fare la cosa che, probabilmente, più di tutte sbloccherebbe e attrarrebbe gli investimenti.

Analogamente, quali effetti concreti produce il vuoto normativo che permane sul settore delle auto a guida autonoma?

Oggi la disciplina riguarda solo i progetti pilota e solo fino al livello 3 di autonomia. Vi sono quindi degli ostacoli normativi a un uso più ampio, che sono insiti addirittura nel codice della strada. È per questo che, nella revisione del codice, ho tentato di inserire una modifica apparentemente banale, ma volta a rimuovere dalla definizione di guida la dicitura di “macchina guidata da un essere umano”: una condizione sine qua non, altrimenti non si apre la possibilità di andare oltre la fase di sperimentazione. Naturalmente, andrebbe poi introdotta una serie di norme, oltre al recepimento di quelle internazionali, come la convenzione di Vienna e altre che consentirebbero applicazioni più ampie. Si sta lavorando a livello europeo per permettere dei progetti più grandi, transnazionali – dei cosiddetti testbeds – ma siamo ancora molto lontani.

Il paradosso è che la maggioranza, pochi mesi dopo aver bocciato tutti i miei emendamenti sulla guida autonoma in sede di riforma del codice della strada, ha presentato una risoluzione sul tema in cui si chiedeva esattamente quel genere di modifiche che suggerivo – come a dire: “quando potevamo farlo non l’abbiamo fatto, però adesso ci facciamo belli e diciamo che vogliamo trattare l’argomento”. Mi auspico che dal lavoro della Commissione emergerà una bella risoluzione – magari unitaria, di tutti i gruppi – per dire che questo è un passaggio fondamentale.

Anche Ursula von der Leyen, nella cornice della Tech week di Torino, ha affermato che è uno dei temi principali per rilanciare il settore dell’automotive europeo. Speriamo che a queste belle parole seguano poi i fatti e che l’iniziativa non sia lasciata semplicemente alla buona volontà di città come Milano, dove è in corso una sperimentazione di guida autonoma su alcune tratte della linea di filobus 90-91.

È anche una questione di infrastrutture. Si pensa alla guida autonoma solo in termini di veicoli senza conducente o in cui il guidatore ha un ruolo minore: in realtà, c’è anche il tema delle strade intelligenti che la consentono e la rendono più sicura. Vi sono poi questioni di responsabilità, anche dell’after market – inteso come riparazione dei veicoli. Su chi ricade la responsabilità, se c’è un incidente? Accountability e liability – quindi responsabilità civile – sono i temi emersi maggiormente dalle audizioni nell’ambito della risoluzione sulla guida autonoma. Ho avuto un confronto con alcuni operatori delle riparazioni aftermarket, che si pongono le stesse questioni ma si trovano in un ambito di incertezza e aree grigie e, soprattutto, vedono come gli altri Paesi ci stanno sorpassando, mentre noi riflettiamo su quale sia il framework legislativo migliore.

Gli aspetti da esaminare e rivedere sono dunque molteplici. Nella revisione del codice della strada, avevo suggerito di cominciare dalle questioni macro.

Riguardo i chatbot, una sua proposta ipotizza di limitarne la memoria per i minori, così da arginare lo sviluppo di disturbi e patologie nei ragazzi. Negli USA, Character.AI si è recentemente autoimposta una policy interna che va in tale direzione. Crede che le altre piattaforme interessate sarebbero favorevoli?

Penso che sia nell’interesse di qualunque piattaforma non crearsi una cattiva reputazione. Lo abbiamo visto con TikTok: quando la reputazione comincia a essere cattiva diventa difficilissimo raddrizzarla, ricreare fiducia ed evitare ban. Ritengo che le tecnologie come i chatbot possano essere utili anche ai minori, quindi non è questione di imporvi un ban totale, ma di capire come limitare da una parte i potenziali effetti negativi e, dall’altra, non essere eccessivamente intrusivi. Ho semplicemente suggerito di limitarne la memoria perché non credo sia giusto un monitoraggio delle conversazioni dei minori per capire se c’è una rapporto emotivo che si sta creando con i chatbot, quanto piuttosto evitare alla fonte che si crei questo rapporto. Se il chatbot non “ricorda” quel che gli hai detto 5 giorni fa, ovviamente non può sviluppare una relazione.

La legislazione vigente già impedisce e vieta i contenuti che istigano il suicidio, l’odio e la violenza. Non c’è quindi bisogno di una nuova norma sul fatto che quei contenuti siano illegali e che le piattaforme debbano il più possibile vietarli – senza un obbligo di monitoraggio generalizzato, ma limitandoli laddove possono farlo. Il tema, dunque, più che sul contenuto, è sui modi in cui coniugare il rispetto della privacy con l’utilizzo di strumenti che sono utili anche per imparare, limitando al contempo il fenomeno sempre più diffuso dell’utilizzo sbagliato.

Attenzione, poi, a seguire le notizie. Ho fatto questa proposta perché la diffusione del problema trova riscontro non solo nelle notizie, ma soprattutto nei dati che la corroborano ed evidenziano un trend in crescita. In questo senso, non bisogna legiferare sulla base delle notizie. Occorre vedere cosa già c’è nella legge: il combinato disposto tra Digital services act (Dsa) e AI act dell’Unione europea già copre in buona parte il rapporto con i chatbot. Manca, tuttavia, l’ultima parte che riguarda, appunto, lo sviluppo di rapporti, che non era stato previsto e che forse va arginato.

Sul ddl semplificazione, riguardo la sua proposta di estendere il principio del “once only” nei rapporti tra PA e cittadini, cassata dal Governo, qual è stata l’obiezione tecnica o politica dell’Esecutivo?

Nessuna spiegazione. Come spesso accade, l’unica spiegazione è stata che già c’è scritto, che già esiste come principio nel codice dell’amministrazione digitale; quindi, a loro detta, non occorre ribadirlo. Ci sono tanti principi già previsti dal codice dell’amministrazione digitale che non vengono rispettati. Ho fatto un’interrogazione proprio mercoledì 5 novembre sul fatto che i Comuni, quando la polizia locale deve accedere ai dati della motorizzazione, pagano 47 centesimi per l’accesso a un dato, come il controllo di una targa. Ciò significa che Comuni grandi come Milano possono spendere più di 1 milione l’anno per queste cose e i Comuni piccoli devono allocare comunque una buona parte del loro budget.

Il codice dell’amministrazione digitale sancisce che le Pa, tra di loro, devono condividere i dati gratuitamente, eppure il precetto non viene assolutamente rispettato. In risposta, il Ministero sostiene che non è grave, perché attraverso quei controlli i Comuni comminano delle multe, che a loro volta vanno nelle casse del Comune stesso, e quindi il costo viene assorbito. In sostanza, si sostiene che il cittadino deve pagare 47 centesimi in più perché la polizia locale e la motorizzazione non possono scambiarsi i dati gratuitamente – cosa che è prevista nel codice dell’amministrazione digitale. Per me, è una risposta che non sta né in cielo né in terra. (Public Policy Bytes)

@danielevenanzi