Al Senato un ddl contro la dipendenza algoritmica

0

ROMA (Public Policy Bytes) – Il 24 marzo, con una sentenza inedita, un giudice di Los Angeles ha ritenuto Meta e, in misura minore, Google responsabili per i danni che avrebbero arrecato alla salute mentale e alla sicurezza dei minori, condannandole a risarcire 6 milioni di dollari a una ventenne.

A costituire elemento di rottura nella decisione della corte non è l’aspetto pecuniario, ma il superamento dello scudo legale che veniva tradizionalmente offerto dalla sezione 230 del Communications decency act del 1996, norma federale che esonera le piattaforme online dalla responsabilità legale per i contenuti pubblicati dai loro utenti. La sezione 230, nello specifico, recita che “nessun fornitore o utilizzatore di un servizio informatico interattivo deve essere trattato come l’editore o l’autore di informazioni fornite da un altro fornitore di contenuti informativi”. Per la prima volta, infatti, il tribunale di Los Angeles non propugna la tesi secondo cui le piattaforme sarebbero equiparabili agli editori, ma le ritiene comunque responsabili per il ruolo dei loro algoritmi, che operano attivamente una selezione dei contenuti personalizzata da presentare all’utente.

È dalla sentenza della corte californiana che prende le mosse un disegno di legge presentato al Senato, a prima firma dei senatori del Pd Antonio Nicita e Lorenzo Basso. Il testo mira a contrastare la manipolazione delle piattaforme introducendo tre “condotte algoritmiche vietate”, disponendo la verifica dell’età a livello di sistema operativo dei dispositivi per tutelare i minori e obbligando le aziende a impostare di default una modalità che non profila gli utenti.

È infatti “l’architettura algoritmica – spiegano i senatori in una nota – che governa la selezione, la sequenza, l’amplificazione e la tempistica dei contenuti” ed è “essa stessa uno strumento produttore di danni, progettato e ottimizzato non per servire gli interessi degli utenti ma per massimizzare attenzione, coinvolgimento e dipendenza comportamentale”.

“L’algoritmo non è mai neutrale”, ribadisce Nicita, sottolineando come il legislatore intenda intervenire in un ambito finora dominato solo da regole di decisori privati. Il provvedimento risulta pienamente compatibile con il diritto europeo: anche il Digital services act dell’Ue esonera le piattaforme dalla responsabilità per i contenuti di terzi, ma non armonizza gli standard sul design algoritmico con il livello di dettaglio previsto da questo disegno di legge.

Il testo individua quindi 3 pratiche illecite, a partire dalla “dipendenza algoritmica”, ossia la capacità di specifiche architetture di indurre un uso compulsivo del servizio. Sotto la lente del ddl vi sono le più comuni pratiche adottate dalle piattaforme, come lo scorrimento infinito e la riproduzione automatica dei contenuti e la “gamification”, che emula le meccaniche dei videogiochi e le applica alle più disparate attività. Tali dinamiche sfruttano il circuito dopaminico della ricompensa, causando un deterioramento documentato della salute mentale, specie negli adolescenti, e configurano una “qualificazione giuridica” per quelle scelte di design che riducono sistematicamente l’autonomia dell’utente.

La seconda pratica consiste nell’influenza algoritmica, definita come la modificazione opaca dell’ambiente informativo tramite profilazione e raccomandazioni mirate. A differenza della palese curatela editoriale, questa agisce sotto la soglia di consapevolezza dell’utente, “costruendone le preferenze piuttosto che rispecchiandole”. La sua principale manifestazione è la shadow suppression, meccanismo di declassamento occulto con cui gli algoritmi nascondono i contenuti giudicati poco virali, così da trattenere le persone più a lungo sulla piattaforma.

Infine vi è la “manipolazione algoritmica selettiva“, un intervento intenzionale sulle logiche di amplificazione o soppressione per specifiche finalità politiche, commerciali o propagandistiche. I firmatari citano come esempi l’amplificazione sistemica di determinati account politici su X dopo l’acquisizione di Elon Musk nel 2022 e l’ingerenza di TikTok nelle elezioni presidenziali romene del novembre 2024, culminate con l’annullamento del voto in quello che è il primo caso europeo di questo genere.

Il testo prevede un catalogo aperto di pratiche vietate, delegando all’Agcom il compito di ampliarlo nel tempo per evitarne l’obsolescenza normativa. Viene inoltre istituito un dovere generale di diligenza che impone di progettare sistemi atti a minimizzare i rischi, richiedendo ai chatbot dotati di intelligenza artificiale l’uso di protocolli capaci di rilevare vulnerabilità psicologiche e reindirizzare gli utenti verso un’assistenza umana. A tutela dei minori, inoltre, viene disposto il divieto assoluto di profilazione psicologica ai fini dell’engagement e l’obbligo di attivare modalità restrittive per i chatbot.

Spettano all’Agcom, supportata da un comitato tecnico-scientifico, la vigilanza e l’applicazione della norma. L’Autorità potrà sanzionare le aziende inadempienti fino al 2% del fatturato mondiale (o 20 milioni di euro) per le violazioni legate a dipendenza algoritmica e dovere di diligenza, e fino al 4% (o 30 milioni di euro) per influenza algoritmica e manipolazione. Tali multe potranno crescere del 50% in caso di coinvolgimento di minori o in prossimità di scadenze elettorali. Infine, l‘80% dei proventi andrà a finanziare un nuovo Fondo per l’alfabetizzazione digitale presso la presidenza del Consiglio dei ministri. (Public Policy Bytes) DVZ