Il problema non sono i contenuti. È il design.
- 3 Aprile 2026
- Posted by: Andrea Lauricella
- Categoria: Web Design, Web Marketing
Cosa cambia davvero con il DDL Nicita sulla “dipendenza algoritmica”
A fine marzo 2026 è stato presentato in Senato un disegno di legge che affronta un tema rimasto finora ai margini del dibattito pubblico: il ruolo degli algoritmi nel determinare il nostro comportamento online. Non si tratta di una proposta che interviene sui contenuti, sulla libertà di espressione o sulle posizioni di mercato delle piattaforme. Il punto è un altro, più profondo, e riguarda il modo in cui i sistemi digitali vengono progettati.
Il testo, promosso dai senatori Antonio Nicita e Lorenzo Basso, introduce un principio destinato a incidere in modo significativo sull’intero ecosistema digitale: le piattaforme sono responsabili dell’architettura con cui distribuiscono i contenuti. Non è un dettaglio tecnico, ma una scelta aziendale che produce effetti concreti sulla salute, sull’informazione e sulla formazione dell’opinione pubblica.
Dal contenuto all’architettura
Per anni il dibattito sulla regolazione dei social si è concentrato su ciò che viene pubblicato: fake news, hate speech, disinformazione. Questo disegno di legge sposta il focus su ciò che avviene prima ancora che un contenuto venga visto, cioè sulle regole che determinano cosa viene mostrato, in quale ordine e con quale frequenza.
Ogni volta che apriamo un social network, un sistema di raccomandazione decide cosa vedremo, selezionando e ordinando i contenuti in funzione di un obiettivo preciso: massimizzare il tempo di permanenza e il livello di coinvolgimento. Non è un processo casuale, ma il risultato di una progettazione intenzionale.
In questo senso, l’algoritmo smette di essere percepito come un meccanismo neutrale e diventa un elemento attivo nella costruzione dell’esperienza digitale.
Le tre pratiche sotto osservazione
Il disegno di legge individua tre categorie di pratiche algoritmiche considerate problematiche.
La prima è la dipendenza algoritmica, che riguarda tutti quei meccanismi progettati per trattenere l’utente il più a lungo possibile all’interno della piattaforma. Lo scroll infinito, l’autoplay dei contenuti, le notifiche intermittenti e le logiche di gamification sono esempi evidenti di una progettazione orientata a stimolare continuamente il sistema di ricompensa, riducendo la capacità di interrompere l’utilizzo.
La seconda è l’influenza algoritmica, che si manifesta attraverso la profilazione comportamentale e i sistemi di raccomandazione. In questo caso il problema non è solo ciò che viene mostrato, ma il fatto che le preferenze dell’utente vengano progressivamente costruite e modificate senza una consapevolezza reale e senza una richiesta esplicita.
La terza è la manipolazione algoritmica selettiva, cioè la possibilità per la piattaforma di amplificare o ridurre la visibilità di determinati contenuti o account. Si tratta della dimensione più delicata, perché tocca direttamente il rapporto tra piattaforme digitali e dinamiche democratiche.
Il passaggio più rilevante: la responsabilità
Uno degli elementi più innovativi riguarda il piano giuridico. Il disegno di legge introduce un cambiamento sostanziale nel modo in cui viene gestita la responsabilità delle piattaforme.
Oggi, chi ritiene di aver subito un danno deve dimostrare che la piattaforma ha agito in modo scorretto. La proposta ribalta questa logica, prevedendo che sia la piattaforma a dover dimostrare di aver adottato tutte le misure necessarie per evitare il danno.
Questo passaggio ha implicazioni dirette sul modo in cui vengono progettati prodotti e interfacce digitali. Il design non è più soltanto una leva competitiva, ma diventa un elemento potenzialmente esposto a responsabilità legale.
Il diritto a non essere profilati
Un altro punto centrale è l’introduzione di un principio che, se applicato, modificherebbe in modo significativo il funzionamento delle piattaforme: la profilazione non può essere attiva per impostazione predefinita.
L’utente deve poter accedere a un servizio senza profilazione, in modo gratuito, e scegliere eventualmente in modo esplicito se attivarla. Si passa quindi da un modello implicito, basato sull’opt-out, a un modello esplicito, basato sull’opt-in.
Questa scelta interviene direttamente sul cuore del modello di business delle piattaforme, che si basa sulla raccolta e sull’elaborazione dei dati comportamentali.
Minori, interfacce e sistemi operativi
Il disegno di legge introduce inoltre tutele rafforzate per i minori, prevedendo sistemi di verifica dell’età a livello di sistema operativo, anziché applicazione per applicazione. L’obiettivo è costruire un accesso regolato all’ambiente digitale fin dalla base tecnologica, riducendo l’esposizione a dinamiche progettate per catturare l’attenzione.
La proposta si estende anche ai sistemi di intelligenza artificiale conversazionale, con limiti alla simulazione affettiva e ad altri elementi progettati per creare un coinvolgimento emotivo artificiale.
Una questione che riguarda anche il marketing
Al di là del piano normativo, questa proposta solleva una questione più ampia che riguarda direttamente chi lavora nel digitale.
Se il design delle interfacce e dei sistemi di raccomandazione viene considerato responsabile degli effetti prodotti sugli utenti, allora diventa necessario interrogarsi su dove si colloca il confine tra persuasione e manipolazione.
Molte delle tecniche utilizzate oggi nel marketing digitale, nella progettazione dei funnel e nell’ottimizzazione dell’engagement si basano sugli stessi principi che il legislatore sta iniziando a mettere in discussione. Il punto non è stabilire se queste pratiche siano legittime in senso assoluto, ma comprendere in quale contesto normativo e culturale si troveranno a operare nei prossimi anni.
Un cambio di paradigma
Il disegno di legge non è ancora stato approvato e dovrà affrontare l’intero iter parlamentare, ma introduce un orientamento chiaro. La tecnologia non viene messa in discussione in quanto tale, ma viene chiamata a confrontarsi con le conseguenze delle proprie scelte progettuali.
La questione non riguarda più soltanto cosa viene pubblicato online, ma come vengono costruiti gli ambienti digitali in cui le persone trascorrono una parte sempre più significativa del proprio tempo.
In questo scenario, l’algoritmo non è più un elemento invisibile dell’infrastruttura tecnologica. Diventa una componente centrale del dibattito pubblico, giuridico e, inevitabilmente, anche strategico.