Da qualche anno si moltiplicano le proposte di legge che vietano i social ai minori sotto una certa età, i regolamenti scolastici che proibiscono il cellulare in classe, le campagne che invitano i genitori a ritirare lo smartphone ai figli. L'impulso è comprensibile. Il problema è che non funziona, almeno non nel modo in cui pensiamo, e la ricerca scientifica su questo punto è abbastanza chiara.
Come ho analizzato guardando da vicino il divieto del cellulare nelle scuole italiane, la questione non è mai solo normativa: tra la regola e la sua applicazione esiste sempre uno spazio, e in quello spazio i ragazzi sono sostanzialmente soli. Vietare senza spiegare è come mettere un cartello "pericolo" davanti a una strada senza indicare dove porta il pericolo e come aggirarlo. L'adolescente non impara a stare al sicuro, impara a nascondersi meglio.
Per affrontare il problema in modo utile, bisogna partire da un punto che spesso viene saltato: capire concretamente come funziona un sistema di raccomandazione. Non a livello metaforico. Proprio nei meccanismi.
Come funziona davvero un algoritmo di raccomandazione
Ogni volta che apri Instagram, TikTok o YouTube, un sistema automatizzato sta decidendo cosa mostrarti. Non lo fa in modo casuale e non lo fa per farti un favore. Lo fa perché vuole massimizzare una cosa sola: il tempo che passi sulla piattaforma. Questo è il suo unico obiettivo dichiarato, ed è anche il modo in cui la piattaforma guadagna.
Il sistema funziona raccogliendo segnali di comportamento. Quanto tempo sei rimasto su un video prima di scorrere via, cosa hai messo mi piace, cosa hai condiviso, cosa hai guardato due volte di fila, su quali argomenti ti sei fermato anche solo tre secondi in più. Questi dati vengono aggregati in un profilo e usati per calcolare un punteggio di rilevanza per ogni contenuto disponibile. Il contenuto con il punteggio più alto per te, in quel momento, è quello che ti viene mostrato per primo.
Il punto critico è questo: il sistema si auto-rinforza. Se guardi cinque video di un certo argomento, l'algoritmo conclude che quell'argomento ti interessa e te ne mostra altri dieci. Se quei dieci ti tengono connesso più a lungo di altri contenuti, l'algoritmo impara che su quell'argomento specifico sei particolarmente reattivo. E così via, in un ciclo che tende progressivamente a restringere e radicalizzare il tipo di contenuti che ti vengono proposti.
L'algoritmo non sa cos'è bene o male per te. Sa solo che certi contenuti ti tengono connesso più a lungo degli altri, e quelli ti propone.
Lo scroll infinito non è una svista: è una scelta di progetto
Quello che ho appena descritto è quello che i ricercatori chiamano engagement-driven design: un approccio alla progettazione delle interfacce digitali che ottimizza ogni elemento per massimizzare il coinvolgimento. Lo scroll infinito, la riproduzione automatica del video successivo, le notifiche push calibrate sugli orari in cui sei più vulnerabile alla distrazione, i sistemi di like che producono piccole scariche di dopamina ad ogni interazione. Non sono effetti collaterali accidentali. Sono componenti deliberate di un sistema progettato da ingegneri molto capaci.
Questo è esattamente quello su cui si concentrano oggi i tribunali americani nei procedimenti contro le grandi piattaforme. Come ho discusso analizzando le class action per dipendenza da social, la questione legale non riguarda i singoli contenuti pubblicati dagli utenti, ma l'architettura del sistema che li distribuisce. È una distinzione importante, perché sposta la responsabilità dal contenuto al design. E il design è una scelta, non una legge di natura.
A mio avviso, capire questo cambia completamente la prospettiva. Il problema non è mai il contenuto in sé, e la risposta non è mai la censura: quella via chiude conversazioni, non le migliora. Il problema è il design del sistema che distribuisce i contenuti, e la soluzione richiede qualcosa di diverso: o modificare le scelte progettuali più manipolative, o dotare gli utenti degli strumenti per riconoscere come quelle scelte li stanno influenzando. Preferibilmente entrambe le cose insieme.
Vietare non costruisce autonomia: cosa dice la ricerca
Qui la letteratura scientifica offre indicazioni abbastanza solide. Gli studi sulla cosiddetta mediazione parentale distinguono due approcci fondamentali: la mediazione restrittiva, che prevede limiti di tempo e divieti di accesso, e la mediazione attiva, che si basa sul dialogo, sulla spiegazione del funzionamento degli strumenti e sulla costruzione progressiva del senso critico.
I risultati sono abbastanza consistenti. La mediazione restrittiva produce effetti positivi nel breve periodo, riducendo il tempo trascorso online. Ma uno studio pubblicato su Scientific Reports che ha coinvolto quasi seimila adolescenti ha trovato che la mediazione attiva riduce significativamente la predisposizione alla dipendenza da smartphone, mentre quella esclusivamente restrittiva tende addirittura a incrementarla nel lungo periodo. Il meccanismo è intuitivo: chi impara a gestire qualcosa non smette di usarla bene quando il controllo esterno viene meno. Chi impara solo a non usarla di fatto non ha imparato niente.
Tra i dati più interessanti c'è quello relativo all'età. Una ricerca longitudinale ha rilevato che le regole restrittive hanno un effetto preventivo rilevabile nella preadolescenza, ma tendono a diventare controproducenti intorno ai sedici anni. A quella età, il modo in cui i genitori gestiscono i social del figlio è già ampiamente bypassabile, e spesso viene bypassato. Se nel frattempo non si è costruita nessuna competenza critica, il ragazzo si ritrova con accesso completo e zero strumenti per usarlo bene. Questo è esattamente il problema che vediamo in molti contesti, inclusa la difficile questione della responsabilità genitoriale legata ai dispositivi digitali.
Cosa cambia quando conosci il meccanismo
Sapere come funziona un sistema di raccomandazione non è un esercizio teorico. Ha conseguenze pratiche molto concrete. Se sai che l'algoritmo di TikTok usa il tempo di visualizzazione come segnale primario, puoi scegliere di scorrere via velocemente un contenuto anche se lo trovi minimamente interessante, sapendo che quel gesto sta ridefinendo il tuo profilo in modo attivo. Se sai che le notifiche sono calibrate per attivarti negli orari di maggiore vulnerabilità, puoi disattivarle in quelle finestre temporali senza sentire di perderti qualcosa. Se sai che il feed "per te" non è una selezione neutra ma un tentativo di tenerti connesso il più a lungo possibile, puoi trattarlo come tale invece di prenderlo per un riflesso accurato di quello che ti interessa davvero.
Questo tipo di consapevolezza ha anche un'altra funzione, secondo me ancora più importante: permette di spiegare queste cose a tuo figlio in termini concreti invece che moralistici. Dire "i social fanno male" produce resistenza. Spiegare "questo sistema è progettato per farti restare connesso il più possibile, ecco come funziona e come puoi accorgertene" apre una conversazione. Le piattaforme come Instagram si sono già mosse in questa direzione, con strumenti come i Teen Account che limitano alcune funzionalità per i minori. Ma affidarsi solo a soluzioni top-down non risolve il problema alla radice: serve anche che le persone capiscano cosa stanno usando.
Ritengo che qui si trovino le due metà dello stesso problema. Da un lato, la pressione normativa e giuridica sulle piattaforme per modificare le scelte di design più manipolative è legittima, necessaria e dovrebbe continuare. Dall'altro, aspettare che le aziende si auto-riformino o che le leggi risolvano tutto sarebbe ingenuo. Il tempo che passa tra una sentenza americana e un cambiamento strutturale nelle interfacce di miliardi di utenti è molto lungo, e nel frattempo le persone continuano ad usare quegli strumenti ogni giorno.
La soluzione più robusta, a mio avviso, è quella che unisce entrambe le cose: una regolazione mirata sulle scelte di design più chiaramente manipolative da un lato, e alfabetizzazione algoritmica dall'altro. Sulla regolazione, la parola chiave è proporzionalità: intervenire sui meccanismi che producono dipendenza senza soffocare la capacità delle piattaforme di innovare e sperimentare. Un sistema che vieta lo scroll infinito ma lascia spazio a feed curati in modo diverso è molto più utile di una norma generica che blocca tutto e finisce per consolidare i player esistenti invece di aprire il mercato ai nuovi. Capire come funziona l'algoritmo che ti propone contenuti non è più una competenza specialistica da informatici. È, a tutti gli effetti, il nuovo saper leggere.