Nella puntata di novembre 2024 ho affrontato questa domanda in modo diretto, partendo dal paragone con le sigarette che una telespettatrice ha proposto. È un paragone che torna sempre più spesso nel dibattito pubblico, e non a caso: l'industria del tabacco è stata costretta per decenni a difendersi dall'accusa di aver progettato consapevolmente un prodotto per creare dipendenza. Oggi quella stessa accusa si sta spostando verso le piattaforme social. La domanda giuridica è: ma il paragone regge in tribunale?

Cosa è successo dopo quella puntata

Quello di cui parlavo come scenario futuro è diventato realtà in Italia nell'ottobre 2025. Il Moige (Movimento Italiano Genitori), insieme ad Associazione Italiana Genitori, Anfn e Forum delle Associazioni Familiari, ha presentato al Tribunale delle Imprese di Milano la prima class action inibitoria italiana contro Meta (Facebook e Instagram) e TikTok. Il ricorso, depositato a luglio 2025 con il numero 29994/2025, ha avuto la prima udienza fissata per il 12 febbraio 2026 — poi rinviata al 14 maggio per problemi tecnici nelle notifiche all'estero. Quello che chiedono è preciso: divieto totale di accesso per i minori di 14 anni con verifica dell'età robusta, eliminazione dei meccanismi di "tecnologia persuasiva" (scroll infinito, algoritmi manipolativi), e informazione obbligatoria sui rischi.

Non sono cause risarcitorie — almeno non ancora. Si tratta di azioni inibitorie, cioè si chiede al tribunale di ordinare alle piattaforme di smettere di fare determinate cose, non di pagare danni. La fase risarcitoria è annunciata come passo successivo.

«La domanda non è se si potrà fare causa ai social. La domanda è: di chi è la responsabilità che il ragazzo sia dipendente?»

Quando la piattaforma diventa responsabile

In puntata ho spiegato che la responsabilità della piattaforma non è automatica. Il quadro giuridico europeo — Digital Services Act, Digital Markets Act, AI Act — riconosce l'esistenza di pratiche algoritmiche manipolative, ma la responsabilità della piattaforma scatta in condizioni specifiche. Per i contenuti dannosi (istigazione al suicidio, immagini esplicite di minori, sextortion), la piattaforma risponde solo se, avuta contezza del contenuto e trascorso il tempo materiale per rimuoverlo, non ha agito. Il semplice fatto che il contenuto esista non basta.

Per la dipendenza da algoritmo, il ragionamento è più sottile. Se venisse dimostrato — e questa è la tesi centrale della class action italiana — che le piattaforme hanno consapevolmente progettato meccanismi (notifiche, scroll infinito, sistema di raccomandazione) con lo scopo di massimizzare il tempo di permanenza anche a danno della salute degli utenti minorenni, allora ci sarebbe una responsabilità diversa: non per il contenuto, ma per il design del prodotto. È la stessa logica con cui si è fatto causa all'industria del tabacco per aver omesso informazioni sui rischi della nicotina.

Le prove scientifiche esistono, ma vanno lette bene

In puntata ho avvertito: non tutti gli studi che circolano meritano lo stesso credito. Ci sono ricerche fatte su campioni ridicolmente piccoli, oppure che confondono correlazione con causalità. Un esempio classico: i paesi che consumano più cioccolato hanno più premi Nobel. Non è il cioccolato a fare i Nobel, sono le condizioni socioeconomiche che permettono entrambe le cose. Allo stesso modo, dire che i ragazzi sono più isolati e che usano più il cellulare non dimostra che il cellulare causi l'isolamento. Ci sono concause, ci sono variabili sociali, economiche, familiari.

Detto questo, esistono studi seri. Lo studio pubblicato su JAMA Pediatrics nel giugno 2025 (Maza et al.) ha documentato associazioni tra comportamenti compulsivi di controllo dei social e modifiche nel sviluppo cerebrale degli adolescenti. La Commissione Europea nel 2024 ha pubblicato dati sul peggioramento della salute mentale degli studenti europei correlato all'uso inadeguato dei social. Questi non sono studi su cinque bambini: sono ricerche metodologicamente fondate, che la class action italiana ha incluso tra i documenti a supporto.

La responsabilità genitoriale non sparisce comunque

C'è un punto che tengo a ribadire, e che ho sostenuto anche in puntata: la responsabilità della piattaforma, dove esiste, è una responsabilità giuridica residuale — scatta quando la piattaforma ha ignorato qualcosa che poteva rimuovere. Non è, e non può essere, un sostituto della responsabilità educativa del genitore. In diritto italiano esiste il concetto di responsabilità in educando: risponde chi ha — o non ha — educato il minore a distinguere ciò che è lecito da ciò che non lo è. Quella responsabilità non si trasferisce in tribunale, non si delega a un algoritmo, non si appalta a una piattaforma. Il genitore che pensa di essere sollevato dal problema perché Instagram ha i Teen Account, o perché il Moige ha fatto causa a Meta, si sta raccontando una storia comoda ma falsa.

La class action italiana è giuridicamente interessante — usa strumenti legali nuovi, porta in tribunale argomenti che meritano di essere testati. Ma anche qui vale la stessa obiezione di fondo: vincere una causa contro Meta non renderà nessun ragazzo più capace di usare uno smartphone in modo consapevole. I tribunali possono ordinare la rimozione di funzionalità addictive. Non possono ordinare alla famiglia di parlare con i propri figli. E quella conversazione, scomoda e necessaria, rimane l'unica risposta che funziona davvero.