Vietare non significa proteggere
Con la nota ministeriale n. 5274 dell’11 luglio 2024, il Ministro dell’Istruzione e del Merito Valditara ha introdotto il “divieto all’uso degli smartphone per lo svolgimento delle attività educative e didattiche”, poi esteso al secondo ciclo di istruzione con la circolare n. 3392 del 16 giugno 2025.
Provvedimenti simili sono stati discussi e adottati in altri paesi europei, mentre diventa sempre più concreta anche l’ipotesi di un divieto all’uso dei social media da parte dei minori di 16 anni, sulla scia del social media ban introdotto dal governo australiano il 10 dicembre 2025.
A fine gennaio, infatti, l’Assemblea Nazionale del Parlamento francese ha approvato un disegno di legge che vieta l’accesso ai social media ai minori di 15 anni, e un disegno di legge bipartisan è attualmente al vaglio del Parlamento italiano.
I divieti sono l’espressione di una preoccupazione crescente, e legittima, per il benessere di bambini e adolescenti che crescono in un mondo digitale progettato per monetizzare amicizie, consumi culturali, insicurezze e ansia, momenti di svago e pratiche di apprendimento (Mascheroni, 2025).
In questo contesto, i divieti sembrano fornire lo strumento politico adeguato a garantire la sicurezza di bambini e adolescenti nel mondo digitale.
Fornire una risposta concreta a un bisogno reale: piacciono ai genitori, a cui il divieto di accesso fornisce un supporto concreto per ritardare l’ingresso dei figli nei social media, come dimostrato dalle consultazioni del governo australiano con le parti sociali.
Piacciono ai politici, perché sono una misura popolare e a basso costo e piacciono alle piattaforme, sollevate dalla responsabilità di adottare i principi del Child Rights by design o, quanto meno della safety e privacy by design – vale a dire dalla necessità di adeguarsi a normative, come il Digital Services Act (DSA), che impongono maggiore sicurezza, protezione della privacy e contenuti e servizi appropriati all’età.
La ricerca, però, suggerisce che i divieti assoluti possono peggiorare anziché risolvere la situazione, ostacolando il principio dell’interesse superiore di bambini e adolescenti nell’era digitale, così come riconosciuto dal Commento Generale 25 della Convenzione sui Diritti dell’Infanzia della Nazioni Unite.
I limiti dei divieti
Mentre alcuni politici e gruppi di advocacy propongono i divieti come unica soluzione, queste misure sono inefficaci perché non affrontano le cause dei rischi online alla radice, e creano conseguenze negative indesiderate.
Le domande chiave per definire l’oggetto delle politiche dovrebbero essere: a chi vietare l’accesso? Cosa vietare: social media o smartphone in toto? Quale lo scopo del divieto? Come implementare i divieti?
Proviamo a rispondere.
Bambini e adolescenti non sono tutti uguali: si differenziano per età, bisogni, competenze, risorse e contesti di vita.
Non è facile identificare l’età in cui sono “pronti” per il mondo online, come testimoniato dal fatto che il divieto di accesso implementato in Australia e il disegno di legge francese indicano limiti di età diversi.
Inoltre, gli adolescenti consultati dal governo australiano hanno sollevato preoccupazioni sulla capacità dei sedicenni di abitare positivamente gli ambienti digitali, senza politiche di alfabetizzazione digitale a loro rivolte, da un lato, e forme di regolamentazione che limitino i contenuti tossici e dannosi dalle piattaforme.
Il social media ban australiano vieta le seguenti piattaforme: Facebook, Instagram, X (Twitter), TikTok, YouTube, Kick, Reddit, Snapchat, Threads, Twitch.
Non avranno invece nessuna restrizione WhatsApp, YouTube Kids, Google Classroom, Roblox, Discord, LEGO Play, Messenger, GitHub, Pinterest, Steam.
I contenuti digitali sono per natura spreadable, facilmente condivisibili su più piattaforme (per esempio, video di YouTube condivisi su WhatsApp e accessibili anche senza accesso alla piattaforma).
Alcune delle piattaforme consentite, come Roblox e Discord, sono in realtà ambienti dove bambini e adolescenti sono esposti a contenuti inappropriati, spesso traumatici; interazioni rischiose con adulti; dark patterns, ovvero modelli di progettazione ingannevole per prolungare la permanenza sulla piattaforma, massimizzando così l’estrazione e la monetizzazione di dati.
Il rischio che i divieti spingano i minori di 16 anni verso piattaforme e ambienti fringe, non regolamentati e ancora più privi di tutele, è quindi reale.
Il divieto degli smartphone a scuola viene spesso adottato come soluzione a disattenzione, cyberbullismo o difficoltà di salute mentale.
Tuttavia, la realtà è più complessa, come dimostrano alcune ricerche: uno studio di 1227 studenti di 13-15 anni in 30 scuole inglesi non ha rilevato differenze sul piano della salute mentale, del rendimento scolastico o del benessere tra studenti di scuole con divieti rigorosi e quelli di scuole senza divieti.
Sebbene le restrizioni riducano l’uso del telefono durante l’orario scolastico, non sembrano ridurre in modo significativo il tempo complessivo giornaliero trascorso davanti agli schermi.
Il divieto all’uso di smartphone a scuola viene spesso motivato in riferimento a uno studio dell’OCSE del 2024.
Eppure, l’analisi dei dati PISA rivela che, anche controllando genere e status socioeconomico, il divieto di utilizzare i telefoni cellulari ha un impatto negativo, debole ma statisticamente significativo sui punteggi ottenuti in matematica, lettura e scienze.
Occorre, quindi, più ricerca longitudinale, che esamini l’impatto incrociato di diverse variabili.
Le decisioni politiche devono basarsi su evidenze scientifiche, non su media panics o prese di posizione politiche.
Sebbene le preoccupazioni su social media, salute mentale e benessere siano legittime, non esiste un consenso scientifico sul fatto che i social media causino disturbi della salute mentale.
Le meta-analisi rivelano incongruenze: alcuni studi hanno rilevato benefici dell’uso dei social media, altri hanno evidenziato i rischi e molti non hanno mostrato effetti significativi.
Molti studi che vengono citati per dimostrare la pericolosità dei social media per il benessere degli adolescenti non sono longitudinali – non possono quindi dimostrare relazioni di causa-effetto – o si basano su esperimenti condotti su giovani-adulti.
Inoltre, le condizioni sperimentali non possono essere estese ai contesti naturali, e i giovani adulti sono molto diversi dagli adolescenti.
Come implementare i divieti è altrettanto problematico.
E non solo perché alcune piattaforme sono accessibili anche senza autenticazione – per esempio il Center for Countering Digital Hate ha documentato la presenza di contenuti che incitano all’anoressia e alla bulimia, e odio di genere su YouTube diretti proprio agli utenti più giovani.
Ma anche perché i meccanismi di verifica dell’età rischiano di essere approssimativi (e quindi di escludere anche chi ha già compiuto 16 anni) o, all’opposto di violare la privacy degli utenti raccogliendo ulteriori dati biometrici.
Inoltre, le piattaforme sono già in grado di identificare gli utenti under age, ma li usano per adeguare i contenuti a cui sono esposti, anziché proteggerli: uno studio recente ha dimostrato empiricamente che gli utenti che si comportano come bambini di 8 anni ricevono contenuti o pubblicità rivolte ai bambini quasi sette volte di più rispetto ai loro coetanei di 16 anni.
Adolescenti classificati dagli algoritmi come in difficoltà hanno ricevuto oltre il 30% in più di contenuti problematici e oltre il 70% in più di contenuti angoscianti rispetto ai loro coetanei che non presentavano difficoltà.
Inclusione digitale
Fatte queste premesse, è vero che alcuni adolescenti – soprattutto quelli già vulnerabili a problemi di salute mentale – possono subire effetti negativi in conseguenza a un uso eccessivo dei social media o dei giochi.
Mentre i bambini più piccoli o i gruppi vulnerabili hanno bisogno di protezioni personalizzate; le restrizioni generalizzate e univoche rischiano di minare l’autonomia e l’agency di bambini e adolescenti.
Bambini e adolescenti chiedono di essere inclusi, non banditi dal mondo digitale: vogliono essere educati e protetti nell’ambiente digitale, in modo da potersi impegnare ed esprimere in sicurezza.
Piuttosto che ricorrere a divieti o sperare in soluzioni univoche, esperti come i ricercatori della rete EU Kids Online invitano i politici a investire nello sviluppo e nell’applicazione di quadri normativi forti, che richiedano alle piattaforme digitali di mantenere elevati standard di sicurezza (safety by design, privacy by design, age-appropriate design).
L’azione normativa deve essere accompagnata da solidi interventi educativi, che comprendano programmi di alfabetizzazione digitale rivolti a bambini, genitori, educatori e altri professionisti che lavorano per promuovere il benessere dei bambini; linee guida per i decisori politici su come progettare interventi e iniziative politiche efficaci e basate sui dati; implementazione di standard di sicurezza, per garantire che le piattaforme soddisfino i requisiti di progettazione a misura di bambino.
