.webp)
Interdiction des réseaux sociaux aux moins de 15 ans : la mesure votée à l'Assemblée nationale le 26 janvier 2026 (130 voix contre 21) est présentée comme une réponse sanitaire aux risques numériques. En réalité, elle est l'avatar d'un réflexe politique inquiétant : communiquer par l'interdit, au prix de libertés essentielles et d'un glissement de l'autorité parentale vers l'État. L'expérience étrangère montre déjà ses limites techniques (contournements massifs, failles prévisibles) et ses effets paradoxaux (plus d'opacité, moins d'éducation). Plus problématique encore, cette loi installe les premières briques d'une infrastructure de vérification d'âge étendue, pièces d'identité, biométrie, reconnaissance faciale, qui expose des données sensibles et normalise l'identification en ligne. À l'arrivée, la protection promise est illusoire, la surveillance bien réelle, et la place des parents s'efface derrière un appareil de contrôle déconnecté du terrain. Il existe pourtant des solutions efficaces et respectueuses des libertés : éducation numérique solide, régulation des plateformes à la source, et consentement parental progressif. C'est ce chemin qu'il faut assumer si l'on veut protéger sans infantiliser, responsabiliser sans fliquer. Nos enfants ne sont pas la propriété de l'État, et ne doivent pas le devenir par la porte dérobée de la "bienveillance" sécuritaire.
Pour aller droit au but, gardez ceci en tête :
La France n'innove pas seule : la tentation de l'interdiction gagne plusieurs démocraties. L'Australie a ouvert la voie fin 2025 (moins de 16 ans), d'autres pays testent déjà des verrous d'âge ambitieux. Pourquoi cet alignement soudain sur la prohibition plutôt que sur l'éducation numérique et la régulation des plateformes à la source ? Parce que c'est plus simple à raconter. Interdire coche la case du geste "fort" sans traiter les causes structurelles : design addictif, publicité comportementale, amplification algorithmique. C'est aussi une manière confortable d'externaliser la responsabilité hors du politique, vers les plateformes ou… les familles.
Le cadre européen offrait pourtant des outils opérationnels. Avec le Digital Services Act (DSA) et ses obligations de "Safety by Design", l'UE impose déjà aux plateformes d'évaluer leurs risques systémiques pour les mineurs et de les réduire en amont, comme le montre une analyse publiée par le Comité européen de la protection des données. La France, elle, avait voté dès 2023 une majorité numérique à 15 ans avec consentement parental, jamais appliquée, faute d'alignement juridique européen. Plutôt que de corriger la trajectoire, le gouvernement choisit aujourd'hui l'interdiction sèche, au mépris des leçons tirées. En filigrane se rejoue un débat européen plus large sur la surveillance numérique, dont témoigne le refus allemand du Chat Control.
Une interdiction absolue évince les parents de la décision, quelle que soit la maturité de leur enfant ou le contexte familial. L'esprit de la loi de 2023 (jamais appliquée) allait dans l'autre sens : responsabiliser les parents via un consentement explicite, modulable selon l'enfant et l'accompagnement. Cette nuance, essentielle, disparaît. Le message implicite devient : "L'État sait mieux que vous ce qui convient à votre enfant." Dans les faits, on substitue une règle uniforme à l'éducation progressive.
Or, l'expérience éducative montre qu'on obtient de meilleurs résultats lorsqu'on explique les règles, qu'on apprend à les négocier et à les intégrer. Les adolescents respectent davantage un cadre compris qu'un interdit arbitraire. Entre 12 et 15 ans, ils gagnent justement en capacités de compréhension des risques, c'est le moment d'outiller, pas d'exclure. L'interdiction en bloc fabrique une illusion de protection, mais elle sape la construction de l'autonomie et réduit le rôle des parents à celui d'exécutants d'une police des âges.
La famille doit rester le lieu privilégié d'un apprentissage graduel de la responsabilité numérique. Superviser, instaurer des règles claires, faire des erreurs et en discuter : voilà ce qui ancre durablement des comportements prudents. Une loi qui dépossède les parents de cette mission rate l'essentiel.
Vérifier l'âge de tous les utilisateurs, c'est organiser la collecte de données parmi les plus sensibles : photos faciales, pièces d'identité, métadonnées. Même derrière des promesses techniques ("tiers de confiance", "double anonymat"), le risque reste le même. Multiplier les points de vulnérabilité, centraliser des trésors de données convoités, exposer des millions de citoyens aux fuites et aux détournements. La logique est bancale : pour "protéger" la vie privée des mineurs, on leur impose de livrer leur identité et leurs traits biométriques. Et tant pis si, à chaque maillon de la chaîne, des prestataires privés voient leur surface d'attaque exploser.
Cette normalisation d'une identification à l'entrée menace au-delà des réseaux sociaux. Une fois cette infrastructure en place, quoi de plus simple que d'étendre le contrôle d'âge (ou d'identité) à d'autres services en ligne, forums, médias, messageries chiffrées ? C'est l'effet cliquet. Il suffira d'une crise, d'un fait divers, d'un nouveau "risque" à enrayer pour pousser le curseur un cran plus loin. Le Chat Control de l'UE pour 2025 en donnait les clés : la meilleure intention du monde peut accoucher d'un dispositif aux effets liberticides durables.
Le test grandeur nature existe déjà. Contournements massifs via VPN, usurpations d'identité par un proche majeur, reconnaissance faciale trompée par des astuces triviales, comptes secondaires non détectés. La mécanique était prévisible, tant les mineurs disposent d'outils et de pairs pour déjouer des contrôles conçus pour un monde "propre". À l'aveu même de responsables publics, on sait pertinemment que les VPN (non-corporate) ne disparaîtront pas (d'ailleurs peut être bientôt interdit... Nous y consacrerons un article prochainement sur Reb'Lüm 😉). Alors, à quoi bon une loi qui ne touchera ni les plus débrouillards ni les plus exposés, mais pénalisera l'expérience encadrée des autres ?
Pire, cette interdiction promet un Internet de l'ombre pour les mineurs. En contournant, ils migrent vers des espaces moins modérés, moins visibles, moins régulés. On troque un accès accompagné à des plateformes connues (avec des outils de signalement et des paramètres familiaux perfectibles) contre des recoins opaques où l'adolescent se retrouve seul. La réalité, déjà observée ailleurs, est crue : on ne supprime pas leur socialité numérique, on la déplace.
À chaque verrou, une clé apparaît. En tentant d'interdire l'accès via VPN, certains pays ont surtout dopé l'intérêt des jeunes pour ces outils. Résultat : les inscriptions explosent, et les usages se sophistiquent. L'État durcit ? Les techniques se diffusent et s'améliorent. Le résultat n'est pas une réduction des risques, mais une élévation des compétences de contournement et une culture de la clandestinité. C'est l'effet Streisand appliqué au numérique : bannir rend plus désirable, et l'on passe d'une présence encadrée à une présence dissimulée. Est-ce vraiment la trajectoire souhaitée pour des collégiens et des lycéens ?
Il y a aussi un coût éducatif évident. En misant tout sur l'empêchement, on perd l'occasion d'apprendre à discerner (contenus, interactions, publicité, émotions), d'exercer le jugement, de paramétrer ses outils, de demander de l'aide. Bref, de devenir autonome. L'interdiction ne protège pas de la curiosité propre à l'adolescence, elle l'envoie ailleurs.
Le cœur technique du dispositif est lui-même fragile. Distinguer de manière fiable un visage de 14 ans d'un visage de 16 ans reste un problème difficile pour l'IA, surtout à grande échelle et avec un seuil légal aussi précis. Les marges d'erreur, les biais et les faux positifs/négatifs sont d'autant plus critiques qu'ils touchent des mineurs. Les méthodes adossées à des documents d'identité posent, elles, des questions de sécurité et d'acceptabilité : qui stocke ? combien de temps ? selon quelles garanties ? avec quels audits indépendants ? Et que se passe-t-il en cas de fuite ?
Même les solutions "assurées" de supprimer les données après vérification exigent un acte de foi. Or, quand la cible est sensible et la surface d'attaque immense, l'optimisme ne suffit pas à faire une politique publique responsable. Il ne s'agit pas de refuser tout contrôle d'âge en principe, mais d'admettre que les moyens actuels ne tiennent pas la promesse d'une vérification précise, proportionnée et sûre, à l'échelle d'un pays.
Confier à la loi une interdiction uniforme, c'est envoyer un signal trompeur : "c'est réglé". Les parents les moins outillés peuvent baisser la garde, persuadés que l'État a verrouillé le problème. Mais si l'interdit est contourné, et il le sera, l'enfant se retrouve seul derrière un écran, en terrain inconnu, sans cadre ni dialogue. À l'inverse, un consentement parental progressif oblige à discuter, à paramétrer, à accompagner : il responsabilise, au sens fort, les adultes et les jeunes.
L'universalité de l'interdit crée aussi une injustice silencieuse. Les familles techniquement à l'aise trouveront des voies de contournement, les autres n'en auront ni le désir ni les moyens. Résultat : ce sont souvent les enfants les plus fragiles qui seront réellement exclus… pas nécessairement des risques, mais d'un accès encadré et d'un apprentissage utile.
La menace de sanctions lourdes contre les plateformes, voire la pénalisation indirecte des usages mineurs, ne crée pas un climat de confiance. Elle pousse au contraire à la dissimulation. Or, la première protection d'un mineur en difficulté en ligne, ce n'est pas la peur de la sanction, c'est la possibilité d'en parler avec un adulte de confiance. En transformant l'accès en délit de fait, on crée un espace où l'adolescent cache, ment, contourne. Toute l'éducation bienveillante se heurte alors à l'instinct de survie sociale de l'ado : rester "connecté", quoi qu'il en coûte.
Le droit européen encadre déjà strictement ce que les États membres peuvent imposer aux plateformes. Pour éviter la collision, le texte français a déplacé l'interdit vers les mineurs eux-mêmes. Cette gymnastique ne règle pas tout : elle soulève d'autres questions de proportionnalité, d'applicabilité et de compatibilité avec les règles communes. Le précédent de 2023, une loi quasi inapplicable, devrait inciter à l'humilité. À force de tordre la norme, on fabrique un édifice fragile qui finira contesté, amendé, voire neutralisé. Entre-temps, on aura banalisé des pratiques d'identification intrusives… et déçu les familles.
Investir dans la littératie numérique, dès le primaire, vaut mieux que parier sur des portiques. Apprendre aux enfants à reconnaître les contenus problématiques, à comprendre les algorithmes, à paramétrer la confidentialité, à repérer les signaux faibles d'une interaction toxique, à demander de l'aide : voilà une politique qui change les trajectoires. Les sociétés savantes convergent : ce n'est pas la durée d'écran seule qui compte, mais la qualité de l'engagement et l'accompagnement adulte.
Former les parents est tout aussi essentiel. Ateliers, guides pratiques, paramétrages par défaut familiaux, médiation scolaire. L'objectif n'est pas d'interdire la socialité numérique des jeunes, mais de l'outiller pour qu'elle soit plus sûre, transparente, maîtrisée.
La réduction des risques doit cibler la source : le design. Le DSA donne déjà un cadre pour imposer aux très grandes plateformes des obligations d'évaluation des risques et de "Safety by Design". Concrètement : limiter le défilement infini, réduire les notifications intrusives, brider l'amplification algorithmique de contenus extrêmes, interdire la publicité comportementale pour les mineurs, activer par défaut des paramètres protecteurs, et rendre la chronologie non algorithmique accessible facilement.
Approche de bon sens : au lieu d'expulser les mineurs de tous les réseaux, autoriser l'accès à ceux qui prouvent, audits à l'appui, l'intégration de garanties robustes. C'est plus exigeant pour les plateformes, bien plus utile pour les jeunes et nettement plus compatible avec nos libertés.
Le modèle le plus respectueux et efficace reste celui d'un consentement parental encadré et gradué. Il ne s'agit pas d'un laissez-faire, mais d'un contrat éducatif : l'accès est conditionné à des règles claires (horaires, comptes privés, contacts autorisés, rapport de temps, contenus bloqués), expliqué à l'enfant, et révisé selon sa maturité. Les outils de contrôle parental doivent être simples, interopérables, et paramétrés par défaut, avec une bascule progressive vers plus d'autonomie.
Cette voie repose sur la confiance, pas sur la surveillance. Elle responsabilise les adultes, valorise le dialogue, et ancre des réflexes durables. Bref, elle prépare à la vie numérique réelle, là où l'interdiction fabrique de la clandestinité.
Ce texte ne se contente pas de rater sa cible, il déplace le centre de gravité de la liberté vers le contrôle. Inefficace sur le terrain (contournements prévisibles, bascule vers des espaces opaques), coûteux politiquement (parents dépossédés), risqué techniquement (collectes massives de données sensibles), il installe surtout un précédent : l'identification ordinaire pour accéder à des espaces de parole et de socialité. Une fois la pratique banalisée, ses usages s'étendront.
La vertu d'un État de droit n'est pas de promettre l'impossible, mais de mettre en place des protections efficaces et proportionnées. Ici, le symbole l'emporte sur l'efficacité. Les solutions alternatives existent, éducation, régulation du design, consentement progressif, et elles respectent nos valeurs. À l'inverse, le tout-interdit nous habitue à l'idée que surveiller, identifier, filtrer seraient des moyens légitimes de gouverner le lien social. La réforme France Travail et la surveillance des chômeurs le montre : chaque "exception" de contrôle finit par devenir une règle. C'est ce basculement qu'il faut refuser.
Cette interdiction des réseaux sociaux aux moins de 15 ans est la mauvaise réponse à un vrai sujet. Mauvaise, parce qu'elle confond protection et contrôle. Mauvaise, parce qu'elle substitue un interdit uniforme à l'éducation progressive. Mauvaise, enfin, parce qu'elle installe des mécanismes d'identification qui survivront à la polémique du moment. L'expérience étrangère confirme l'inefficacité d'un bannissement sec : les usages ne disparaissent pas, ils se déplacent et s'opacifient. Au passage, les familles les plus vulnérables sont celles qui perdent l'accès à un accompagnement utile.
Nous pouvons faire mieux. Miser sur la littératie numérique, ajuster les plateformes par la régulation du design, redonner aux parents la main via un consentement progressif : ces chemins sont éprouvés, compatibles avec le droit, et respectueux des libertés. Ils supposent de la pédagogie, de la constance, des moyens, pas un coup de menton législatif.
Au-delà des réseaux sociaux, c'est le modèle de société que nous dessinons. Voulons-nous d'un Internet d'identification par défaut, où l'accès à la parole publique exige une preuve d'identité biométrique ? Ou préférons-nous une société qui outille, responsabilise, et protège sans surveiller ? Pour approfondir ces tensions entre régulation numérique et démocratie, explorez la catégorie Société & Politique. Et pour des analyses engagées sur les libertés numériques, rendez-vous dans La Reb'Lüm. Entre la facilité de l'interdiction et l'ambition de l'éducation, choisissons la seconde : nos enfants ne sont pas la propriété de l'État, ils ont besoin qu'on leur fasse confiance, et qu'on s'en montre dignes.

Cet article a été rédigé avec Lüm, notre méthode éditoriale professionnelle nouvelle génération.
➤ Lüm est accessible dès aujourd’hui.
.webp)
Interdiction des réseaux sociaux aux moins de 15 ans : la mesure votée à l'Assemblée nationale le 26 janvier 2026 (130 voix contre 21) est présentée comme une réponse sanitaire aux risques numériques. En réalité, elle est l'avatar d'un réflexe politique inquiétant : communiquer par l'interdit, au prix de libertés essentielles et d'un glissement de l'autorité parentale vers l'État. L'expérience étrangère montre déjà ses limites techniques (contournements massifs, failles prévisibles) et ses effets paradoxaux (plus d'opacité, moins d'éducation). Plus problématique encore, cette loi installe les premières briques d'une infrastructure de vérification d'âge étendue, pièces d'identité, biométrie, reconnaissance faciale, qui expose des données sensibles et normalise l'identification en ligne. À l'arrivée, la protection promise est illusoire, la surveillance bien réelle, et la place des parents s'efface derrière un appareil de contrôle déconnecté du terrain. Il existe pourtant des solutions efficaces et respectueuses des libertés : éducation numérique solide, régulation des plateformes à la source, et consentement parental progressif. C'est ce chemin qu'il faut assumer si l'on veut protéger sans infantiliser, responsabiliser sans fliquer. Nos enfants ne sont pas la propriété de l'État, et ne doivent pas le devenir par la porte dérobée de la "bienveillance" sécuritaire.
Pour aller droit au but, gardez ceci en tête :
La France n'innove pas seule : la tentation de l'interdiction gagne plusieurs démocraties. L'Australie a ouvert la voie fin 2025 (moins de 16 ans), d'autres pays testent déjà des verrous d'âge ambitieux. Pourquoi cet alignement soudain sur la prohibition plutôt que sur l'éducation numérique et la régulation des plateformes à la source ? Parce que c'est plus simple à raconter. Interdire coche la case du geste "fort" sans traiter les causes structurelles : design addictif, publicité comportementale, amplification algorithmique. C'est aussi une manière confortable d'externaliser la responsabilité hors du politique, vers les plateformes ou… les familles.
Le cadre européen offrait pourtant des outils opérationnels. Avec le Digital Services Act (DSA) et ses obligations de "Safety by Design", l'UE impose déjà aux plateformes d'évaluer leurs risques systémiques pour les mineurs et de les réduire en amont, comme le montre une analyse publiée par le Comité européen de la protection des données. La France, elle, avait voté dès 2023 une majorité numérique à 15 ans avec consentement parental, jamais appliquée, faute d'alignement juridique européen. Plutôt que de corriger la trajectoire, le gouvernement choisit aujourd'hui l'interdiction sèche, au mépris des leçons tirées. En filigrane se rejoue un débat européen plus large sur la surveillance numérique, dont témoigne le refus allemand du Chat Control.
Une interdiction absolue évince les parents de la décision, quelle que soit la maturité de leur enfant ou le contexte familial. L'esprit de la loi de 2023 (jamais appliquée) allait dans l'autre sens : responsabiliser les parents via un consentement explicite, modulable selon l'enfant et l'accompagnement. Cette nuance, essentielle, disparaît. Le message implicite devient : "L'État sait mieux que vous ce qui convient à votre enfant." Dans les faits, on substitue une règle uniforme à l'éducation progressive.
Or, l'expérience éducative montre qu'on obtient de meilleurs résultats lorsqu'on explique les règles, qu'on apprend à les négocier et à les intégrer. Les adolescents respectent davantage un cadre compris qu'un interdit arbitraire. Entre 12 et 15 ans, ils gagnent justement en capacités de compréhension des risques, c'est le moment d'outiller, pas d'exclure. L'interdiction en bloc fabrique une illusion de protection, mais elle sape la construction de l'autonomie et réduit le rôle des parents à celui d'exécutants d'une police des âges.
La famille doit rester le lieu privilégié d'un apprentissage graduel de la responsabilité numérique. Superviser, instaurer des règles claires, faire des erreurs et en discuter : voilà ce qui ancre durablement des comportements prudents. Une loi qui dépossède les parents de cette mission rate l'essentiel.
Vérifier l'âge de tous les utilisateurs, c'est organiser la collecte de données parmi les plus sensibles : photos faciales, pièces d'identité, métadonnées. Même derrière des promesses techniques ("tiers de confiance", "double anonymat"), le risque reste le même. Multiplier les points de vulnérabilité, centraliser des trésors de données convoités, exposer des millions de citoyens aux fuites et aux détournements. La logique est bancale : pour "protéger" la vie privée des mineurs, on leur impose de livrer leur identité et leurs traits biométriques. Et tant pis si, à chaque maillon de la chaîne, des prestataires privés voient leur surface d'attaque exploser.
Cette normalisation d'une identification à l'entrée menace au-delà des réseaux sociaux. Une fois cette infrastructure en place, quoi de plus simple que d'étendre le contrôle d'âge (ou d'identité) à d'autres services en ligne, forums, médias, messageries chiffrées ? C'est l'effet cliquet. Il suffira d'une crise, d'un fait divers, d'un nouveau "risque" à enrayer pour pousser le curseur un cran plus loin. Le Chat Control de l'UE pour 2025 en donnait les clés : la meilleure intention du monde peut accoucher d'un dispositif aux effets liberticides durables.
Le test grandeur nature existe déjà. Contournements massifs via VPN, usurpations d'identité par un proche majeur, reconnaissance faciale trompée par des astuces triviales, comptes secondaires non détectés. La mécanique était prévisible, tant les mineurs disposent d'outils et de pairs pour déjouer des contrôles conçus pour un monde "propre". À l'aveu même de responsables publics, on sait pertinemment que les VPN (non-corporate) ne disparaîtront pas (d'ailleurs peut être bientôt interdit... Nous y consacrerons un article prochainement sur Reb'Lüm 😉). Alors, à quoi bon une loi qui ne touchera ni les plus débrouillards ni les plus exposés, mais pénalisera l'expérience encadrée des autres ?
Pire, cette interdiction promet un Internet de l'ombre pour les mineurs. En contournant, ils migrent vers des espaces moins modérés, moins visibles, moins régulés. On troque un accès accompagné à des plateformes connues (avec des outils de signalement et des paramètres familiaux perfectibles) contre des recoins opaques où l'adolescent se retrouve seul. La réalité, déjà observée ailleurs, est crue : on ne supprime pas leur socialité numérique, on la déplace.
À chaque verrou, une clé apparaît. En tentant d'interdire l'accès via VPN, certains pays ont surtout dopé l'intérêt des jeunes pour ces outils. Résultat : les inscriptions explosent, et les usages se sophistiquent. L'État durcit ? Les techniques se diffusent et s'améliorent. Le résultat n'est pas une réduction des risques, mais une élévation des compétences de contournement et une culture de la clandestinité. C'est l'effet Streisand appliqué au numérique : bannir rend plus désirable, et l'on passe d'une présence encadrée à une présence dissimulée. Est-ce vraiment la trajectoire souhaitée pour des collégiens et des lycéens ?
Il y a aussi un coût éducatif évident. En misant tout sur l'empêchement, on perd l'occasion d'apprendre à discerner (contenus, interactions, publicité, émotions), d'exercer le jugement, de paramétrer ses outils, de demander de l'aide. Bref, de devenir autonome. L'interdiction ne protège pas de la curiosité propre à l'adolescence, elle l'envoie ailleurs.
Le cœur technique du dispositif est lui-même fragile. Distinguer de manière fiable un visage de 14 ans d'un visage de 16 ans reste un problème difficile pour l'IA, surtout à grande échelle et avec un seuil légal aussi précis. Les marges d'erreur, les biais et les faux positifs/négatifs sont d'autant plus critiques qu'ils touchent des mineurs. Les méthodes adossées à des documents d'identité posent, elles, des questions de sécurité et d'acceptabilité : qui stocke ? combien de temps ? selon quelles garanties ? avec quels audits indépendants ? Et que se passe-t-il en cas de fuite ?
Même les solutions "assurées" de supprimer les données après vérification exigent un acte de foi. Or, quand la cible est sensible et la surface d'attaque immense, l'optimisme ne suffit pas à faire une politique publique responsable. Il ne s'agit pas de refuser tout contrôle d'âge en principe, mais d'admettre que les moyens actuels ne tiennent pas la promesse d'une vérification précise, proportionnée et sûre, à l'échelle d'un pays.
Confier à la loi une interdiction uniforme, c'est envoyer un signal trompeur : "c'est réglé". Les parents les moins outillés peuvent baisser la garde, persuadés que l'État a verrouillé le problème. Mais si l'interdit est contourné, et il le sera, l'enfant se retrouve seul derrière un écran, en terrain inconnu, sans cadre ni dialogue. À l'inverse, un consentement parental progressif oblige à discuter, à paramétrer, à accompagner : il responsabilise, au sens fort, les adultes et les jeunes.
L'universalité de l'interdit crée aussi une injustice silencieuse. Les familles techniquement à l'aise trouveront des voies de contournement, les autres n'en auront ni le désir ni les moyens. Résultat : ce sont souvent les enfants les plus fragiles qui seront réellement exclus… pas nécessairement des risques, mais d'un accès encadré et d'un apprentissage utile.
La menace de sanctions lourdes contre les plateformes, voire la pénalisation indirecte des usages mineurs, ne crée pas un climat de confiance. Elle pousse au contraire à la dissimulation. Or, la première protection d'un mineur en difficulté en ligne, ce n'est pas la peur de la sanction, c'est la possibilité d'en parler avec un adulte de confiance. En transformant l'accès en délit de fait, on crée un espace où l'adolescent cache, ment, contourne. Toute l'éducation bienveillante se heurte alors à l'instinct de survie sociale de l'ado : rester "connecté", quoi qu'il en coûte.
Le droit européen encadre déjà strictement ce que les États membres peuvent imposer aux plateformes. Pour éviter la collision, le texte français a déplacé l'interdit vers les mineurs eux-mêmes. Cette gymnastique ne règle pas tout : elle soulève d'autres questions de proportionnalité, d'applicabilité et de compatibilité avec les règles communes. Le précédent de 2023, une loi quasi inapplicable, devrait inciter à l'humilité. À force de tordre la norme, on fabrique un édifice fragile qui finira contesté, amendé, voire neutralisé. Entre-temps, on aura banalisé des pratiques d'identification intrusives… et déçu les familles.
Investir dans la littératie numérique, dès le primaire, vaut mieux que parier sur des portiques. Apprendre aux enfants à reconnaître les contenus problématiques, à comprendre les algorithmes, à paramétrer la confidentialité, à repérer les signaux faibles d'une interaction toxique, à demander de l'aide : voilà une politique qui change les trajectoires. Les sociétés savantes convergent : ce n'est pas la durée d'écran seule qui compte, mais la qualité de l'engagement et l'accompagnement adulte.
Former les parents est tout aussi essentiel. Ateliers, guides pratiques, paramétrages par défaut familiaux, médiation scolaire. L'objectif n'est pas d'interdire la socialité numérique des jeunes, mais de l'outiller pour qu'elle soit plus sûre, transparente, maîtrisée.
La réduction des risques doit cibler la source : le design. Le DSA donne déjà un cadre pour imposer aux très grandes plateformes des obligations d'évaluation des risques et de "Safety by Design". Concrètement : limiter le défilement infini, réduire les notifications intrusives, brider l'amplification algorithmique de contenus extrêmes, interdire la publicité comportementale pour les mineurs, activer par défaut des paramètres protecteurs, et rendre la chronologie non algorithmique accessible facilement.
Approche de bon sens : au lieu d'expulser les mineurs de tous les réseaux, autoriser l'accès à ceux qui prouvent, audits à l'appui, l'intégration de garanties robustes. C'est plus exigeant pour les plateformes, bien plus utile pour les jeunes et nettement plus compatible avec nos libertés.
Le modèle le plus respectueux et efficace reste celui d'un consentement parental encadré et gradué. Il ne s'agit pas d'un laissez-faire, mais d'un contrat éducatif : l'accès est conditionné à des règles claires (horaires, comptes privés, contacts autorisés, rapport de temps, contenus bloqués), expliqué à l'enfant, et révisé selon sa maturité. Les outils de contrôle parental doivent être simples, interopérables, et paramétrés par défaut, avec une bascule progressive vers plus d'autonomie.
Cette voie repose sur la confiance, pas sur la surveillance. Elle responsabilise les adultes, valorise le dialogue, et ancre des réflexes durables. Bref, elle prépare à la vie numérique réelle, là où l'interdiction fabrique de la clandestinité.
Ce texte ne se contente pas de rater sa cible, il déplace le centre de gravité de la liberté vers le contrôle. Inefficace sur le terrain (contournements prévisibles, bascule vers des espaces opaques), coûteux politiquement (parents dépossédés), risqué techniquement (collectes massives de données sensibles), il installe surtout un précédent : l'identification ordinaire pour accéder à des espaces de parole et de socialité. Une fois la pratique banalisée, ses usages s'étendront.
La vertu d'un État de droit n'est pas de promettre l'impossible, mais de mettre en place des protections efficaces et proportionnées. Ici, le symbole l'emporte sur l'efficacité. Les solutions alternatives existent, éducation, régulation du design, consentement progressif, et elles respectent nos valeurs. À l'inverse, le tout-interdit nous habitue à l'idée que surveiller, identifier, filtrer seraient des moyens légitimes de gouverner le lien social. La réforme France Travail et la surveillance des chômeurs le montre : chaque "exception" de contrôle finit par devenir une règle. C'est ce basculement qu'il faut refuser.
Cette interdiction des réseaux sociaux aux moins de 15 ans est la mauvaise réponse à un vrai sujet. Mauvaise, parce qu'elle confond protection et contrôle. Mauvaise, parce qu'elle substitue un interdit uniforme à l'éducation progressive. Mauvaise, enfin, parce qu'elle installe des mécanismes d'identification qui survivront à la polémique du moment. L'expérience étrangère confirme l'inefficacité d'un bannissement sec : les usages ne disparaissent pas, ils se déplacent et s'opacifient. Au passage, les familles les plus vulnérables sont celles qui perdent l'accès à un accompagnement utile.
Nous pouvons faire mieux. Miser sur la littératie numérique, ajuster les plateformes par la régulation du design, redonner aux parents la main via un consentement progressif : ces chemins sont éprouvés, compatibles avec le droit, et respectueux des libertés. Ils supposent de la pédagogie, de la constance, des moyens, pas un coup de menton législatif.
Au-delà des réseaux sociaux, c'est le modèle de société que nous dessinons. Voulons-nous d'un Internet d'identification par défaut, où l'accès à la parole publique exige une preuve d'identité biométrique ? Ou préférons-nous une société qui outille, responsabilise, et protège sans surveiller ? Pour approfondir ces tensions entre régulation numérique et démocratie, explorez la catégorie Société & Politique. Et pour des analyses engagées sur les libertés numériques, rendez-vous dans La Reb'Lüm. Entre la facilité de l'interdiction et l'ambition de l'éducation, choisissons la seconde : nos enfants ne sont pas la propriété de l'État, ils ont besoin qu'on leur fasse confiance, et qu'on s'en montre dignes.

Cet article a été rédigé avec Lüm, notre méthode éditoriale professionnelle nouvelle génération.
➤ Lüm est accessible dès aujourd’hui.

