La vie privée, variable d’ajustement du numérique moderne
Chat Control, vérification d’âge, identité numérique, restriction des outils de confidentialité ... sous couvert de protection des mineurs, des utilisateurs et de la société, des dispositifs juridiques redéfinissent silencieusement les conditions d’accès à Internet. Ils dessinent un Internet conditionnel, où l’anonymat devient une anomalie. Cet article détaille les choix politiques à l’œuvre, leurs effets systémiques, et ce qu’il reste possible de défendre collectivement.
Quentin PAPELARD
1/27/202616 min read
“Arguing that you don’t care about the right to privacy because you have nothing to hide is like saying you don’t care about free speech because you have nothing to say.”
Edward Snowden
Introduction
Clermont-Ferrand - 2010/2012
Alors en IUT d'informatique, mon quotidien est rythmé par des événements tous plus excitants. En dehors de mes projets divers et variés comme un keylogger sous Linux me permettant d'accéder au compte Facebook d'un pote, c'est surtout l'époque de la sortie du premier Raspberry Pi, l'arrivée de Free sur le marché mobile et le ban de megaupload.
L'une des technologies qui me fascinait à l'époque était TOR. Un anonymat total, jusqu'à ce que les USA créent la majeure partie des noeuds, permettant ainsi de retrouver l'origine de la quasi totalité du trafic. TOR reste aujourd'hui une solution d'anonymat relativement robuste, à condition de ne pas froisser le mauvais gouvernement.
Bitcoin repose sur le même principe. Pas en terme d'anonymat évidemment, mais pour la question de l'incensurabilité et de la décentralisation. Seulement, obtenir la majorité de la puissance de calcul sur Bitcoin est autrement plus complexe que de créer la moitié des noeuds.
Les États ont ainsi débuté une guerre législative afin de contrôler l'incontrôlable, glissant peu à peu vers l'interdiction des portefeuilles auto-hébergés et de la détention en propre de ses actifs. Nous n'y sommes pas encore, mais ça en prend le chemin.
Et puis tout s'est accéléré. Depuis le COVID, on assiste à une série de projets de lois grignotant peu à peu notre vie privée.
Chat control, contrôle d'identité... le monde tend vers une suppression totale de l'anonymat.
Quels sont les risques et enjeux ? Des solutions pour ne pas fournir des preuves d'identité systématiques dans un monde où les vols de données sont quotidiens et les condamnations suffisamment faibles pour devenir un "risque acceptable" ?
Attachez vos ceintures : nous partons pour un voyage dans le numérique moderne.
Chat control : normalisation de la rupture de l'anonymat ?
Petit historique : le chiffrement des communication n'a pas toujours été légal.
Aux USA, les moyens de chiffrement étaient réservés à un usage militaires et strictement interdits aux civils. Cet épisode est connu sous le nom de "Crypto Wars". Nous avons connu le même épisode en France où les moyens cryptographiques ont été démocratisés le 21 juin 2004. Ces technologies sont, depuis, utilisés au quotidien de manière transparente.
20 ans plus tard, tout ceci est peu à peu remis en question.
Sous couvert de lutte contre les abus sexuels sur mineurs, l’Union européenne travaille depuis 2022 sur un texte qui marque une rupture nette avec un principe pourtant fondamental : la confidentialité des communications. Ce projet porte le doux nom de Chat Control ou CSA Regulation.
Mais alors, Chat Control c'est quoi ?
Le 11 mai 2022, la Commission européenne a présenté une proposition visant à imposer aux fournisseurs de services numériques (messageries, emails, réseaux sociaux, plateformes de partage) des obligations de détection, signalement et suppression de contenus liés aux abus sexuels sur mineurs, y compris dans les communications privées. Dans les différentes versions débattues depuis, un point subsiste : la possibilité d'imposer une détection automatisée de contenus dans des messages privés, y compris lorsqu’ils sont chiffrés de bout en bout. Le texte n’est pas encore définitivement adopté, mais il est structurellement prêt.
Mais ne vous en faites pas, la surveillance sera ciblée. En théorie. Les défenseurs du texte insistent sur un point : les ordres de détection ne seraient déclenchés qu’en cas de « risque significatif », et présentés comme un dernier recours, sous contrôle judiciaire.
Dans les faits, plusieurs éléments posent problème.
Déjà, la notion de risque significatif reste floue et largement interprétable.
Ensuite, les technologies envisagées reposent sur des analyses automatisées de masse, avec des taux de faux positifs documentés.
Et surtout, le périmètre inclut explicitement les communications chiffrées, ce qui implique mécaniquement une remise en cause de leur intégrité et de leur confidentialité.
Ces inquiétudes sont largement relayées au Parlement européen, y compris au sein de groupes politiques pourtant favorables à une action ferme contre les crimes sexuels.
Mais penchons nous un instant sur le chiffrement. Sur le plan technique, le problème est simple : il n’existe aucun moyen de scanner un message chiffré sans affaiblir le chiffrement lui-même. La solution proposée, le client-side scanning, introduit un point de contrôle directement sur le terminal de l’utilisateur.
Ce mécanisme crée une surface d’attaque supplémentaire, peut être détourné à d’autres fins (censure, surveillance politique) et rompt la promesse de confidentialité faite aux utilisateurs.
Ce n’est pas une hypothèse théorique. En octobre 2025, la présidente de Signal a publiquement indiqué que l’application pourrait quitter le marché européen plutôt que de compromettre son chiffrement de bout en bout.
Quoi qu'il en soit, le cœur du débat dépasse largement la seule question des abus sexuels car il crée un dangereux précédent juridique. Plusieurs députés, le Contrôleur européen de la protection des données (EDPS) et de nombreuses organisations pointent une incompatibilité potentielle avec :
l’article 7 de la Charte des droits fondamentaux de l’UE (respect de la vie privée),
l’article 8 (protection des données personnelles),
et la jurisprudence constante de la CJUE sur l’interdiction de la surveillance généralisée.
En pratique, Chat Control introduit le contrôle préventif de toutes les communications privées, indépendamment de tout soupçon individuel. Bienvenue dans minority report. C’est précisément ce glissement d’une enquête ciblée vers une surveillance par défaut qui fait de ce texte un jalon majeur dans l’érosion progressive de la vie privée numérique en Europe. Ce jalon a d'ailleurs été suivi de près par d'autres mesures liberticides sur fond de protection des mineurs : le contrôle d'identité imposé pour accéder aux réseaux sociaux.
Réseaux sociaux interdits aux moins de 15 ans en France : la vie privée comme dommage collatéral ?
Le 26 janvier 2026, l’Assemblée nationale française a adopté l’article central d’une proposition de loi interdisant l’accès aux réseaux sociaux aux mineurs de moins de 15 ans. L’entrée en vigueur est prévue pour la rentrée scolaire de septembre 2026, avec un déploiement complet des mécanismes de vérification d’âge attendu au plus tard le 1er janvier 2027.
Sur le papier, l’objectif est clair : protéger les adolescents des effets délétères des plateformes (addiction, exposition à des contenus nocifs, cyberharcèlement).
Dans les faits, le texte pose une question autrement plus structurante : comment interdire sans identifier ?
La France connaissait déjà le concept de majorité numérique à 15 ans, introduit en 2023, qui conditionnait l’inscription sur un réseau social à une autorisation parentale en dessous de cet âge.
Ce dispositif n’a jamais réellement été appliqué, notamment en raison de blocages juridiques au niveau européen et de l’absence de mécanismes techniques fiables.
Le texte adopté en janvier 2026 va plus loin : il ne s’agit plus d’encadrer l’accès, mais bien de l’interdire. Cette bascule sémantique est loin d’être anodine. Elle transfère implicitement la charge de la preuve vers les plateformes, et donc vers les utilisateurs.
Pour qu’une telle interdiction soit effective, les plateformes devront mettre en place des mécanismes robustes de vérification d’âge. Or, à ce jour, aucune solution technique ne permet de vérifier l’âge d’un utilisateur sans collecter ou traiter des données d’identité. Le gouvernement l’assume à demi-mot : la vérification concernera tous les utilisateurs, y compris les comptes déjà existants, mineurs ou majeurs. Cela implique mécaniquement la généralisation de systèmes d’identité numérique ou de justificatifs officiels, la création de bases de données sensibles supplémentaires, et une traçabilité accrue des usages en ligne.
Car oui, au delà de la vérification à l'inscription, les plateformes ne prendront pas de risque. Si elles doivent justifier un jour de la majorité de tel ou tel utilisateur devant la justice, elles ne vont pas juste faire la vérification, puis supprimer les pièces d'identité : elles vont tout conserver pour se couvrir. Autrement dit, une mesure présentée comme ciblée sur les mineurs reconfigure l’accès aux réseaux sociaux pour l’ensemble de la population.
Ce mouvement s’inscrit dans un cadre européen plus large. En juillet 2025, l’Union européenne a explicitement ouvert la voie à des régulations nationales de l’âge d’accès, dans le cadre du Digital Services Act (DSA), laissant aux États membres le soin d’en fixer les modalités. Le problème n’est pas tant la protection des mineurs, objectif largement partagé, que la méthode retenue : une interdiction techniquement applicable uniquement au prix d’un affaiblissement structurel de l’anonymat et de la vie privée en ligne. C’est ce décalage entre l’intention affichée et les implications systémiques qui rend ce texte particulièrement révélateur de l’époque.
Enfin, un point reste largement sous‑traité dans le débat public : la qualification même de “réseau social”.
Des plateformes comme YouTube occupent une zone grise. Elles combinent des fonctionnalités sociales (commentaires, abonnements, recommandations algorithmiques) avec un rôle devenu central dans l’accès au savoir, y compris scolaire. Pour un collégien ou un lycéen, YouTube est aujourd’hui une source massive de contenus pédagogiques (mathématiques, sciences, langues, informatique), un support de vulgarisation souvent plus accessible que les manuels.
Or, juridiquement, YouTube entre pleinement dans la définition européenne d’un service de plateforme en ligne tel que formulé par le Digital Services Act (DSA), dès lors qu’il permet la diffusion publique de contenus et l’interaction entre utilisateurs. Le texte français adopté en janvier 2026 introduit bien certaines exclusions : encyclopédies en ligne, répertoires éducatifs à but non lucratif, mais les plateformes commerciales ayant un usage éducatif ne sont pas explicitement protégées.
Leur sort dépendra de décrets d’application, de listes établies par l’ARCOM et de choix réglementaires encore non stabilisés.
Le risque est donc concret : restreindre l’accès à des ressources éducatives essentielles, non pas par intention, mais par effet de bord réglementaire.
Un paradoxe classique des politiques numériques contemporaines : vouloir protéger sans distinguer, et finir par appauvrir l’accès au savoir tout en renforçant les mécanismes de contrôle. Ainsi, les utilisateurs souhaitant conserver un minimum de vie privée se tourneront probablement vers l'éternelle solution à toutes les restrictions légales : le VPN.
Quoi que ...
Royaume‑Uni : le contrôle d’identité en toile de fond de l’usage des VPN ?
Le Royaume‑Uni offre aujourd’hui un aperçu très concret de ce que produit une régulation fondée sur la vérification d’âge généralisée : un déplacement progressif du contrôle, depuis les contenus vers les outils d’accès au réseau eux‑mêmes.
Depuis l’entrée en application effective de l’Online Safety Act, le 25 juillet 2025, les plateformes diffusant des contenus jugés sensibles sont tenues de mettre en place des mécanismes de vérification d’âge « hautement efficaces ».
Dans la pratique, cela signifie : scan de documents officiels, vérification bancaire ou estimation d’âge par reconnaissance faciale.
Sans surprise, cette obligation a entraîné une explosion de l’usage des VPN au Royaume‑Uni. Dès la première semaine d’application, Proton VPN a indiqué une hausse de plus de 1 400 % des inscriptions, phénomène confirmé par plusieurs éditeurs et observateurs indépendants. Ce contournement pose un problème évident aux autorités : si l’accès à un service dépend de la localisation et de l’identité, le VPN devient un obstacle réglementaire.
Officiellement, à ce stade, les VPN ne sont pas interdits et aucun texte n’impose aujourd’hui une vérification d’identité pour leur usage en tant que tel. Mais plusieurs signaux faibles convergent. En décembre 2025, une commission transpartisane de la Chambre des Lords a proposé un amendement visant à interdire l’usage des VPN aux mineurs, en imposant aux fournisseurs de VPN des mécanismes de vérification d’âge, voire d’identité, sous peine de sanctions. Le raisonnement est limpide : les plateformes doivent vérifier l’âge, les VPN permettent de contourner ces vérifications, donc ils deviennent un maillon à réguler.
Même sans adoption formelle de cet amendement, l’Ofcom a déjà indiqué que les plateformes ne devaient ni encourager ni faciliter l’usage de VPN pour contourner les contrôles, et que des obligations supplémentaires pourraient émerger si le contournement devenait massif.
Soyons clair : ce qui se joue ici dépasse largement la question des contenus pour adultes. En conditionnant l’accès à Internet à des preuves d’âge et d’identité, puis en cherchant à restreindre les outils permettant de préserver l’anonymat, le Royaume‑Uni esquisse un modèle où l’accès au réseau devient traçable par défaut et où les outils de protection de la vie privée sont soupçonnés a priori.
Le VPN n’est plus un outil de sécurité ou de confidentialité mais devient un problème politique. Ce glissement est central pour comprendre les débats à venir sur la vie privée en Europe. Il annonce un futur où la question ne sera plus seulement ce que vous consultez, mais avec quels outils vous avez le droit de le faire.
Enjeux futurs : l’anonymat, une anomalie ?
Pris séparément, les dispositifs évoqués jusqu’ici répondent à des causes nobles. Lutte contre les abus sexuels, protection des mineurs, modération des contenus, responsabilisation des plateformes ... Chaque texte possède sa justification propre.
Le problème est multiple : recul de la vie privée à chaque nouvelle mesure, accumulation des règlementation imposées et convergence vers un modèle où les États sont omniscients. Au vu de la fréquence quasi quotidienne des vols de données et de l'absence de sanctions dissuasives, ajouter davantage de collecte de données ne ferait que nuire à la sécurité des citoyens.
De plus, dans la continuité des mécanismes de vidéosurveillances déployés durant les JO et pérennisés par la suite, notre gouvernement et les suivants disposeront ainsi d'une boite à outil complète pour contrôler, identifier et interpeller à peu près n'importe qui. Ce basculement a été identifié très tôt par le Contrôleur européen de la protection des données. Dans plusieurs avis rendus depuis 2023, l’EDPS souligne que la généralisation de mécanismes de vérification d’âge et d’identité crée un risque structurel : celui de transformer des mesures d’exception en infrastructure permanente de surveillance, sans que le citoyen n’ait réellement la possibilité de s’y soustraire.
Ainsi, l’anonymat cesse d’être un état normal pour devenir une exception suspecte. Les outils qui permettaient jusqu’ici de préserver une forme de discrétion (chiffrement fort, VPN, réseaux anonymisants) ne sont plus perçus comme des mécanismes de sécurité légitimes, mais comme des obstacles à la régulation. Le Royaume‑Uni illustre parfaitement cette dynamique : ce ne sont plus seulement les contenus qui posent problème, mais les moyens techniques permettant d’échapper aux contrôles.
Ce changement de paradigme pose également un problème de sécurité souvent passé sous silence. Les agences européennes de cybersécurité rappellent pourtant régulièrement que le chiffrement et la protection de la vie privée ne sont pas antagonistes de la sécurité publique. Ils en sont une composante essentielle, notamment pour les journalistes, les lanceurs d’alerte, les professions sensibles ou les citoyens vivant sous des régimes autoritaires. Affaiblir ces mécanismes pour des raisons de conformité réglementaire revient à fragiliser l’ensemble de l’écosystème, y compris pour ceux que ces mesures prétendent protéger.
Criminels, puis activistes, puis opposant politique ou journaliste curieux... Plus personne ne sera à l'abri. Le dark web, objet de tous les fantasmes, n'est pas seulement le repaire du crime. C'est aussi un espace où les informations peuvent circuler hors du champ d'action des dictatures. Idem pour Bitcoin et les VPN (pour le moment). C’est précisément ce que soulignait Alexandre Stachtchenko dans son Éloge de l’anonymat : l’anonymat n’est ni une posture militante ni un refuge pour comportements déviants. Il constitue une condition fonctionnelle de la liberté d’expression, de l’expérimentation et, plus largement, de la démocratie dans les espaces numériques.
La question qui se pose désormais n’est donc plus de savoir si ces mesures sont animées de bonnes intentions. Elle est de comprendre quel modèle de réseau nous sommes en train de normaliser et de savoir si nous acceptons que l'anonymat ne devienne une déviation à corriger.
Quelles solutions pour protéger sa vie privée ?
La première étape consiste à abandonner une illusion tenace : la vie privée n’est plus un état que l’on pourrait activer ou désactiver. Elle se négocie en permanence, à l’intersection de contraintes techniques, de choix politiques et d’usages quotidiens.
Dans ce contexte, la question démocratique devient centrale. Les décisions qui redéfinissent l’accès au numérique sont aujourd’hui prises sans réel consentement explicite de la population. Elles relèvent de lois technique et peu lisibles, alors même qu’elles transforment en profondeur les libertés fondamentales.
Soumettre ce type de choix à des mécanismes démocratiques forts comme le referendum permettrait au moins de réintroduire un principe simple : ce qui modifie durablement les conditions d’exercice des libertés ne devrait pas relever d’un chèque en blanc électoral. L’argument selon lequel « vous avez voté, donc nous décidons » atteint ici ses limites. Mais la démocratie suppose autre chose qu’un droit de vote ponctuel. Elle suppose un accès à une information de qualité. Or ce prérequis est de plus en plus fragilisé.
En effet, la connaissance basique des biais cognitifs et techniques de manipulation n'est enseignée que dans les écoles spécialisées. Il s'agit pourtant d'un outil essentiel à tout citoyen disposant d'un droit de vote, dans un monde où chaque politicien, chaque invité de plateau, maitrise les outils rhétoriques sur le bout des doigts.
En France, près de 90 % des médias sont contrôlés par une poignée de milliardaires, un constat documenté de longue date, notamment par le documentaire Media Crash et par plusieurs enquêtes journalistiques convergentes. Cette concentration n’est pas neutre : elle favorise une information spectaculaire, polarisée et souvent réduite à des débats de plateau, au détriment de l’enquête, de la vérification et de la prudence épistémique.
L’ARCOM, à défaut de défendre une information de qualité et sourcée, est officiellement chargée de garantir le pluralisme. Son action reste cependant ponctuelle et limitée, ses choix basés sur l'audition des propriétaires des chaines plutôt que sur une analyse stricte du contenu proposé. Les critiques récurrentes de Reporters sans frontières pointent une incapacité structurelle à corriger les déséquilibres les plus flagrants, même lorsque ceux‑ci sont documentés sur des volumes massifs de données. La régulation existe, mais elle peine à produire des effets à la hauteur des enjeux démocratiques qu’elle est censée protéger.
À ce déficit démocratique s’ajoute une confusion entretenue autour des outils de protection de la vie privée. VPN, navigateurs dits « privacy‑friendly », bloqueurs de traqueurs sont souvent présentés comme des solutions en soi. En réalité, ils ne font que déplacer la confiance. Utiliser un VPN, par exemple, ne supprime pas la collecte ; cela revient à choisir à qui l’on confie ses métadonnées. L’Agence européenne pour la cybersécurité rappelle d’ailleurs que ces outils doivent être évalués comme des composants d’un système, avec des limites claires et des modèles de menace explicites, et non comme des boucliers universels.
Cette complexité a une conséquence rarement assumée : la vie privée tend à devenir un privilège d’experts. Lorsque les solutions réellement efficaces impliquent de louer des serveurs à l’étranger, de déployer ses propres infrastructures VPN, de maîtriser les couches réseau et juridiques sous‑jacentes, une grande partie de la population est de facto exclue. La protection de la vie privée n’est alors plus un droit effectif, mais une compétence technique avancée, accessible à ceux qui ont le temps, les moyens et le savoir.
C’est sans doute là le point le plus préoccupant. Une liberté qui ne peut s’exercer qu’au prix d’une expertise n'en est pas une. Tant que la réponse au recul de la vie privée reposera principalement sur l’adaptation individuelle, elle renforcera les inégalités au lieu de les corriger. Et c’est précisément pour cela que la question des solutions ne peut pas être dissociée de celle du cadre politique et démocratique dans lequel elles s’inscrivent.
Conclusion
La question de la vie privée n’est plus un débat technique réservé aux spécialistes, ni un affrontement abstrait entre sécurité et liberté.
Elle est devenue un choix de société, souvent formulé sans être réellement posé. Les textes s’accumulent, les dispositifs se superposent, et l’anonymat recule au nom du bien commun.
Ce qui frappe, à la lecture de ces évolutions, ce n’est pas tant leur brutalité que leur banalisation. La surveillance devient préventive, l’identification devient implicite, et les outils de protection finissent par apparaître comme suspects.
La vie privée n’a jamais été synonyme d’impunité. Elle a toujours été une condition de la liberté d’expression, de l’expérimentation, de la dissidence et, plus largement, de la démocratie. L’affaiblir durablement au nom de sa propre protection est un paradoxe dont les effets ne se mesurent jamais à court terme.
Reste une question simple, mais rarement formulée ainsi : dans un monde numérique où chaque accès est conditionné, chaque échange potentiellement inspectable et chaque identité vérifiable, que reste‑t‑il de la liberté par défaut ?
Tant que cette question ne sera pas posée collectivement, les réponses continueront d’être apportées pour nous, sans nous.
Bibliographie
Commission européenne – Proposal for a Regulation to prevent and combat child sexual abuse (Chat Control) : https://commission.europa.eu/law/law-topic/data-protection/reform/rules-prevent-and-combat-child-sexual-abuse_en
Conseil de l’Union européenne – Preventing and combating child sexual abuse online : https://www.consilium.europa.eu/en/policies/prevent-child-sexual-abuse-online/
Parlement européen – Parliamentary question E-10-2025-003250 : https://www.europarl.europa.eu/doceo/document/E-10-2025-003250_EN.html
Parlement européen – Parliamentary question E-10-2025-003993 (Signal & chiffrement) : https://www.europarl.europa.eu/doceo/document/E-10-2025-003993_EN.html
Parlement européen – Parliamentary question P-10-2025-003246 : https://www.europarl.europa.eu/doceo/document/P-10-2025-003246_EN.html
Règlement (UE) 2022/2065 – Digital Services Act : http://data.europa.eu/eli/reg/2022/2065/oj/eng
Euronews – France : interdiction des réseaux sociaux aux moins de 15 ans (26 janvier 2026) : https://fr.euronews.com/my-europe/2026/01/26/france-linterdiction-des-reseaux-sociaux-aux-moins-de-15-ans-approuvee-par-lassemblee-nati
Leclaireur Fnac – Majorité numérique à 15 ans : https://leclaireur.fnac.com/article/318418-reseaux-sociaux-la-majorite-numerique-a-15-ans-definitivement-adoptee-par-le-parlement/
Le Spécialiste – Interdiction des réseaux sociaux aux mineurs en France : https://www.lespecialiste.be/fr/actualites/la-france-adopte-un-texte-interdisant-les-reseaux-sociaux-aux-moins-de-15-ans.html
Euronews – Encadrement des réseaux sociaux et DSA : https://fr.euronews.com/2025/11/19/france-une-proposition-de-loi-pour-encadrer-lutilisation-des-reseaux-sociaux-par-les-mineu
Le Parisien – Que contient le texte sur l’interdiction des réseaux sociaux ? : https://www.leparisien.fr/politique/interdiction-des-reseaux-sociaux-aux-moins-de-15-ans-que-contient-le-texte-26-01-2026-OGLTHWOCJNCYLMTQTZ3KO6PKEA.php
Ofcom – Online Safety Act & age assurance : https://www.ofcom.org.uk/online-safety
The Guardian – UK online safety law leads to surge in VPN use : https://www.theguardian.com/technology/2025/jul/30/uk-online-safety-law-leads-to-5m-extra-age-checks-a-day-and-surge-in-vpn-use
Euronews – VPN searches skyrocket in the UK : https://www.euronews.com/next/2025/07/28/searches-for-vpns-skyrocket-in-the-uk-after-new-online-age-verification-rules-enacted
Full Fact – Claims about VPN bans in the UK : https://fullfact.org/technology/uk-internet-vpn-users-id-false/
TechRadar – UK Lords propose ban on VPNs for children : https://www.techradar.com/vpn/vpn-privacy-security/uk-lords-propose-ban-on-vpns-for-children
Financial Times – UK considers further action on VPN circumvention : https://www.ft.com/content/abe78aa2-6e62-419b-925c-9818e86e7179
EDPS – Opinion 04/2023 on the CSA Regulation : https://edps.europa.eu/system/files/2023-04/edps_opinion_04-2023_en.pdf
Commission européenne – eIDAS 2.0 & European Digital Identity Wallet : https://digital-strategy.ec.europa.eu/en/policies/eidas-regulation
ENISA – Data Protection Engineering : https://www.enisa.europa.eu/publications/data-protection-engineering
ENISA – Threat Landscape : https://www.enisa.europa.eu/topics/threat-risk-management/threats-and-trends
ENISA – Cryptography & Encryption : https://www.enisa.europa.eu/topics/cryptography
ENISA – Privacy Enhancing Technologies Control Matrix : https://www.enisa.europa.eu/news/enisa-news/enisas-pets-control-matrix-a-tool-to-evaluate-online-and-mobile-privacy-tools
CNIL – Maîtriser mes données : https://www.cnil.fr/fr/maitriser-mes-donnees
EDPS – Privacy Enhancing Technologies : https://edps.europa.eu/data-protection/our-work/subjects/privacy-enhancing-technologies_en
Règlement (UE) 2016/679 – RGPD : https://eur-lex.europa.eu/eli/reg/2016/679/oj
Reporters sans frontières – Défaut de pluralisme et ARCOM : https://rsf.org/fr/d%C3%A9faut-de-pluralisme-sur-la-cha%C3%AEne-fran%C3%A7aise-cnews-rsf-saisit-l-arcom
Wikipedia – Media Crash (film) : https://fr.wikipedia.org/wiki/Media_Crash_(film)
Alexandre Stachtchenko – Éloge de l’anonymat : https://www.linkedin.com/pulse/%25C3%25A9loge-de-lanonymat-alexandre-stachtchenko/
