
Le développement exponentiel des technologies numériques transforme profondément notre société et soulève des questions juridiques inédites. La reconnaissance et la protection des droits numériques fondamentaux constituent désormais un enjeu majeur pour nos démocraties. Entre surveillance massive, collecte de données personnelles et développement de l’intelligence artificielle, les libertés individuelles font face à des menaces nouvelles qui nécessitent une adaptation constante du cadre juridique. Cet enjeu dépasse les frontières nationales et requiert une approche globale, où le droit tente de concilier innovation technologique et préservation des droits fondamentaux dans l’environnement numérique.
Émergence et reconnaissance des droits numériques fondamentaux
La notion de droits numériques fondamentaux s’est progressivement construite en réponse aux bouleversements technologiques. Ces droits ne constituent pas une catégorie juridique totalement autonome, mais plutôt une extension ou une adaptation des droits fondamentaux classiques à l’environnement numérique. La Déclaration des droits de l’internet adoptée par l’ONU en 2016 marque une étape significative dans cette reconnaissance, même si sa portée juridique reste limitée.
À l’échelle européenne, le Règlement Général sur la Protection des Données (RGPD) constitue une avancée majeure en consacrant explicitement certains droits numériques comme le droit à l’oubli, le droit à la portabilité des données ou le droit d’opposition. La Charte des droits fondamentaux de l’Union européenne avait déjà posé les bases en reconnaissant dans son article 8 un droit fondamental à la protection des données personnelles, distinct du droit au respect de la vie privée.
Au niveau national, certains pays ont fait le choix d’inscrire ces droits numériques dans leur corpus constitutionnel. L’Italie a ainsi adopté en 2015 une « Déclaration des droits sur Internet », tandis que le Portugal a modifié sa constitution pour y intégrer la protection des données personnelles. En France, si la Constitution ne mentionne pas explicitement ces droits, le Conseil constitutionnel a progressivement construit une jurisprudence protectrice, notamment dans sa décision du 10 juin 2009 relative à la loi favorisant la diffusion et la protection de la création sur internet.
Typologie des droits numériques fondamentaux
Ces droits peuvent être regroupés en plusieurs catégories :
- Les droits liés à la protection des données personnelles (droit d’accès, de rectification, droit à l’oubli)
- Les droits garantissant l’accès au numérique (droit à l’internet, neutralité du net)
- Les libertés d’expression et d’information dans l’environnement numérique
- Les droits émergents face à l’intelligence artificielle (droit à l’explication algorithmique, droit au contrôle humain)
La reconnaissance juridique de ces droits s’est accompagnée de la création d’autorités administratives indépendantes chargées de leur protection. La Commission Nationale de l’Informatique et des Libertés (CNIL) en France ou le Comité européen de la protection des données (CEPD) au niveau européen jouent ainsi un rôle fondamental dans la garantie effective de ces droits numériques.
Le droit à la protection des données personnelles : pierre angulaire des droits numériques
Le droit à la protection des données personnelles s’est imposé comme l’un des piliers des droits numériques fondamentaux. Sa consécration juridique s’est accélérée avec l’adoption du RGPD en 2016, texte qui a profondément renouvelé l’approche européenne de la protection des données. Ce règlement repose sur plusieurs principes directeurs : licéité, loyauté et transparence du traitement, limitation des finalités, minimisation des données, exactitude, limitation de la conservation, intégrité et confidentialité.
Le RGPD a renforcé les droits des personnes concernées par un traitement de données. Le droit d’accès permet à tout individu d’obtenir des informations sur les données le concernant détenues par un responsable de traitement. Le droit de rectification autorise la correction des données inexactes, tandis que le droit à l’effacement (ou « droit à l’oubli ») permet sous certaines conditions d’obtenir la suppression des données. Ce dernier droit avait été préfiguré par l’arrêt Google Spain rendu par la Cour de Justice de l’Union Européenne en 2014.
Le droit à la portabilité des données constitue une innovation majeure du RGPD. Il offre aux personnes concernées la possibilité de récupérer leurs données dans un format structuré et de les transmettre à un autre responsable de traitement. Ce droit facilite la circulation des données tout en renforçant le contrôle des individus sur leurs informations personnelles.
En matière de protection des données, le consentement joue un rôle central. Pour être valable, il doit être libre, spécifique, éclairé et univoque. La CJUE et les autorités nationales de protection des données ont progressivement précisé ces critères. Dans l’arrêt Planet49 du 1er octobre 2019, la Cour a ainsi jugé que des cases précochées ne permettaient pas d’obtenir un consentement valable.
Les défis de l’extraterritorialité
L’application extraterritoriale du RGPD constitue l’une de ses innovations majeures. Le règlement s’applique aux traitements effectués par des responsables établis hors de l’Union européenne dès lors qu’ils ciblent des personnes situées sur le territoire européen. Cette extension territoriale soulève des défis considérables en termes d’effectivité.
L’arrêt Schrems II rendu par la CJUE le 16 juillet 2020 illustre ces tensions. En invalidant le Privacy Shield, mécanisme facilitant les transferts de données vers les États-Unis, la Cour a affirmé la primauté des standards européens de protection. Cette décision a provoqué une insécurité juridique majeure pour les entreprises, tout en renforçant l’autonomie stratégique européenne en matière numérique.
Liberté d’expression et droit à l’information dans l’espace numérique
L’environnement numérique a profondément transformé l’exercice de la liberté d’expression et du droit à l’information. Ces libertés fondamentales, consacrées par l’article 11 de la Déclaration des droits de l’homme et du citoyen et par l’article 10 de la Convention européenne des droits de l’homme, doivent être repensées à l’aune des spécificités du monde numérique.
Internet a démocratisé l’accès à l’espace public en permettant à chacun de s’exprimer sans intermédiaire. Cette horizontalité constitue une avancée démocratique indéniable, mais soulève des questions inédites. La Cour européenne des droits de l’homme a reconnu dans l’arrêt Ahmet Yildirim c. Turquie du 18 décembre 2012 qu’Internet était désormais « l’un des principaux moyens d’exercice par les individus de leur droit à la liberté d’expression et d’information ».
La régulation des contenus en ligne constitue un défi majeur pour les démocraties. Entre nécessité de lutter contre les discours de haine ou la désinformation et risque de censure excessive, l’équilibre est délicat à trouver. La loi Avia en France, partiellement censurée par le Conseil constitutionnel en juin 2020, illustre ces tensions. Le juge constitutionnel a estimé que l’obligation pour les plateformes de retirer certains contenus manifestement illicites dans un délai de 24 heures, sous peine de sanctions pénales, portait une atteinte disproportionnée à la liberté d’expression.
Au niveau européen, le Digital Services Act (DSA) adopté en 2022 tente d’apporter une réponse équilibrée à ces enjeux. Ce règlement renforce les obligations de transparence et de diligence des plateformes numériques, tout en préservant le principe fondamental de l’absence d’obligation générale de surveillance des contenus. Il instaure un mécanisme de notification et d’action (« notice and action ») qui doit permettre un retrait rapide des contenus manifestement illicites, sans pour autant imposer une modération automatisée systématique.
La responsabilité des intermédiaires techniques
La question de la responsabilité des intermédiaires techniques (hébergeurs, fournisseurs d’accès, plateformes) reste au cœur des débats juridiques. La directive e-commerce de 2000 avait posé le principe d’une responsabilité limitée des hébergeurs, qui ne peuvent être tenus responsables des contenus stockés à la demande des utilisateurs s’ils n’en ont pas connaissance ou s’ils agissent promptement pour les retirer dès qu’ils en ont connaissance.
Ce régime de responsabilité, conçu à l’aube du web 2.0, est aujourd’hui questionné face à l’émergence des géants du numérique. La CJUE a progressivement affiné sa jurisprudence, notamment dans l’arrêt L’Oréal c. eBay de 2011, en considérant que le régime de responsabilité limitée ne s’applique pas lorsque l’hébergeur joue un rôle actif dans la présentation des contenus. Le DSA prolonge cette approche en instaurant des obligations renforcées pour les très grandes plateformes en ligne.
L’accès au numérique comme droit fondamental
La question de l’accès au numérique comme droit fondamental s’impose progressivement dans le débat juridique. Certains pays ont fait le choix de consacrer explicitement un « droit à l’internet ». La Finlande a ainsi été le premier pays à reconnaître l’accès à Internet comme un droit fondamental en 2010. Le Conseil constitutionnel français s’est montré plus prudent dans sa décision sur la loi HADOPI, en reconnaissant que l’accès à internet constituait une composante de la liberté d’expression et de communication, sans pour autant en faire un droit fondamental autonome.
La fracture numérique constitue un obstacle majeur à l’effectivité de ce droit. Selon l’INSEE, 17% des Français étaient en situation d’illectronisme en 2019. Cette exclusion numérique touche particulièrement les personnes âgées, les personnes en situation de précarité et les habitants des zones rurales. Face à ce constat, plusieurs dispositifs juridiques ont été mis en place pour garantir un accès universel aux services numériques.
Le service universel des communications électroniques, prévu par la directive européenne de 2018 et transposé en droit français, garantit à tous les citoyens un accès à internet à un prix abordable. La loi pour une République numérique de 2016 a renforcé ces dispositions en consacrant un « droit au maintien de la connexion » pour les personnes en situation de précarité. La neutralité du net, principe selon lequel les fournisseurs d’accès à internet doivent traiter tous les flux de données de manière égale, constitue un autre pilier de ce droit d’accès. Ce principe a été consacré par le règlement européen de 2015, qui interdit le blocage, le ralentissement ou la priorisation de certains contenus, applications ou services.
L’accessibilité numérique pour les personnes en situation de handicap
L’accessibilité numérique pour les personnes en situation de handicap constitue une dimension essentielle du droit d’accès au numérique. La Convention des Nations Unies relative aux droits des personnes handicapées impose aux États parties de prendre des mesures appropriées pour assurer aux personnes handicapées l’accès aux nouvelles technologies de l’information et de la communication.
En droit français, l’article 47 de la loi du 11 février 2005 pour l’égalité des droits et des chances impose une obligation d’accessibilité des services de communication au public en ligne des services publics. Cette obligation a été étendue par la directive européenne 2016/2102 relative à l’accessibilité des sites internet et des applications mobiles des organismes du secteur public. Malgré ces avancées législatives, l’effectivité de ce droit reste limitée. Un rapport de la DINUM publié en 2022 révélait que seuls 17% des démarches administratives en ligne respectaient pleinement les critères d’accessibilité.
Le European Accessibility Act adopté en 2019 marque une nouvelle étape en imposant des exigences d’accessibilité pour de nombreux produits et services numériques du secteur privé. Cette directive, qui doit être transposée d’ici 2025, témoigne d’une prise de conscience croissante de la nécessité d’intégrer l’accessibilité dès la conception des services numériques.
Droits fondamentaux face à l’intelligence artificielle : nouveaux défis juridiques
L’émergence de l’intelligence artificielle (IA) soulève des questions inédites en matière de droits fondamentaux. Les systèmes d’IA, capables d’apprentissage et de prise de décision autonome, peuvent affecter profondément les libertés individuelles. Face à ces enjeux, le cadre juridique traditionnel montre ses limites et nécessite une adaptation.
Le droit à l’explicabilité algorithmique s’impose progressivement comme un nouveau droit fondamental. L’article 22 du RGPD consacre déjà le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques ou affectant de manière significative la personne concernée. Cette disposition est complétée par un droit à obtenir une intervention humaine, à exprimer son point de vue et à contester la décision.
En droit français, la loi pour une République numérique a introduit une obligation de transparence pour les décisions administratives prises sur le fondement d’un algorithme. L’article L. 311-3-1 du Code des relations entre le public et l’administration impose à l’administration d’informer la personne concernée qu’une décision a été prise sur ce fondement et de lui communiquer, à sa demande, les règles définissant le traitement et les principales caractéristiques de sa mise en œuvre.
Le Règlement sur l’intelligence artificielle proposé par la Commission européenne en avril 2021 et adopté en 2023 marque une étape décisive dans l’encadrement juridique de l’IA. Ce texte adopte une approche fondée sur les risques, en distinguant les systèmes d’IA à risque inacceptable (interdits), à haut risque (soumis à des obligations strictes) et à faible risque (soumis à des obligations de transparence). Il prévoit notamment l’interdiction des systèmes de notation sociale (social scoring) à des fins généralisées et des techniques de manipulation subliminale.
Biais algorithmiques et principe de non-discrimination
Les biais algorithmiques constituent l’un des défis majeurs pour la protection des droits fondamentaux face à l’IA. De nombreuses études ont démontré que les systèmes d’IA pouvaient reproduire, voire amplifier, les discriminations existantes dans la société. L’affaire COMPAS aux États-Unis, où un algorithme d’évaluation du risque de récidive s’est révélé biaisé contre les personnes noires, illustre ces dangers.
Le principe de non-discrimination, consacré par l’article 21 de la Charte des droits fondamentaux de l’Union européenne, s’applique pleinement aux systèmes d’IA. Le Règlement sur l’IA impose ainsi aux développeurs de systèmes à haut risque d’évaluer et d’atténuer les risques de biais et de discrimination. Il prévoit également des obligations en matière de qualité des données d’entraînement et de test.
- Audits algorithmiques pour détecter les biais discriminatoires
- Diversification des équipes de développement
- Techniques de « fairness by design » intégrant l’équité dès la conception
- Mécanismes de recours effectifs pour les personnes affectées par une discrimination algorithmique
La Défenseure des droits en France et le Contrôleur européen de la protection des données ont publié plusieurs recommandations sur ces questions, soulignant la nécessité d’une approche proactive pour garantir que les systèmes d’IA respectent les principes fondamentaux de non-discrimination et d’égalité.
Vers une gouvernance mondiale des droits numériques
La nature transnationale d’Internet et des technologies numériques rend nécessaire une approche globale de la protection des droits numériques fondamentaux. Les initiatives se multiplient pour établir des standards internationaux, mais se heurtent à des conceptions divergentes des droits fondamentaux et de la souveraineté numérique.
Au niveau mondial, les Nations Unies ont affirmé que « les droits dont les personnes jouissent hors ligne doivent être protégés en ligne ». Le Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression joue un rôle majeur dans la définition de standards internationaux. Ses rapports ont notamment porté sur la modération des contenus en ligne, le chiffrement et l’anonymat, ou encore l’impact de l’IA sur les droits humains.
L’Internet Governance Forum (IGF), créé en 2006 suite au Sommet mondial sur la société de l’information, constitue une plateforme multipartite de dialogue sur les politiques liées à Internet. S’il ne produit pas de textes contraignants, l’IGF permet de faire émerger un consensus sur certains principes fondamentaux de la gouvernance d’Internet.
Plusieurs initiatives régionales témoignent d’une volonté de définir des approches communes en matière de droits numériques. La Convention 108+ du Conseil de l’Europe, modernisation de la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, constitue le seul instrument juridiquement contraignant à vocation universelle dans ce domaine. Ouverte à la signature des États non membres du Conseil de l’Europe, elle a déjà été ratifiée par plusieurs pays africains et latino-américains.
Divergences et compétition entre modèles de régulation
Trois grands modèles de régulation du numérique s’affrontent aujourd’hui sur la scène internationale :
- Le modèle européen, centré sur la protection des droits fondamentaux et la régulation des acteurs privés
- Le modèle américain, privilégiant l’autorégulation et l’innovation
- Le modèle chinois, caractérisé par un contrôle étatique fort et une surveillance généralisée
Cette compétition normative se traduit par une forme d' »effet Bruxelles » où les standards européens, particulièrement exigeants, influencent progressivement les pratiques mondiales. Le RGPD a ainsi inspiré de nombreuses législations nationales en matière de protection des données, du Brésil (LGPD) à la Californie (CCPA).
La fragmentation croissante d’Internet, parfois qualifiée de « splinternet », constitue une menace pour l’universalité des droits numériques. La multiplication des barrières techniques et juridiques (filtrage, blocage géographique, localisation forcée des données) remet en question l’idéal d’un Internet global et ouvert. Face à ce risque, plusieurs initiatives promeuvent une approche fondée sur des principes communs tout en respectant les spécificités culturelles et juridiques nationales.
Le Partenariat mondial sur l’intelligence artificielle (PMIA), lancé en 2020 par la France et le Canada, illustre cette volonté de coopération internationale. Regroupant 29 membres, cette initiative vise à favoriser une approche responsable et centrée sur l’humain de l’IA, en s’appuyant sur les principes de l’OCDE sur l’IA adoptés en 2019.
La protection effective des droits numériques fondamentaux nécessite un équilibre délicat entre harmonisation internationale et respect des particularismes nationaux. Elle impose également de repenser la répartition des rôles entre États, entreprises privées et société civile dans la gouvernance du numérique. L’approche multipartite (multistakeholder), associant l’ensemble des acteurs concernés aux processus de décision, constitue une voie prometteuse pour relever ces défis.