Partager cet article
Le basculement mondial vers la gouvernance algorithmique des individus est désormais une réalité qui marque un bouleversement essentiel de notre civilisation : respect de la vie privée et de l’autonomie personnelle, droit à l’autodétermination individuelle sont en passe d’être renvoyés aux poubelles de l’Histoire au profit d’un totalitarisme « soft » analyse notre contributeur Marc Lipskier. Pour Sans Doute, il fait un état des lieux de ce glissement irréversible où seule l’Europe résiste encore (un peu), mais pour combien de temps ? Un texte fondamental pour comprendre le monde qui est le nôtre désormais.
En fin d’année dernière, un vote parlementaire est passé quelque peu inaperçu. Dans le cadre d’une procédure d’urgence qui évite un double passage du texte devant le Parlement, l’Assemblée Nationale a adopté le 17 décembre 2025 la prolongation jusqu’en 2030 du dispositif de vidéo-surveillance algorithmique qui figurait dans la loi dite Jeux Olympiques de 2023. Le vote solennel final a eu lieu le 13 janvier 2026.
La loi J.O de 2023 autorisait, à titre expérimental seulement et jusqu’au 31 mars 2025, l’usage de « caméras augmentées » recourant à des traitements algorithmiques sur les images de vidéoprotection pour détecter des « événements prédéterminés » (mouvements de foule, colis abandonnés, présence dans une zone interdite, etc.). Le Conseil constitutionnel a validé ce dispositif sous certaines réserves. Ce qui revient à consacrer dans le droit positif une forme de surveillance algorithmique de l’espace public, même si la reconnaissance faciale en temps réel est officiellement exclue. La CNIL a précisé que les individus ne peuvent pas s’opposer à l’analyse de leur image par ces caméras dans ce cadre. Ce qui montre la primauté donnée à l’objectif de sécurité sur le consentement individuel.
En février 2025, lors des discussions de la loi transport, le gouvernement Barnier avait déjà tenté d’obtenir la prolongation de la vidéo-surveillance algorithmique. La permanence de l’intérêt de l’Etat pour la vidéo-surveillance algorithmique interroge.
Elle n’est pas sans rappeler la série télévisée américaine Person of Interest. Cette série mêle science-fiction et thriller policier. Au cœur de l’intrigue une IA est chargée d’anticiper des actes criminels avant leur passage à l’acte. Diffusée au début des années 2010, la série se déploie sur cinq saisons et raconte les interventions d’une petite équipe opérant clandestinement à New York pour protéger des individus que cette IA identifie, de manière anonyme, comme des «personnes d’intérêt».
Au fil du temps, la série dévoile l’évolution de cette IA (nommée « La Machine » ) vers une forme d’autonomie, ses faiblesses, ses partis pris et sa faculté à trancher dans des dilemmes éthiques, au sein d’un monde sous surveillance omniprésente. Si la première saison privilégie un format épisodique centré sur un dossier par épisode, les suivantes bâtissent une fresque plus vaste autour d’un conflit entre intelligences artificielles, marqué par l’émergence de « Samaritain », un rival plus intrusif.
L’œuvre questionne les dilemmes moraux posés par la surveillance généralisée, le compromis entre protection collective et droits individuels, ainsi que le poids des inventeurs face à des outils capables de scruter chaque citoyen. Elle s’interroge sur le libre arbitre confronté à des algorithmes prévisionnels, l’émergence d’humanité chez une machine et le risque que des dispositifs protecteurs virent à la coercition ou à la tyrannie.
Architectures technologiques de contrôle social
Cette série date du début des années 2010. Aujourd’hui, la question n’est plus de savoir si la science-fiction de la série télévisée Person of Interest (PoI) s’est matérialisée, mais de reconnaître que les architectures technologiques de contrôle social ont déjà dépassé le scénario imaginé par ses créateurs, pour atteindre une forme de domination algorithmique sans précédent.
Le cœur de cette transformation est le passage d’une surveillance réactive à un système de gouvernance algorithmique qui prétend garantir la certitude en éliminant la friction de l’autonomie humaine.
Cette grande transformation marque un point de rupture de la civilisation informationnelle. Au cœur des interactions sociales et intimes, là où, dans la longue histoire de l’existence humaine nichent depuis toujours le doute, l’aléa, ou le risque, une nouvelle structure technologique apparaît et se déploie sur la planète à une vitesse stupéfiante. Dans un même mouvement planétaire, régimes autoritaires et pays démocratiques s’y prêtent, au nom de l’impératif de sécurité érigé en dogme religieux.
Dans Person of Interest, l’IA de Harold Finch, « La Machine », opérait selon un code moral strict, limité dans son accès et contraint de protéger l’individu. Pourtant, la réalité de 2026 s’aligne plutôt sur le modèle rival, « Samaritain”, dont le but ultime était d’optimiser la structure même de la société par le contrôle des comportements. Aujourd’hui, cette quête d’optimisation s’exprime par la convergence de plusieurs mécanismes opérationnels de contrôle :
Comment ça marche ?
Les systèmes de surveillance algorithmique contemporains reposent sur trois couches techniques :
- Capteurs de masse : caméras, microphones, capteurs biométriques, téléphones, cartes de transport ou bancaires, tous producteurs de données traçables.
- Plateformes d’agrégation : infrastructures centralisées (clouds souverains, bases de données policières, réseaux de villes intelligentes) capables de croiser des flux massifs en temps réel.
- Couches algorithmiques : IA de reconnaissance faciale, d’analyse comportementale, de corrélation sociale (graphes de relations), et d’orchestration prédictive via apprentissage automatique.
Ce modèle correspond quasi parfaitement à celui de « La Machine » : une architecture en réseau qui observe en permanence, apprend de ses interactions et hiérarchise les risques humains en fonction de critères évolutifs.
L’Impératif d’Extraction et de Fusion de Données
Le fondement de ce nouveau pouvoir est la dépossession comportementale : la capture et l’agrégation de données sur l’expérience humaine pour fabriquer des produits de prédiction. Des systèmes comme le Domain Awareness System (DAS) de la police de New-York ou de Londres intègrent des flux autrefois séparés —vidéosurveillance (plus de 18 000 caméras), lectures de plaques d’immatriculation (deux milliards de scans), et bases de données d’appels 911—pour suivre les individus en temps réel et reconstruire des historiques de mouvements sur plusieurs années,. Ce processus technique, appelé fusion de données, permet à l’IA de synthétiser des flux d’information disparates (e-commerce, dossiers de santé, communications) pour créer un portrait numérique complet, ou data self.
L’Économie de l’Action et l’Autonomie Zéro
Le but de cette omniscience n’est pas seulement de savoir, mais de faire. L’IA devient agente, capable de planifier et d’exécuter des tâches sans supervision humaine constante. Ce basculement est dicté par l’impératif de prédiction, qui exige des résultats garantis. Des technologies comme la télématique automobile, en surveillant la conduite et les paiements, peuvent activer une exécution à distance, comme désactiver le moteur du véhicule en cas de manquement à un contrat. Ce mécanisme remplace la complexité des relations humaines et du droit par la certitude et la compulsion automatiques.

Le Panopticon Numérique et la Fragilité du Droit
La diffusion de ces technologies de contrôle s’opère selon deux modèles géopolitiques divergents: la forteresse réglementaire européenne d’une part et l’impératif illibéral chinois d’autre part.
La Chine a institutionnalisé son ambition de contrôle national de surveillance algorithmique généralisée par le Plan d’action du Conseil d’État du 14 juin 2014, intitulé « Planning Outline for the Construction of a Social Credit System (2014-2020) » .Ce document officiel marque la décision centrale d’établir un « au moyen du Système de Crédit Social (SCS) » national couvrant individus et entreprises, via agrégation de données et blacklists.
En moins de dix ans, la Chine a institutionnalisé cette ambition de contrôle à l’échelle nationale, fournissant un exemple mature, bien que fragmenté, de la tyrannie de la certitude. Le système de crédit social (SCS) évalue la « fiabilité » des entreprises et des individus en agrégeant les données financières, légales et sociales, et en imposant des mesures disciplinaires conjointes sur des bases souvent opaques et disproportionnées.
Si un citoyen fait défaut sur un jugement de cour (un laolai), il est placé sur une liste noire qui peut restreindre l’accès aux transports rapides, aux services publics, et même à certains emplois. Ce système, bien que n’étant pas un score unique national monolithique, est un réseau complexe de régulation dont l’objectif est d’imposer l’orthodoxie comportementale en exploitant la peur et les incitations.
Ce système repose sur trois textes de loi. En premier lieu, le Règlement sur la cybersécurité (2017) impose aux entreprises la conservation et la transmission de données au gouvernement. Ensuite, le programme de crédit social (2014–2025) met en relation comportements économiques, civiques et réglementaires à des algorithmes d’évaluation.
Enfin les technologies de reconnaissance et d’IA sont encadrées par la Loi sur la sécurité des données (2021), mais celle-ci sert davantage à protéger la souveraineté informationnelle de l’Etat Chinois et du Parti Communiste Chinois qu’à garantir la vie privée. Ce triptyque législatif et technologique organise un modèle de droit de surveillance, où la transparence des citoyens devient un devoir civique au service de la stabilité sociale.
Cette architecture de l’assujettissement n’est pas réservée à la Chine. Elle s’exporte. Grâce aux Routes de la Soie Numériques (Digital Silk Road – DSR), la Chine vend à travers le monde des outils et des plateformes de surveillance (caméras, AI, centres de calcul exaflopiques) à des régimes cherchant à consolider leur propre autoritarisme. S’instaure ainsi un Beijing Effect qui normalise la répression numérique à l’échelle mondiale. L’utilisation de plateformes de fusion de données comme l‘Integrated Joint Operations Platform (IJOP) dans le Xinjiang démontre comment la technologie, loin d’être un outil neutre, peut devenir un instrument de persécution à grande échelle, désignant des comportements culturels ou religieux ordinaires comme des activités « pré-criminelles ».
De son côté, l’Europe fait ce qu’elle sait parfaitement faire : des réglementations.
Ainsi, l’Union Européenne a tenté d’introduire un code moral légalisé : l’AI Act (le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024).
Ce règlement bannit explicitement les systèmes à « Risque Inacceptable », ciblant directement les pratiques de social scoring, et l’utilisation généralisée de l’identification biométrique en temps réel par les forces de l’ordre. Ces « lignes rouges » juridiques visent à empêcher que les citoyens ne deviennent, selon la fameuse expression de Michel Foucault, des « corps dociles » façonnés par une surveillance algorithmique envahissante. Cependant, ces interdictions font face à une réalité technique tenace : la surveillance s’est propagée par capillarité, s’intégrant discrètement dans les infrastructures des smart cities et du lieu de travail par exemple.
Au niveau de l’Union européenne, le RGPD (Règlement Général sur la Protection des Données – Règlement UE 2016/679 du 27 avril 2016) admet des traitements de données à grande échelle pour des motifs d’intérêt public important (sécurité publique, prévention des infractions), sous réserve de proportionnalité et de garanties, ce qui fournit une base pour des dispositifs de surveillance numérique encadrés. L’AI Act, en voie de mise en œuvre, interdit en principe la surveillance biométrique de masse dans l’espace public, mais prévoit des exceptions étroites pour la recherche ciblée de victimes, la prévention d’attentats ou la recherche d’auteurs d’infractions graves, ce qui institutionnalise certaines formes de contrôle technologique dans un cadre de « haut risque ». Plusieurs États membres (par exemple, l’Italie, l’Espagne ou les Pays‑Bas) se sont dotés de lois de sécurité intérieure ou antiterroristes permettant la collecte et le croisement étendu de données, tout en étant soumis au contrôle de la CEDH (art. 8) et de la Cour de Justice de l’Union Européenne.
Au Royaume‑Uni, le cadre issu de l’Investigatory Powers Act de 2016 autorise une large gamme de techniques de surveillance des communications, de collecte de métadonnées et d’interception, soumise à des mécanismes d’autorisation et de contrôle, mais critiquée pour son ampleur. La police utilise en outre la reconnaissance faciale en temps réel dans l’espace public sur la base d’une combinaison de droit commun (police powers), de codes de pratique et de la législation sur la protection des données, la High Court ayant jugé ces usages globalement compatibles avec le droit en l’état, sous conditions de proportionnalité et de transparence.
Aux États-Unis, l’absence de loi fédérale générale sur la protection des données permet un développement important des technologies de surveillance, encadré surtout par un ensemble de lois sectorielles et par la jurisprudence constitutionnelle (Fourth Amendment). Les programmes de collecte de données et de surveillance de masse (NSA, fusion centers) ont été appuyés par des textes comme le USA Patriot Act puis le USA Freedom Act, qui ont élargi les pouvoirs d’accès aux données et de suivi électronique pour des finalités de sécurité nationale. Au niveau local, de nombreuses agences de police utilisent des systèmes de « predictive policing » et de reconnaissance faciale sur la base de contrats et de réglementations municipales ou étatiques, parfois limités par des moratoires ou interdictions locales, mais sans interdiction générale à l’échelle fédérale.
Cependant, pour ce qui concerne l’exportation de leurs technologies de surveillance algorithmique, les États-Unis adoptent une position complexe, oscillant entre la promotion de leur leadership technologique et le renforcement rigoureux des contrôles pour protéger les droits de l’homme et la sécurité nationale.
Un encadrement réglementaire américain sur courant alternatif
Sous la présidence Biden, le gouvernement américain a proposé en juillet 2024, via le Bureau of Industry and Security (BIS), un ensemble de règles majeures restreignant l’exportation des technologies de surveillance.
L’administration Trump, à l’inverse, a adopté une posture axée sur la dominance technologique mondiale, la dérégulation et l’utilisation de l’intelligence artificielle (IA) comme levier de puissance économique et sécuritaire. Son approche se distingue par une volonté de supprimer les obstacles bureaucratiques tout en intégrant les technologies de surveillance dans ses priorités de sécurité intérieure.
L’administration a placé au cœur de sa stratégie le concept d’« America First » appliqué à l’IA, visant à assurer la domination des États-Unis sur cette technologie.
- Suppression des barrières : Le décret (Executive Order) 14179 de janvier 2025 vise explicitement à supprimer les obstacles au leadership américain en IA pour favoriser une innovation rapide.
- Abrogation des règles précédentes : L’administration a abrogé la règle de « diffusion de l’IA » (AI Diffusion Rule) de l’ère Biden, la jugeant nuisible à l’innovation et trop contraignante pour les entreprises américaines.
Tout en prônant la protection des droits civils dans ses mémorandums officiels, l’administration a pris des mesures concrètes pour étendre l’usage des technologies de surveillance :
- Emploi de la reconnaissance faciale : L’administration a approfondi son recours à des technologies controversées, notamment via des contrats de plusieurs millions de dollars avec Clearview AI pour des agences comme l’ICE (Immigration and Customs Enforcement) et le FBI.
- Effacement des politiques de supervision : Le Département de la Sécurité intérieure (DHS) a supprimé de son site web des directives sur la transparence et les limites de l’utilisation de la reconnaissance faciale (comme la Directive 026-11), créant une incertitude sur les garde-fous en vigueur.
- Clémence envers les logiciels espions : L’administration a levé les sanctions contre des dirigeants de la société de logiciels espions Intellexa, dont les outils avaient été utilisés par des régimes autoritaires pour surveiller des dissidents et des journalistes.
Sous l’administration Trump, les contrôles à l’exportation sont devenus une arme de négociation commerciale plus qu’une simple mesure de sécurité nationale.
En résumé, l’attitude de l’administration Trump consiste à libérer le secteur privé de ses contraintes réglementaires tout en utilisant agressivement les outils de surveillance pour la sécurité nationale et la gestion des frontières, tout en traitant les règles d’exportation comme des actifs négociables dans sa stratégie commerciale globale.
C’est pourquoi, l’exportation des technologies américaines reste facilitée par certains facteurs structurels :
- Dominance du secteur privé : L’innovation en matière d’IA est aujourd’hui portée par l’industrie privée plutôt que par la recherche gouvernementale. Des entreprises américaines comme IBM, Palantir, Cisco, Amazon Rekognition et Clearview AI sont des acteurs majeurs à l’échelle mondiale, fournissant des technologies de surveillance dans au moins 32 pays.
- Nature « double usage » des technologies : Les technologies d’IA et de surveillance sont intrinsèquement à double usage (civil et militaire). Par exemple, la reconnaissance faciale peut être utilisée pour sécuriser un smartphone ou pour traquer des dissidents, ce qui rend la distinction réglementaire difficile à appliquer sans étouffer l’innovation commerciale.
- Limites des régimes multilatéraux : Les cadres internationaux actuels, comme l’Arrangement de Wassenaar, sont souvent jugés trop étroits ou obsolètes pour suivre le rythme rapide des avancées de l’IA. En conséquence, les États-Unis agissent souvent de manière unilatérale ou au moyen de coalitions restreintes comme les « Five Eyes » (États-Unis, Australie, Canada, Nouvelle-Zélande, Royaume-Uni) pour formaliser la coopération sur l’application des contrôles.
Ainsi, finalement, le contrôle social algorithmique s’étend dorénavant au monde entier. La Chine exporte à tout va, les Etats-Unis la suivent de près et l’Europe a adopté un cadre réglementaire qui restreint les Etats membres sans les empêcher totalement.
Au début de l’année 2026, plus de 50 pays intègrent désormais l’intelligence artificielle et la reconnaissance faciale dans l’espace public. Le monde est séparé en deux pôles : d’un côté, une adoption massive menée par la Chine, les États-Unis et diverses autocraties pour la sécurité ou le contrôle social ; de l’autre, un cadre relativement protecteur instauré par l’AI Act européen.
En somme, le monde est fracturé entre les nations qui normalisent la surveillance systématique et celles qui tentent de réguler les technologies à haut risque pour préserver les libertés individuelles.
L’Érosion de l’Autonomie Humaine
L’omniscience numérique, loin d’être un fantasme de scénaristes de séries télévisées, est devenue un produit commercial. La surveillance, autrefois un outil ponctuel de l’État, est désormais une condition de participation sociale. Le conformisme est un actif économique. Le comportement individuel devient la monnaie d’échange ou la clé d’accès à des services nécessaires.
L’enjeu ultime n’est pas la simple perte de la vie privée, mais l’érosion de l’autonomie individuelle, la capacité même de l’humain à s’autodéterminer. Les systèmes de police prédictive et les plateformes de scoring exploitent l’idéologie de la fragilité humaine pour justifier l’intervention en continu. Sont ainsi niés les droits de l’individu à disposer de son futur ou à une intimité. Le modèle de contrôle totalitaire se normaliser, non par la force ouverte, mais par l’ingénierie douce et omniprésente de l’algorithme.
Le droit, historiquement conçu pour des actions humaines délibérées, peine à réguler les processus décisionnels distribués entre humains et machines. Person of Interest devient ainsi une métaphore de ce désajustement : notre droit reste anthropocentrique, tandis que la surveillance devient machinique.
Techniquement, la vision de Person of Interest est désormais à l’œuvre. Juridiquement, elle expose une tension structurelle. Les régimes autoritaires intègrent la surveillance dans le droit positif (droit de la sécurité). Les régimes démocratiques tentent de la contenir par le droit protecteur (droit des libertés).
Entre ces deux pôles se forme un nouvel espace normatif, celui du droit algorithmique, où la régulation doit articuler responsabilité, explicabilité et souveraineté des données.
L’ère de La Machine est révolue. Seule l’Europe échappe encore marginalement au Samaritain. Non tant par l’effet du progrès technique, que par l’abandon volontaire du contrôle démocratique.
La Boétie en avait eu l’intuition forte : « Comment se peut-il faire que tant d’hommes […] supportent quelquefois un tyran seul, qui n’a de puissance que celle qu’ils lui donnent, qui n’a de pouvoir de leur nuire que celui qu’ils veulent bien endurer ? » (Discours de la servitude volontaire, éd. Payot & Rivages, 2000, p. 89-90). Et plus loin dans le texte, il soulignait souligne encore que le tyran n’a « autre chose que ce qu’a le moindre homme… sinon que l’avantage que vous lui faites pour vous détruire » (p. 138). L’implication est profonde : le pouvoir ou le contrôle n’est pas une substance extérieure, mais une relation de force que le dominé alimente par son propre désir de ne pas être libre.
Risque d’autant plus prégnant qu’il résulte des mouvements géopolitiques qui, à l’échelle de la planète, opposent la Chine et les Etats-Unis et enserrent l’Europe dans un étau de fer.
