Ce que Georges Orwell n’avait pas prévu

Le célèbre auteur du roman d'anticipation «1984» s'est trompé. En partie. Et ce n'est peut-être pas pour le mieux.
Grégoire Barbey

Georges Orwell avait imaginé une société dictatoriale où les technologies de surveillance seraient imposées par la force pour contrôler les comportements. Nombreuses sont les personnes à craindre que son fameux ouvrage 1984 soit prémonitoire. Qu’elles soient ici rassurées: Georges Orwell s’est trompé. Oh non, pas sur l’essentiel. Oui, la technologie sert à surveiller, à contrôler et à sanctionner les comportements déviants.

Mais ce qu’il n’a pas imaginé, c’est que ces technologies de surveillance des foules s’imposeraient par elles-mêmes, sans violence, sans effusion de sang, avec la bénédiction passive des sociétés modernes. Nous avons toutes et tous consenti, malgré nous, au hold-up de nos libertés individuelles par des entreprises privées ainsi que par les Etats. Le numérique fut à ses balbutiements la promesse de libertés nouvelles, d’un partage infini du savoir, d’une mise en relation vertueuse de tous les êtres humains, où qu’ils soient, n’importe quand, n’importe comment. L’humanité pouvait espérer effleurer une forme de conscience collective, augmentée, grâce aux technologies numériques.

Ce sont des entreprises qui avaient d’ailleurs à l’origine foi dans les principes d’un internet émancipateur qui sont devenues les principales actrices de l’asservissement généralisé des individus par la technologie. La géniale start-up Google, qui avait créé un moteur de recherche formidable, a vite été rattrapée par la dure réalité des marchés. Avec la bulle internet des années 2000, ses principaux pourvoyeurs de fonds ont exigé des résultats financiers. Google avait développé un outil incroyable, qui permettait d’accéder à des informations partout, tout le temps, tout en améliorant au fur et à mesure la pertinence des résultats de son moteur de recherche.

Mais Google a aussi découvert l’existence des traces numériques – les fameuses données personnelles qui nous concernent. Au départ, celles-ci ne servaient qu’à améliorer le fonctionnement de Search – le moteur de recherche. Mais petit à petit, il s’est avéré que ces informations étaient très précieuses et permettaient de dresser des profils précis des utilisatrices et utilisateurs. Google avait accès à une mine d’or sans commune mesure. Contrairement à une maxime populaire, «si c’est gratuit, c’est vous le produit», les individus ne sont pas le produit vendu par Google. C’est au contraire la matière première dont Google extrait des produits de prédiction, qu’il vend ensuite sur un marché des comportements futurs qui intéressent principalement les annonceurs – mais pas que.

En perfectionnant ses outils d’analyse, Google a peu à peu amélioré sa capacité de prédiction. La masse de données personnelles générées par les activités numériques humaines a explosé ces dernières décennies. Toutes ces précieuses informations ont permis d’améliorer la pertinence des profils utilisateurs, permettant de proposer des prédictions toujours plus précises. Pour que ce modèle économique soit viable – et il l’est, puisque Google est aujourd’hui la deuxième capitalisation boursière derrière Apple –, il fallait se garantir un accès permanent aux données personnelles, sans contrainte législative. Certes, les lois sur les protections des données ont quelque peu compliqué les choses, mais elles n’ont pas changé le paradigme qui prévaut toujours. Google peut se targuer de ne pas vendre les données qu’il collecte puisqu’il les garde jalousement. Ce qu’il vend, ce sont des produits de prédiction réalisés à partir de ces données qu’il détient.

La perversité du système a fait émerger le «new deal» de cette nouvelle forme de marché. L’utilisateur bénéficie de services gratuits et performants, en l’échange de la collecte et l’exploitation des données qui le concernent. Le motif invoqué est évidemment mensonger: ça ne servirait qu’à améliorer les services en question, dans le seul intérêt des utilisatrices et des utilisateurs.

Interrogez vos amis sur ce sujet. Vous seriez étonné de voir à quel point cette croyance selon laquelle ces données servent surtout à améliorer la qualité des services proposés est répandue et tenace. Tout l’écosystème de Google sert à étendre sa capacité à récolter les traces numériques dont il a besoin pour perfectionner ses outils de prédiction, et donc améliorer sa rentabilité. Les assistants vocaux, les outils d’analyse de tel ou tel comportement de la vie quotidienne, sont autant d’éléments qui permettent de capter l’essence même des expériences humaines et de transformer cette mine d’informations en outils de prédiction comportementale.

Ces prédictions ne cessent de se perfectionner. Des investissements pharamineux sont consentis dans la recherche. Les entreprises technologiques collaborent avec des scientifiques, notamment dans le domaine des neurosciences, pour comprendre comment influencer les comportements humains le plus efficacement possible. De cette façon, les outils de prédiction peuvent permettre de déterminer à quel moment un individu est le plus à même d’agir dans le sens voulu par une entreprise, un Etat ou une organisation, si le bon «aiguillon» capte son attention.

Toutes ces informations nourrissent des intelligences dites artificielles, qui ont besoin de toujours plus de données pour améliorer l’efficacité de leurs prédictions. Il faut donc toujours accroître le volume des données en circulation, favoriser la numérisation de l’expérience humaine dans tous les domaines de la vie quotidienne pour transformer ces traces numériques en revenus.

Ces entreprises ont découvert une nouvelle forme de capitalisme. La sociologue Shoshana Zuboff, qui a publié L’âge du capitalisme de surveillance, lui a donné le nom de «capitalisme de surveillance». Les services de ces entreprises sont les plus performants, parce que les revenus financiers qu’elles génèrent par la collecte et l’exploitation des données sont si gigantesques qu’elles peuvent investir dans des équipes de recherche et développement de pointe. Les outils créés par ces entreprises ne sont plus seulement des accessoires, ils deviennent des indispensables dans notre quotidien. Cela augmente la distorsion de concurrence, puisqu’il devient de plus en plus difficile pour une petite entreprise de concurrencer l’efficacité des services de ces géants de la tech’ qui d’ailleurs acquièrent toutes les start-ups qui développent des outils novateurs susceptibles de les intéresser – ou de leur faire de l’ombre…

Il n’est plus possible de protéger sa vie privée et son intégrité numérique en se soustrayant volontairement à la technologie. D’abord, la technologie est partout: on peut décider de ne pas utiliser de smartphone, de ne pas avoir internet chez soi, mais ça ne nous protège pas des gens qui n’ont pas cette attitude et qui récolteront malgré eux des données à notre sujet, permettant à ces entreprises de nous atteindre malgré cette vigilance accrue. D’autre part, il y a une pression sociale qui pousse à l’utilisation de ces technologies. Avec la pandémie, le recours à des applications de visioconférence comme Zoom s’est généralisé et banalisé. Quel demandeur d’emploi soucieux de sa vie privée oserait répondre à un potentiel futur employeur qui lui proposerait un entretien via Zoom qu’il préfère une autre méthode car il n’est pas à l’aise avec cette application?

L’argument selon lequel il suffit de décider de ne pas utiliser telle ou telle technologie n’est pas recevable, parce que la technologie n’est plus une «couche supplémentaire» dans notre existence. Elle en est une partie indissociable du reste.

La pandémie a largement favorisé l’utilisation d’applications de contrôle des comportements. Certains pays mesurent à l’aide de caméras disposées dans le domaine public le respect des distanciations spatiales entre les individus. D’autres proposent des applications de traçage, plus ou moins respectueuses de la vie privée, et pourtant dépendantes des géants du numérique pour fonctionner – puisqu’elles sont déployées sur des systèmes d’exploitation propriétaires. Les Etats sont au moins aussi avides que les entreprises privées pour ces informations qui peuvent leur permettre d’atteindre leurs objectifs sécuritaires. L’être humain est sans cesse tiraillé entre davantage de sécurité – ce qui signifie moins de libertés – et davantage de libertés – ce qui signifie plus de risques et donc moins de sécurité. Il semble néanmoins que la balance penche désormais dangereusement du côté des dispositifs sécuritaires.

L’humanité a développé une véritable aversion aux risques de la vie quotidienne. Cette notion d’aversion au risque, familière des disciplines de l’économie et de la finance, pousse les individus à accepter d’aliéner une partie de leurs libertés – sinon toutes – contre la certitude, ou l’apparence de la certitude, d’être mieux protégés.

Georges Orwell n’avait pas prédit que les technologies de surveillance s’apparenteraient à des chevaux de Troie qui se glisseraient dans tous les foyers du monde avec la bénédiction béate des individus eux-mêmes. Dans 1984, Winston Smith ignore où sont cachés les micros. Il sait qu’ils existent, mais il ne sait pas où exactement. Tout est suspect. En 2021, Winston Smith saurait où ces micros se trouvent. Dans la poche de pantalon où il range son smartphone. Dans sa télévision qui tourne sous Androïd et bénéficie de l’assistant vocal de Google. Winston Smith les aurait adopté lui-même, sans contrainte. Mais ce qu’il ne sait peut-être pas en revanche, et c’est tout le paradoxe de l’époque, c’est combien ces technologies dont il se sert tous les jours permettent de l’influencer, de le maintenir dans une bulle de filtre qui lui donne le sentiment d’être ouvert au monde, et qui pourtant ne lui présente que des choses «pertinentes», selon la définition qu’en ont fait les instruments d’analyse comportementale des entreprises qu’il nourrit avec ses traces numériques.

La crise sanitaire a augmenté la dépendance des individus aux technologies numériques. Et les Etats y ont aussi vu l’occasion d’expérimenter de nouvelles formes de contrôle, avec la bénédiction des citoyennes et des citoyens, inquiets d’être infectés par un virus dont on ne sait toujours pas tout. A quoi ressemblera l’après-pandémie? A un monde toujours plus sous contrôle, assurément.

La banalisation de la surveillance technologique a atteint son paroxysme ces derniers mois. Le seul espoir, c’est que suffisamment de gens prennent conscience du danger et se réveillent. Les entreprises technologiques s’appuient en grande partie sur l’absence de réglementation dans le «cyberespace», tout comme les «barons voleurs» du Gilden Age se prévalaient de la découverte de nouveaux territoires pour y imposer leurs propres lois. Les citoyennes et les citoyens doivent imposer aux autorités un agenda en matière de réglementation numérique. Il faut aussi créer et défendre de nouveaux droits individuels, comme la notion d’intégrité numérique, pour consacrer dans les constitutions modernes l’inaliénabilité de la dimension numérique de la vie humaine contemporaine.

Dans le cas contraire, une nouvelle forme de féodalisme pourrait bien s’inscrire comme nouveau modèle politique et économique dans la durée. Georges Orwell s’est trompé. En partie. Et ce n’est peut-être pas pour le mieux…

Partager cet article

Facebook
Twitter
Imprimer
Email

Laisser un commentaire