Algorithmocratie. L’économie numérique, un nouvel obscurantisme fondé sur la recherche de l’efficacité ?

Olivier Derruine

L’essor de l’économie numérique repose sur les progrès de l’informatique qui permettent de collecter un volume incommensurable de données et de les traiter grâce à des capacités de calcul sans cesse accrues. « En 2013, il y aurait eu environ 1.200 exaoctets d’informations stockées dans le monde, dont moins de 2 % sous forme non numérique. Il est extrêmement difficile de se faire une représentation claire d’un tel volume de données. Seraient-elles sous forme de livres imprimés qu’elles couvriraient la superficie totale des États-Unis sur cinquante-deux strates d’épaisseur. Sous forme de CD-ROM empilés, elles s’étireraient jusqu’à la lune en cinq piles séparées. […] La croissance de la quantité d’informations stockées est quatre fois plus rapide que celle de l’économie mondiale, et la puissance de calcul des ordinateurs va neuf fois plus vite [1]. »

Le traitement et l’analyse de données sont rendus possibles grâce au recours à des algorithmes toujours plus complexes. Un algorithme consiste en une série ordonnée d’opérations ou d’instructions qui mène à la résolution d’un problème. Les algorithmes ont proliféré en l’espace de quelques années : ils sont au cœur des moteurs de recherche, des réseaux sociaux, des sites de rencontre, des systèmes de fonctionnement des véhicules sans conducteurs, des robots industriels, des plateformes qui mettent en relation des prestataires de services et des clients potentiels, les modèles de projection des cours boursiers et d’autres indicateurs économiques, les achats d’actifs financiers (le trading à haute fréquence permettant d’effectuer des transactions à la vitesse de la nanoseconde), la recommandation de produits, la reconnaissance de la parole ou de signes biométriques, le diagnostic médical, la détection de fraude, etc.

Le degré de sophistication des algorithmes est devenu tel que pour reprendre l’expression d’Yves Caseau, « on fait croitre les algorithmes plus qu’on ne les écrit (« systems that are grown, not designed »). […] La séparation entre les paramètres de l’algorithme et les corpus de données qu’il traite n’existe plus [2]. » À partir du moment où l’algorithme est conçu, il fonctionne de manière autonome, ne requérant plus d’intervention humaine puisqu’il se perfectionne lui-même en s’ajustant en fonction des données reçues [3].

Or, parce qu’il s’affute lui-même en fonction des données qu’il ingère (par exemple, les recherches antérieures d’un internaute, sa localisation), « un algorithme opaque et fermé n’autorise pas la reproductibilité des résultats, il ne peut donc pas être régulé. Cela rend l’évaluation de sa fiabilité encore plus difficile [4] ». En France, l’Institut national de recherche en informatique et en automatique (Inria) a été chargé en décembre 2016 de concevoir une plate-forme appelée TransAlgo pour la transparence et la responsabilité des algorithmes et des données dans le cadre de la loi pour une République numérique. L’Inria fait office de pionnier dans le domaine et sa réalisation est regardée avec beaucoup d’intérêt par d’autres pays et organisations de défense des consommateurs et des usagers d’internet.

L’objectif de TransAlgo est de détecter les biais éventuels dans les algorithmes présents sur les sites internet. Ces biais peuvent être motivés par le fait que les algorithmes peuvent discriminer les internautes ou subordonner leurs intérêts propres à celui d’entreprises, comme lorsqu’un site de déplacement calcule un itinéraire qui n’est ni le plus court ni le plus rapide, mais qui fait passer l’internaute devant une enseigne commerciale.

La plateforme qui est le fruit d’une équipe pluridisciplinaire réunissant des scientifiques, des mathématiciens, des informaticiens, mais aussi des sociologues, des économistes et des juristes s’adressera au grand public et lui fournira des outils téléchargeables de test des algorithmes et des forums de discussion où les usagers pourront échanger leurs expériences.

L’illusion de la connaissance ?

Outre ce type de biais, « le big data tend à privilégier le “quoi” plutôt que le “pourquoi”. […] L’important n’est pas tant d’expliquer un phénomène, mais d’être capable de l’identifier et de le prédire [5] ». C’est ainsi que, excités par les nouvelles opportunités offertes par le big data, certains semblent perdre de vue ce que cela signifie concrètement : « Dans un monde de big data, fini l’obsession de la causalité » comme s’il s’agissait d’une tare, d’une addiction honteuse. « La plupart de nos institutions voient leur création reposer sur l’idée que le fondement des décisions humaines tient à un petit nombre d’informations exactes et de nature causale. Tout change quand les données deviennent massives, peuvent être traitées avec rapidité et ont une certaine tolérance à l’inexactitude. Les décisions peuvent alors être prises par des machines et non plus par des êtres humains. […] [Dans les sciences sociales] l’analyse des big data va maintenant remplacer les personnes qui étaient hautement qualifiées en matière d’enquêtes. Les disciplines des sciences sociales reposaient en effet largement sur les études d’échantillonnage et les questionnaires. Mais quand les données peuvent être massivement collectées auprès de gens menant leurs activités habituelles, les anciens biais associés à l’échantillonnage et aux questionnaires particuliers disparaissent. »

C’est ainsi que la société de la connaissance qui se profile risque bien d’être la société de l’absence de réflexion et d’autocritique dont toute démocratie saine et ouverte sur le monde se nourrit ! Au contraire, alors que l’humanité n’a jamais eu accès à autant de connaissances, elle semble en réalité se laisser duper par cette nouvelle idole que serait le big data. C’est un véritable culte qu’un nombre croissant de fidèles voue au dieu algorithme dans le sens où le culte se définit comme « un ensemble de pratiques d’hommage ou de vénération rendu par un groupe à une divinité, à un être mythique ou réel, à un inanimé ou à un phénomène à qui ce groupe reconnait une dimension de supériorité, d’excellence ou de sacré. »

Le danger est que l’emprise croissante des algorithmes sur nos vies et nos décisions et la sensation grisante d’approcher toujours plus du Graal qu’est la connaissance absolue nous empêchent de procéder à une critique en règles des algorithmes. C’est d’autant plus vrai qu’ils participent bien à cet état de satisfaction des individus tout en les enfermant dans leur propre monde [6]. Dans un monde de plus en plus complexe et rapide où tout semble interrelié et où les repères des uns et des autres s’estompent, les individus sont prêts à adopter et à défendre tout ce qui pourrait leur procurer un sentiment de réconfort. Or, les algorithmes utilisés par les moteurs de recherche et les réseaux sociaux tendent à confiner les utilisateurs dans une « bulle cognitive » ou « bulle filtrante ». Ils sont paramétrés de manière à présenter aux internautes les résultats (articles, sites, personnes…) qui sont le plus de nature à être en phase avec leur personnalité, leur vision du monde lesquelles sont catégorisées à partir de l’analyse par ledit algorithme de traces qu’ils ont laissées au gré de leurs navigations antérieures, de leur géolocalisation, de la fréquence et des choix des clics, des publicités regardées, des achats effectués, etc.

De la sorte, selon Katharina Viner, rédactrice en chef du Guardian, nous avons « moins de chances d’être exposés à une information qui nous stimulerait ou élargirait notre vision du monde, et donc moins de chances de tomber sur des faits qui réfuteraient des informations partagées par d’autres ». Ainsi, petit à petit « les filtres de personnalisation servent une sorte d’autopropagande invisible : nous endoctriner avec nos propres idées, amplifier nos désirs pour des choses familières et nous laissant inconscients des dangers cachés des territoires inconnus ». Ceci est d’autant plus préoccupant que beaucoup d’internautes s’informent — ou se désinforment ! — en se rendant sur les réseaux sociaux. « Cet isolationnisme intellectuel et culturel [génère] une étroitesse d’esprit, mais aussi une absence de confrontation d’idées préjudiciable à la vie civique. » Dès lors, c’est un jeu d’enfants pour les troles, les personnes et les organisations malveillantes de faire circuler les fausses informations et de parvenir à les draper d’un statut de « fait objectif » [7]. Pensons à la manière dont Daech ou les sympathisants de Trump ou de Le Pen utilisent les réseaux sociaux pour mobiliser, sans même parler des fake news véhiculées depuis la Russie [8].

Comme le souligne Renaud Maes dans sa contribution au présent dossier, le processus de « bulle filtrante » a aussi pour effet de normaliser les comportements individuels et jusqu’à l’image que les utilisateurs d’applications connectées ont d’eux-mêmes. Il suggère en particulier, en prenant pour exemple Tinder et Freeletics que les usagers peuvent progressivement se retrouver aliénés dans un projet de construction d’eux-mêmes qui est parfaitement compatible avec le cadre idéologique sous-jacent au néolibéralisme.

Le savoir, c’est le pouvoir (économique et politique)

De l’autre côté de l’écran et des fils, les Gafa (acronyme désignant Google, Apple, Facebook et Amazon) et leurs émules du numérique tirent de plantureux profits de ces évolutions en raison du gigantesque volume de données [9]. Ces données constituent une mine d’or pour qui les détient et sait les étudier pour en extraire toute leur valeur. À titre d’exemple, en rapportant le nombre de likes et autres contenus monétisables (comme les clics sur des publicités, des partages, etc.) à la valorisation de Facebook au moment de son introduction en Bourse, un bureau d’études de marchés valorisa chaque « like » et autre contenu monétisable à cinq centimes de dollar environ. Il en résulta donc que chaque utilisateur présentait pour Facebook une valeur d’une centaine de dollars [10].

Actuellement, la plupart de ces données ne sont pas exploitées par manque de conscience de la valeur cachée ou faute de connaissances ou de moyens techniques… Certains prétendent que seulement 1% de celles-ci serait réellement utilisé à sa juste valeur.

Antoine Delforge traite dans ce dossier de l’importante question des droits des individus et de la protection de leurs données. Il aborde notamment le nouveau règlement européen qui sera d’application d’ici quelques mois et la question des relations avec les États-Unis qui demeure épineuse en raison de la domination des Gafa, Microsoft et Twitter pour n’en citer que quelques-uns. Les données personnelles sont d’ailleurs une fameuse pierre d’achoppement pour les eurodéputés dans l’examen des accords du TTIP, actuellement au point mort. Tout récemment, en avril, les eurodéputés ont adopté une résolution dans laquelle ils ont mis en évidence « des lacunes qu’il faut combler de façon urgente afin de garantir une certitude juridique à tous les citoyens et les entreprises qui dépendent de cet accord », que le TTIP soit abandonné ou non.

Les États-Unis sont en effet plus permissifs que l’Europe dans l’utilisation des données personnelles et il n’y a pas que les grands groupes privés qui y trouvent leur compte. Le big data s’est d’ailleurs discrètement immiscé au centre de l’institution essentielle à toute démocratie : le processus électoral. Les campagnes électorales ont pris aux États-Unis une autre tournure depuis celle menée en 2008 par Barack Obama qui avait pris conscience de l’avantage que les réseaux sociaux lui offriraient sur son opposant. Si le démocrate utilisa son réseau social pour organiser sa campagne et mobiliser efficacement ses militants, c’est en 2012 qu’Obama conféra à cet outil une nouvelle dimension : « Obama va faire de son usage du web et des réseaux sociaux la véritable colonne vertébrale de sa campagne, un usage tourné vers l’extérieur, qui sera déterminant dans ses déplacements, dans ses discours et leurs ciblages, ainsi que dans les nouvelles manières d’utiliser les fameuses données. Il utilisera, par exemple, pour la première fois le targeted sharing proposé par Facebook : une application que ses fans acceptent d’installer pour lui donner accès à leurs réseaux individuels et à toutes les infos qui en découlent sur leurs amis etc. [11] » Quatre ans plus tard, Donald Trump s’appuiera lui aussi (mais tardivement) sur les big data pour compenser le désamour des médias traditionnels à son égard. Le candidat qui n’hésite pas à prendre des libertés avec la réalité et capitalise sur le rejet de « l’establishment » d’une grande partie de la population bénéficiera de l’effet de la bulle cognitive et l’alimentera en fake news. Cette bulle cognitive va l’aider à consolider sa base et lui amener des électeurs. Enfin, la campagne numérique de Trump fut originale à deux titres. D’une part, elle consista à concentrer un important budget sur les publicités en ligne et ciblées contrairement à Clinton pour qui la diffusion de spots sur les chaines traditionnelles resta primordiale. « Ce ciblage extrêmement précis a donné lieu à une campagne publicitaire en ligne comprenant plus de 100.000 messages différents adaptés au public, parfois variant de quelques détails, pour frapper au plus juste. » D’autre part, sa campagne exploita la faiblesse de Clinton qui était de mobiliser des groupes votant pourtant traditionnellement pour les démocrates. Trump et son équipe s’employèrent à dissuader définitivement les électeurs potentiels de Clinton à aller voter. Cette stratégie porta ses fruits.

Sans aller aussi loin que les États-Unis, les données personnelles ont également été utilisées à l’occasion de l’élection présidentielle française, à commencer par la phase des primaires, pour permettre aux équipes des candidats en lice d’opérer des frappes chirurgicales. Ces données sont agrégées de manière à « caractériser les quartiers en termes électoraux et sociologiques : quels sont les quartiers plutôt à gauche, à droite, indécis, jeunes, vieux, riches ou bobos. […] À partir de ces données, chaque pâté de maisons reçoit une note. Plus celle-ci est élevée, plus il est intéressant d’y faire du porte à porte. Quant aux zones où les habitants se déclarent déjà certains de leur choix ou rejettent le candidat, pas la peine d’y perdre du temps. »

Cela amène un certain nombre d’observateurs à s’inquiéter des dérives auxquelles ces pratiques de marketing politique pourraient aboutir. Le citoyen qui est au centre du ciblage risque — davantage que c’est déjà le cas aujourd’hui — de ne voir dans le programme du candidat que les aspects qui lui conviennent personnellement et de passer à côté de son projet pour l’ensemble de la société. Quant au candidat une fois élu, comment parviendra-t-il à concilier toutes les attentes de cette multitude de messages si finement calibrés ? Un échec de sa part pourrait nourrir la déception des citoyen(ne)s (63% d’Européens, 65% de Belges) qui estiment que leur voix ne compte pas dans leur propre pays et profiter aux extrêmes.

Un paradis économique sur un désert social et démocratique

Le recours aux algorithmes combinés aux plateformes de partage ne sera pas sans impact pour le monde du travail. Ces plateformes désignent la mise en relation d’individus, d’organisations et de ressources au sein d’un écosystème interactif qui crée de la valeur. Selon des experts du MIT [12], les plateformes vont prendre en charge et à un cout bien inférieur les activités et l’emploi de nombreuses firmes. La division du travail, théorisée par Adam Smith il y a deux siècles, sera poussée à son paroxysme grâce à l’intervention d’algorithmes toujours plus performants qui auront pour effet d’éclater une activité complexe en centaines de tâches beaucoup plus simples. Concrètement, tout cela donnera lieu à une prolifération du statut de travailleur freelance qui posera des défis en termes de stabilité et de prédictibilité du travail. Dans un tel contexte où les liens entre travailleurs se distendent, les syndicats devraient continuer à décliner. Comme les travailleurs tireront une part croissante de leurs revenus de leur participation aux plateformes, il faudra que celles-ci se mettent à investir dans la communauté qui gravite autour d’elle et l’approvisionne en ressources de manière à susciter de meilleures opportunités pour tous. Certaines plateformes comme Upwork offrent déjà des formations à leurs travailleurs indépendants lorsqu’ils dépassent un certain nombre d’heures d’activités.

Robert Reich [13], ancien secrétaire au Travail de Bill Clinton, prédit également des bouleversements sur le plan de la protection du travail : élimination du salaire minimum, érosion des normes de santé et de sécurité au travail, affaiblissement des congés payés et sursalaires pour heures supplémentaires. Cet exercice de prospective l’amène, comme d’autres, à soutenir l’idée de l’instauration d’un revenu minimum.

Ces travaux qui dressent des perspectives particulièrement sombres s’inscrivent dans le long terme. Les mécanismes à l’œuvre ne sont pas irréversibles pour autant que les décideurs politiques conçoivent des règlementations adéquates et que, au-delà des interlocuteurs sociaux, ce soit bien l’ensemble de la société civile qui s’empare de cette question qu’est le futur du travail.

Christophe Degryse nous montre que des changements sont déjà en cours. Auteur d’une importante étude pour l’Institut syndical européen [14], il synthétise les rouages de ce que d’aucuns appellent la « quatrième Révolution industrielle » et attire l’attention sur « ce management numérique qui vise à “optimiser” les processus et donc aussi les faits et gestes de chacun. [Ce management] risque de glisser vers une forme de réification du travailleur, celui-ci étant considéré comme un simple outil dont il convient de maximiser l’usage. Il y a là une menace claire de violation de la dignité du travailleur, qui s’accompagne d’un risque non négligeable de rupture de confiance entre salariés et management. » Christophe Degryse esquisse alors les contours d’une réelle économie du partage fondée sur la coopération et participant à un changement de paradigme économique. Il y aborde certes la problématique de l’économie numérique, mais aussi le rôle des robots dans les perturbations sur le marché du travail qui a fait l’objet d’une analyse du Fonds monétaire international en avril [15]. Dans cette étude, le FMI relève que la part du gâteau revenant aux travailleurs n’a cessé de se réduire au cours des vingt-cinq dernières années. « Entre 1991 et 2014, la part des salaires a décliné dans vingt-neuf des cinquante plus grandes économies ; ces vingt-neuf pays représentaient environ deux tiers du PIB mondial en 2014. Cette part salariale a surtout baissé dans les secteurs manufacturiers, des transports et de la communication. La moitié de la baisse peut être attribuée à l’impact des technologies. Il est important de noter que pour une modification donnée dans le prix relatif des investissements, les économies présentant une exposition élevée à la standardisation du travail ont expérimenté un déclin de la part salariale jusqu’à près de quatre fois plus importante que dans les autres pays » [Traduction de l’auteur].

Des économistes du MIT, de Yale et de la Boston University [16], ont de leur côté évalué, après observations de données s’étendant de 1993 à 2007, que l’introduction d’un robot industriel avait pour effet de remplacer en moyenne sept travailleurs. Or, selon certaines projections, il faut s’attendre à un triplement, voire un quadruplement du nombre de robots industriels d’ici 2025.

Le Parlement européen n’entend pas rester passif puisqu’il a adopté en février une résolution destinée à la Commission au sujet des règles de droit civil sur la robotique dont il faudrait se munir au niveau européen et avant que les États membres ne réagissent de manière dispersée. C’est l’émergence de robots de plus en plus autonomes qui a motivé ce texte. Celui-ci concerne les véhicules autonomes, les drones, les robots industriels, les robots de soins ou encore les robots de divertissement. Il ne se penche pas sur les robots pouvant être utilisés comme des armes.

Dans la mesure où l’introduction de robots pourrait entrainer des perturbations sur les marchés du travail, les eurodéputés demandent à la Commission d’en évaluer les « conséquences sur la viabilité des régimes de sécurité sociale des États membres ».

Ils avancent également plusieurs pistes pour encadrer les robots. Les eurodéputés envisagent de conférer à terme aux plus sophistiqués d’entre eux une personnalité juridique spécifique et à plus brève échéance, de mettre au point un cadre légal pour les robots actuellement disponibles sur le marché ou qui le seront au cours de la prochaine décennie. Le rapport aborde également la question de la responsabilité dans le cas où un dommage serait causé par un robot.

En tout état de cause, les mutations sur le marché du travail du fait de la robotisation et, plus récemment de l’émergence de l’économie numérique, ont aggravé les inégalités. L’on aurait tort de limiter la réflexion aux seules inégalités car bien plus que cela, c’est tout l’édifice démocratique qui vacille comme l’a bien identifié Hartmut Rosa : « L’organisation du processus de formation de l’opinion est plus longue si les groupes sociaux deviennent plus hétérogènes et dynamiques et si les conditions du milieu se modifient rapidement […] Ainsi, les mêmes processus qui accélèrent les changements sociaux, culturels et économiques [et qui sont une conséquence logique d’un système de marché capitaliste concurrentiel] ralentissent la formation de la volonté et la prise de décision démocratiques, ce qui mène à une nette désynchronisation entre la politique, d’une part, et la vie et l’évolution socioéconomiques, d’autre part. Aujourd’hui, la politique n’est donc plus perçue comme la force donnant le rythme du changement social et de l’évolution sociale. Bien au contraire, la politique “progressiste” — si le terme garde encore le moindre sens en 2010 — est aujourd’hui caractérisée par la volonté de ralentir les transactions et les développements technologiques et économiques afin d’établir ou de conserver un peu de contrôle politique sur la direction et le rythme de la société (par exemple à travers des instruments comme la taxe Tobin) [17]. »

Mais les techno-optimistes comme les techno-pessimistes ne perdent-ils pas de vue que l’économie immatérielle reste subordonnée à la production d’infrastructures physiques ? Or, dans sa contribution, José Halloy montre comment les lois de la physique, mais aussi la disponibilité en ressources joueront le rôle de freins vis-à-vis de la croissance fondée sur les nouvelles technologies de l’information. En effet, la miniaturisation des transistors approche du minimum possible et l’énergie à dépenser pour extraire toujours plus d’énergie, notamment celle qui est nécessaire pour alimenter les robots, objets connectés, etc., augmente. De la sorte, ce sera peut-être l’approche des limites naturelles de la planète qui nous permettra de préserver un minimum de fonctionnement démocratique…

[1V. Mayer-Schönberger, K. Cukier, Big data : La révolution des données est en marche, Robert Laffont, 2014.

[2Rapport à la secrétaire d’État française chargée du Numérique, Modalités de régulation des algorithmes de traitement des contenus, 2016.

[3Voir Th. Lemaigre, « Big data, la donnée c’est toi ! », La Revue nouvelle, 8, 2016, p. 34.

[4Datanomics, p. 25.

[5Datanomics, 26.

[6Voir l’entretien avec A. Rouvroy, « L’art de ne pas changer le monde », La Revue nouvelle, n° 8, 2016.

[8B. Campion, « Faut-il avoir peur de la propagande russe », sur le blog e-Mois de La Revue nouvelle.

[9Voir l’article de J.-L. Manise, « Refuser d’être une fourmi numérique », La Revue nouvelle, n°8, 2016, p. 38.

[10V. Mayer-Schönberger, K. Cukier, Big data : la révolution des données est en marche, Robert Laffont, 2013.

[12G. G. Parker, M. W. Van Alstyne et S. P. Choudary, How networked markets are transforming the economy – and how to make them work for you.

[13Why the sharing economy is harming workers - and what can be done, 2015.

[14Chr. Degryse, Impacts sociaux de la digitalisation de l’économie, ETUI, 2016

[15FMI, Understanding the downward trend in labor income shares, 2017

[16D. Acemogly, P. Restrepo, Robots and Jobs : Evidence from US labor markets, 2016.

[17H. Rosa, Aliénation et accélération, 2014.

Illustration de couverture : Theatre and High-Tech uck-03f00m par Shiv Integer (sous licence Creative Commons - Attribution - Non-Commercial - Share Alike license with contributions from uck, tse, ark19, mfinn, APuckNut, xILx, lex1029, carlofonda and DrLex).
Shiv Integer est un projet de Julien Deswaef et Matthew Plummer, exposé à iMAL en avril/mai 2017, Bruxelles.