Novembre 1, 2021
Par Lundi matin
377 visites


Sur la couverture de l’édition française, en bas Ă  gauche, un Ă©loge de Naomi Klein n’hĂ©site pas Ă  dire du livre qu’il est Ă  lui seul ’un acte d’autodĂ©fense numĂ©rique’. En bas Ă  droite de la couverture, on lit aussi ’PlĂ©biscitĂ© par The New York Times, The Financial Times, The Guardian et Barack Obama’. Le mĂȘme Obama au sujet duquel on apprend en avançant dans le livre qu’il a menĂ© ses campagnes Ă©lectorales avec l’aide d’un certain Eric Schmitt, ancien PDG de Google, afin de cibler massivement les Ă©lecteurs indĂ©cis qui pouvaient pencher en sa faveur [1].




VoilĂ  qui laisse songeur : contre qui peut-il bien nous dĂ©fendre, ce gros livre, si mĂȘme Obama l’adoube publiquement ? Plus concrĂštement, l’approche de Zuboff nous aide-t-elle Ă  y voir plus clair et trouver des failles lorsqu’on veut s’attaquer radicalement au monde de l’économie et du capitalisme ?

Dans un premier temps, nous reprendrons la structure du livre pour y glaner les analyses qui nous semblent pertinentes et permettre Ă  celles et ceux qui n’ont pas le temps de lire le livre d’en avoir une petite idĂ©e. Ensuite, on verra pourquoi la critique de Zuboff rate au moins en partie sa cible parce qu’elle se fonde sur un socle pourri dĂšs l’origine. 

I. Naissance et apogée du capitalisme de surveillance

« vous avez besoin de gagner, mais vous feriez mieux de gagner en douceur Â»

Eric Schmitt

Passons la couverture tristement comique et ouvrons le livre. Voici la dĂ©finition autour de laquelle tourne le livre : ’Le capitalisme de surveillance revendique unilatĂ©ralement l’expĂ©rience humaine comme matiĂšre premiĂšre gratuite destinĂ©e Ă  ĂȘtre traduite en donnĂ©es comportementales. Bien que certaines de ces donnĂ©es soient utilisĂ©es pour amĂ©liorer des produits ou des services, le reste est dĂ©clarĂ© comme un surplus comportemental propriĂ©taire, qui vient alimenter des chaĂźnes de production avancĂ©es, connues sous le nom d’ ’intelligence artificielle’, pour ĂȘtre transformĂ© en produits de prĂ©diction qui anticipent ce que vous allez faire, maintenant, bientĂŽt, plus tard. Enfin, ces produits de prĂ©diction sont nĂ©gociĂ©s sur un nouveau marchĂ©, celui des prĂ©dictions comportementales, que j’appelle les marchĂ©s des comportements futurs.’

L’idĂ©e gĂ©nĂ©rale de Zuboff est relativement simple : aprĂšs avoir transformĂ© la terre, la monnaie et le travail en marchandises, le capitalisme est en train de faire la mĂȘme chose avec l’expĂ©rience humaine – elle dit mĂȘme parfois la nature humaine. Comment transforme-t-on de l’expĂ©rience en marchandise ? C’est tout l’enjeu des deux premiĂšres parties du livre.

A. La naissance du capitalisme de surveillance : le surplus comportemental

Le rĂ©cit de Zuboff a l’avantage et l’inconvĂ©nient de dramatiser ses explications au point de dĂ©crĂ©ter que le capitalisme de surveillance naĂźt prĂ©cisĂ©ment en 2001-2002, lorsque des Ă©conomistes et ingĂ©nieurs de Google se rendent compte de la maniĂšre dont ils peuvent exploiter les requĂȘtes des utilisateurs pour gĂ©nĂ©rer des publicitĂ©s personnalisĂ©es. ’Le capitalisme de surveillance a Ă©tĂ© inventĂ© par un groupe spĂ©cifique d’ĂȘtres humains en un lieu et Ă  une Ă©poque spĂ©cifique. Ce n’est ni un rĂ©sultat inhĂ©rent Ă  la technologie numĂ©rique, ni une expression nĂ©cessaire du capitalisme de l’information’ [2]. Avantage : resituer prĂ©cisĂ©ment les choses, les initiatives, les manƓuvres et les stratĂ©gies afin de dĂ©faire l’image d’un ’systĂšme’ et d’une ’technologie’ simplement autonomes et inĂ©vitables dans leur dĂ©ploiement. InconvĂ©nient : rĂ©duire tout Ă  quelques idĂ©es de gĂ©nies plus ou moins mal intentionnĂ©s et laisser de cĂŽtĂ© ce qu’il y a de nĂ©cessaire et de plus profond dans cette dynamique.

Beaucoup ont relevĂ© avant Zuboff qu’au dĂ©part, Google faisait tout pour dĂ©velopper un moteur de recherche qui ne soit pas dĂ©voyĂ© par la publicitĂ©. Ces paroles de Sergey Brin et Larry Page en 1998 en tĂ©moignent : ’nous sommes convaincus que la question de la publicitĂ© suscite assez de motivations mixtes pour qu’il soit crucial de disposer d’un moteur de recherche compĂ©titif qui soit transparent et appartienne au domaine universitaire’ [3]. Sauf que tout se complique trĂšs vite : la bulle internet explose, les investisseurs demandent plus de rendements [4], et voilĂ  que les dirigeants demandent aux Ă©quipes d’Adwords qui s’occupent de la publicitĂ© de trouver des nouvelles sources de recettes. Une foule de brevets est alors dĂ©posĂ©e en quelques annĂ©es pour lier les requĂȘtes des utilisateurs Ă  des publicitĂ©s qui leur correspondent . Évidemment, Google ne s’en tient pas qu’aux requĂȘtes sur son moteur : il se sert de l’ensemble des donnĂ©es qu’il peut recueillir sur un utilisateur afin de cibler au mieux la publicitĂ© le concernant, donnĂ©es qu’on nomme les UPI pour user profile information. Cela comprend les donnĂ©es de Google sur toutes les recherches d’un utilisateur mais aussi toutes les donnĂ©es prĂ©sentes en ligne Ă  son propos : ’ces donnĂ©es peuvent ĂȘtre fournies par l’utilisateur, par un tiers autorisĂ© Ă  les divulguer et/ou dĂ©rivĂ©es des actions de l’utilisateur. Certaines donnĂ©es peuvent ĂȘtre dĂ©duites ou prĂ©sumĂ©es en recourant Ă  d’autres donnĂ©es utilisateur du mĂȘme utilisateur et/ou d’autres utilisateurs’ [5]. En clair, Google s’approprie tout ce qu’il est possible de savoir sur une personne pour gĂ©nĂ©rer des publicitĂ©s plus pertinentes. Rien de trĂšs nouveau mais c’est Ă  partir de ces donnĂ©es que Google dĂ©couvre et exploite ce que Zuboff appelle le ’surplus comportemental’, pierre de touche du capitalisme de surveillance. Ce surplus dĂ©signe la part d’informations sur un utilisateur qui permet d’infĂ©rer ses comportements, ses idĂ©es, ses intentions. L’image qui revient sans arrĂȘt sous la plume de Zuboff est celle du miroir sans tain derriĂšre lequel des processus automatisĂ©s enregistrent nos moindres comportements pour en dĂ©duire les suivants et proposer dans l’intervalle aux annonceurs les plus intĂ©ressĂ©s (et aux plus offrants) de diffuser leurs pubs.

On a entendu mille fois ce refrain et il ne se passe pas une annĂ©e sans que l’on parle Ă  toutes les sauces de la maniĂšre dont Google ou n’importe quelle autre entreprise exploite nos donnĂ©es personnelles. Ce qui est peut-ĂȘtre moins connu, c’est l’affinitĂ© entre le surplus comportemental Ă  la Google (l’extraction massive de donnĂ©es) et les intĂ©rĂȘts politiques de l’époque pour de telles pratiques. Alors que plusieurs tentatives lĂ©gislatives de limiter la collecte de donnĂ©es personnelles avaient dĂ©jĂ  Ă©mergĂ©es Ă  la fin des annĂ©es 90, les attentats du 11 septembre 2001 rebattent les cartes. DĂ©sormais, toute collaboration entre les services de renseignement et les entreprises privĂ©es qui permet d’en savoir le plus possible sur n’importe qui est plus que bienvenue. DĂšs 1997, le directeur de la CIA, George Tenet, disait : ’La CIA a besoin de nager dans la Valley’. En 99, la sociĂ©tĂ© d’investissement In-Q-Tel, financĂ©e par la CIA, est ouverte dans la Silicon Valley pour Ă©tablir des partenariats et grappiller tout ce qui se fait de pertinent en technologies de pointe. Les attaques du 11 septembre ont Ă©tĂ© ressenties, du point de vu du renseignement amĂ©ricain, comme une humiliation : ils n’étaient pas parvenus Ă  Ă©tablir les liens permettant d’anticiper les attaques. En 2013, le directeur de la CIA Michael Hayden admet d’ailleurs que l’agence ’pourrait Ă  juste titre ĂȘtre accusĂ©e d’avoir militarisĂ© Internet’ [6]. Du point de vue lĂ©gislatif, on note aussi que ’avec les attentats du 11 septembre 2001, tout changea. DĂ©sormais, la prioritĂ© Ă©tait massivement donnĂ©e Ă  la sĂ©curitĂ© plutĂŽt qu’à la vie privĂ©e’ (Peter Swire, conseiller en chef pour la protection de la vie privĂ©e [7]). DĂšs 2002, un ex-amiral de la NSA, John Poindexter, propose le programme TIA pour Total Information Awareness qui veut se rendre capable de dĂ©tecter toute information pertinente dans la masse des donnĂ©es mondiales disponibles. En 2003 et 2004, la NSA et la CIA payent Google pour utiliser des services spĂ©ciaux d’extraction de donnĂ©es proposĂ©s par le moteur de recherche. Plusieurs projets sont entiĂšrement le fruit de coopĂ©ration ou d’hybridation entre Google et les services de renseignement. C’est le cas par exemple de ’Keyhole’, une entreprise de cartographie acquise par Google en 2004 et dont le bailleur de fond majeur n’était autre que In-Q-Tel : Keyhole deviendra ensuite la colonne vertĂ©brale de Google Earth puis Google Maps ; c’est Ă©galement le cas de ’Recorded Future’, qui surveille chaque aspect de la toile en temps rĂ©el pour prĂ©dire les Ă©vĂ©nements futurs et dans laquelle Google et In-Q-Tel ont investit en mĂȘme temps. Pour rĂ©capituler, voici quelques mots de l’ancien directeur de la NSA en 2010, Mike McConnell dans un article du Washington Post, qui devraient donner Ă  penser Ă  tous ceux qui rĂ©clament un cyberespace libre et sans frontiĂšres :

’Il faut construire un partenariat effectif avec le secteur privĂ© de sorte que les informations puissent circuler rapidement entre public et privĂ©, confidentiel et non-confidentiel […] pour protĂ©ger l’infrastructure dĂ©terminante de la nation. De rĂ©cents comptes rendus sur un possible partenariat entre Google et le gouvernement pointent le type d’efforts communs – et de dĂ©fis partagĂ©s – que nous sommes susceptibles de voir Ă  l’avenir. […] de tels arrangements brouillent les eaux entre le rĂŽle traditionnel du gouvernement et le secteur privĂ© […]. Le cyberespace ne connaĂźt pas de frontiĂšres, et nos efforts dĂ©fensifs doivent ĂȘtre, eux aussi, sans couture’

Cette tendance n’a jamais cessĂ© de se renforcer et il serait vain de chercher Ă  savoir qui en profite le plus entre les entreprises de la Valley et le gouvernement. Passons sur les pages amusantes dans lesquelles Zuboff dĂ©crit toutes les stratĂ©gies par lesquelles Google fait tout pour maintenir des ’douves autour du chĂąteau’ ainsi que des ’fortifications’ Ă  coup de rĂ©munĂ©rations de travaux universitaires et autre lobbying intensif Ă  Washington. Allons directement Ă  la deuxiĂšme Ă©tape de la courte histoire du capitalisme de surveillance.






B. L’avancĂ©e du capitalisme de surveillance

« Avancez vite et cassez des choses. Si vous ne cassez rien, vous n’avancez pas assez vite ! Â» Mark Zuckerberg

La deuxiĂšme partie de l’ouvrage insiste sur l’approfondissement et la diversification des revenus recherchĂ©s par le capitalisme de surveillance. Ces dynamiques reposent en grande partie sur la tendance ubiquitaire de l’informatique, dĂ©jĂ  Ă©voquĂ©e dans le premier article de notre rubrique. On connaĂźt la fameuse phrase d’Eric Schmitt en 2015 au Forum Ă©conomique mondial de Davos : ’Internet va disparaĂźtre. Il y aura tant d’adresses IP […], tant d’appareils, de capteurs, d’objets connectĂ©s, tant d’élĂ©ments avec lesquels on peut interagir qu’on ne s’en rendra mĂȘme plus compte. Ils feront partie de votre existence en permanence. Imaginez : vous entrez dans une piĂšce et tout est dynamique !’ [8]. Il n’est pas question de croire sur parole les propos publicitaires de Schmitt, qui ne faisait alors que citer Mark Weiser (’Les technologies les plus profondes sont celles qui disparaissent. […] Des machines qui s’adaptent Ă  l’environnement des individus au lieu de forcer lesdits individus Ă  s’adapter au leur : voilĂ  qui rend l’emploi d’un ordinateur aussi revigorant qu’une promenade en forĂȘt’, etc). Il s’agit plutĂŽt de faire voir les nouvelles tendances qui permettent de faire de l’argent : vendre des objets connectĂ©s ; rĂ©cupĂ©rer des masses de donnĂ©es toujours plus grandes ; exploiter ces donnĂ©es pour fournir des prĂ©dictions plus efficaces ; et par ces anticipations prĂ©dictives inciter Ă  de nouveaux comportements.

Avant de donner des exemples de ces dĂ©veloppements, mentionnons qu’une fois encore, intĂ©rĂȘts Ă©tatiques et privĂ©s ne sont pas Ă©trangers les uns aux autres. Si la surveillance et le renseignement font Ă©videmment partie des fonctions de tout gouvernement qui se respecte, la modification des comportements ou la ’conduite des conduites’ en est depuis longtemps une prĂ©rogative essentielle. En revenant sur les vieux dossiers de la CIA dans les annĂ©es 50, Zuboff rappelle Ă  qui l’aurait oubliĂ© que celle-ci avait dĂ©veloppĂ© ’une palette de programmes destinĂ©e Ă  prĂ©dire, Ă  contrĂŽler et Ă  modifier les comportements humains’ [9]. Alors que la guerre de CorĂ©e avait popularisĂ© les techniques communistes de ’lavage du cerveau’ qui avaient rĂ©duits les prisonniers de guerre amĂ©ricain Ă  l’état de ’robots passifs’ – selon Allen Dules, ancien directeur de la CIA – il fallait donc ’que la CIA s’engage rapidement dans la recherche sur le dĂ©veloppement du ’contrĂŽle mental’, ce qui allait de la ’destructuration’ et de la ’reprogrammation’ de l’individu jusqu’à la modification des attitudes et des actions de tout un pays’ [10]. La plupart de ces recherches furent menĂ©es dans le cadre du projet MK-Ultra et gardĂ©es secrĂštes car, comme le dit un rapport de l’Inspection GĂ©nĂ©rale en 63 : ’la recherche sur la manipulation du comportement humain est considĂ©rĂ©e par de nombreuses autoritĂ©s mĂ©dicales et apparentĂ©es comme une pratique contraire Ă  la dĂ©ontologie ; par consĂ©quent, la rĂ©putation des spĂ©cialistes participants au programme MK-Ultra risque d’en souffrir’. Ce n’est que dans les annĂ©es 70 que les choses seront connues, aprĂšs une enquĂȘte du SĂ©nat. PassĂ© le scandale, ces applications ont tout simplement migrĂ©…vers des applications civiles dans toutes sortes d’institutions (Ă©coles, usines, prisons, hĂŽpitaux, etc) [11].

Pas Ă©tonnant, dĂšs lors, que ce nouvel Ă©tat d’esprit se soit largement diffusĂ© au sein du capitalisme de surveillance en quĂȘte de nouveaux profits. L’enjeu de cette nouvelle phase est de ne plus se contenter de rĂ©cupĂ©rer des donnĂ©es en ligne, via les requĂȘtes Google des internautes, mais d’aller puiser directement Ă  la source, au contact du rĂ©el. Et cette extraction, il s’agira de l’approfondir toujours plus en allant extraire des donnĂ©es toujours plus intimes (on sonde le sommeil, la santĂ©, les humeurs, etc). En plus de ces Ă©conomies de gamme (Ă©largir le champ des donnĂ©es collectĂ©es et leur profondeur intime), le capitalisme de surveillance vise des Ă©conomies d’action : ’ces interventions sont destinĂ©es Ă  amĂ©liorer la certitude de prĂ©diction en rĂ©alisant un certain nombre d’actions : elles incitent (nudge), elles ajustent (tune), elle aiguillonnent (herd), elles manipulent, elles modifient les comportements dans des directions spĂ©cifiques, cela pouvant se traduire par l’insertion d’une expression particuliĂšre dans votre fil d’actualitĂ© Facebook, l’apparition opportune d’un bouton ACHETER sur votre tĂ©lĂ©phone ou le blocage programmĂ© de votre voiture lorsque vous avez oubliĂ© de rĂ©gler votre prime d’assurance’ [12]. Comme l’écrit encore Zuboff : ’Avec cette rĂ©orientation du savoir vers le pouvoir, automatiser les flux d’information nous concernant ne suffit plus ; le but est dĂ©sormais de nous automatiser’ [13]. Cela nous rappelle qu’un des dangers de la technologie aujourd’hui n’est pas de faire face sous peu Ă  des machines ’intelligentes’ ou ’autonomes’ mais rĂ©side plutĂŽt dans le fait de devenir nous-mĂȘme des automates Ă  bien des Ă©gards. Comme le dĂ©crit bien un ingĂ©nieur avec lequel Zuboff s’est entretenu : ’Ce n’est plus seulement une question d’informatique ubiquitaire. Le vĂ©ritable objectif, Ă  prĂ©sent, c’est l’intervention, l’action et le contrĂŽle ubiquitaires. Le vĂ©ritable pouvoir, c’est qu’on est maintenant capable de modifier des actions en temps rĂ©el dans le monde rĂ©el. […] Des analyses en temps rĂ©el qui se traduisent sous des formes d’action en temps rĂ©el’ [14].

Les exemples de ces maniĂšres de modifier et d’influencer les comportements sont lĂ©gions, d’autant qu’elles existent au moins depuis l’invention de la publicitĂ©, si ce n’est depuis toujours mais sous des formes diffĂ©rentes. Zuboff se contente d’en exposer quelques-unes parmi celles qui se sont rĂ©pandues grĂące Ă  la prolifĂ©ration des donnĂ©es comportementales. Le tuning ou ’ajustement’ implique des ’amorces subliminales destinĂ©es Ă  influer subtilement sur le flux comportemental’. Une variante particuliĂšrement en vogue actuellement est le nudge qui se dĂ©finit par ’tout Ă©lĂ©ment d’une architecture du choix qui modifie le comportement des individus d’une maniĂšre prĂ©visible’ [15] (une salle de classe oĂč tout le monde fait face au professeur, un site web qui vous force Ă  accepter telle ou telle condition par son design mĂȘme, une statistique qui incite Ă  payer vos impĂŽts en vous indiquant innocemment que 90 % des français les payent Ă  temps, etc). Dans le mĂȘme genre, on trouve Ă©galement le herding, l’aiguillonnage, qui repose sur un contrĂŽle des Ă©lĂ©ments du contexte immĂ©diat d’un individu (bloquer le moteur d’une voiture Ă  distance, activer telle ou telle option d’un appareil, etc). ’Nous apprenons Ă  composer la musique ; aprĂšs quoi, c’est elle qui se charge de les faire danser’, comme l’explique un dĂ©veloppeur de logiciels. TroisiĂšme genre de technique, le ’conditionnement’, tout simplement : des comportements naturels sont ’sĂ©lectionnĂ©s’ dans l’environnement immĂ©diat et parviennent au succĂšs. C’est aux expĂ©rimentations du behavioriste B.F. Skinner sur les pigeons Ă  Harvard qu’il faut remonter ici : en rĂ©compensant les pigeons, il parvenait Ă  ’renforcer’ tel ou tel comportement par rapport Ă  tel autre. Comme le dit un data scientist d’une entreprise de la Silicon Valley interrogĂ© par Zuboff, ’le conditionnement Ă  grande Ă©chelle est essentiel Ă  la nouvelle science de l’ingĂ©nierie de masse des comportements humains’ [16]. L’avantage des souris de laboratoire, c’est que l’on peut expĂ©rimenter sur elles quasi-infiniment. Or, avec les nouveaux outils de collecte et d’analyse de donnĂ©es, ’l’expĂ©rimentation peut ĂȘtre automatisĂ©e de A Ă  Z’ Ă  en croire les paroles de Hal Varian, l’économiste en chef de Google. Il en va ainsi des expĂ©rimentations ’grandeur nature’ de Facebook sur plus de 61 millions de personnes et portant ’l’influence sociale et la mobilisation politique’, menĂ©es en 2010. Au cours de cette expĂ©rimentation contrĂŽlĂ©e et randomisĂ©e, ’les chercheurs manipulĂšrent le contenu social et mĂ©diatique des messages Ă©lectoraux dans les fils d’actualitĂ© de prĂšs de 61 millions d’utilisateurs de Facebook’ [17]. Un premier groupe voyait un message encourageant Ă  voter en haut du fil d’actualitĂ© avec un lien d’information sur la localisation des bureaux de vote, un bouton ’j’ai voté’, le tout accompagnĂ© de photos d’amis ayant votĂ©. Les rĂ©sultats montrent que les utilisateurs ayant reçu le message Ă©taient plus nombreux Ă  cliquer sur le bouton ’j’ai voté’. Au cours d’élections en 2010, on comptait environ 60 000 votants supplĂ©mentaires et environ 280 000 autres mus par un effet de ’contagion sociale’, le tout provoquĂ© par ces messages sociaux manipulĂ©s. D’autres expĂ©riences ont permis de mettre en Ă©vidence l’impact affectif de ce qui apparaĂźt sur le fil d’actualitĂ© Facebook. Dans un autre genre, un certain Alexandre Kogan, ancien de Cambridge, a rĂ©ussi Ă  rassembler plus de 270 000 personnes rĂ©munĂ©rĂ©es pour effectuer des test psychologiques, le tout sans leur dire qu’il avait Ă©galement accĂšs Ă  leurs profils Facebook. L’opĂ©ration a permis d’établir des profils psychologiques rĂ©els (entre 50 et 87 millions) Ă  partir des donnĂ©es en ligne, lesquels profils ont ensuite Ă©tĂ© vendus Ă  l’entreprise Cambridge Analytica…dont on connaĂźt dĂ©sormais le rĂŽle qu’elle a jouĂ© dans l’élection de Trump en 2016.

On pourrait continuer ce catalogue des innovations toujours plus poussĂ©es pour restituer des informations (voir le projet SEWA qui tentent d’analyser les Ă©motions gĂ©nĂ©rĂ©es par un programme pour mesurer le degrĂ© de satisfaction de l’utilisateur) ou influencer directement les comportements (de la publicitĂ© aux horreurs de la CIA jusqu’aux restaurants qui payent Pokemon Go afin de faire venir manger les joueurs prĂšs de chez eux) et Zuboff ne s’en prive pas tout au long de cette deuxiĂšme partie. NĂ©anmoins, il importe de se dĂ©faire de ces accumulations accablantes et parfois grossiĂšres oĂč le spectateur indignĂ© fait parfois jeu Ă©gal avec le publicitaire mensonger. Mais avant de passer aux critiques, l’intĂ©rĂȘt du livre de Zuboff est qu’il propose une tentative de synthĂšse du nouveau type de pouvoir ou de gouvernementalitĂ© qui se dessine au travers de ces pratiques.


C. Du pouvoir instrumentarien pour une troisiÚme modernité

“Nous devons crĂ©er un systĂšme nerveux pour l’humanitĂ© qui puisse consolider nos systĂšmes sociaux partout sur la planĂšte”, Alex Pentland

Dans cette troisiĂšme partie, Zuboff s’attaque Ă  l’instrumentarisme qu’elle dĂ©finit comme ’l’instrumentation et l’instrumentalisation du comportement Ă  des fins de modification, de prĂ©diction, de monĂ©tisation et de contrĂŽle’ [18]. Jusqu’ici, rien de nouveau. Elle prĂ©tend que le pouvoir « instrumentarien Â» qui en dĂ©coule se distingue d’un pouvoir totalitaire auquel on aurait trop facilement tendance Ă  l’associer, en tĂ©moigne l’expression de ’Big Brother’ que l’on retrouve partout associĂ©e aux nouvelles technologies (reconnaissance faciales, camĂ©ras, etc). Le totalitarisme vise avant tout le contrĂŽle des Ăąmes comme l’explique Mussolini dans La Doctrine du fascisme (le fascisme c’est ’l’ñme de l’ñme […] Il veut refaire non pas les formes de la vie humaine, mais son contenu’) ou Staline (’C’est ce qui importe, la production des Ăąmes humaines’). Le pouvoir « instrumentarien Â», lui, vise plutĂŽt les organismes, les corps dans ce qu’ils ont d’extĂ©rieur, de concret, les corps comme objets dotĂ©s de comportements. On peut douter de cette distinction rigide entre Ăąme et corps et de la catĂ©gorie mĂȘme de totalitarisme qui permet Ă  Zuboff de distinguer les deux pouvoirs, reste qu’elle tire une gĂ©nĂ©alogie plutĂŽt convaincante de l’approche qui permet Ă  une nouvelle rationalitĂ© gouvernementale de s’imposer depuis quelques dizaines d’annĂ©es.

Selon elle, c’est dans le behaviorisme de Skinner qu’il faut chercher la philosophie « instrumentarienne Â». Le behaviorisme consiste justement Ă  s’intĂ©resser Ă  des ĂȘtre en les prenant comme des boĂźtes noires, c’est-Ă -dire en observant uniquement les comportements extĂ©rieurs, visibles, identifiables ’objectivement’. Dans cette approche, il est donc interdit de supposer une Ăąme ou une intention Ă  l’organisme observĂ©. On peut ensuite expĂ©rimenter divers types de situations pour voir comment le comportement de l’organisme change ou non (les pigeons Ă  qui l’on donne des rĂ©compenses ou des punitions pour voir comment ils rĂ©agissent). À partir de lĂ , on peut commencer Ă  Ă©tablir des rĂšgles de comportements sans avoir besoin de notions mal dĂ©finies comme l’ñme, l’esprit ou la volontĂ©. On pourrait juger qu’il s’agit lĂ  de prĂ©ceptes un peu naĂŻfs et peu dommageables, sauf que Skinner en tirait finalement toute une vision du monde et une politique. Selon lui, les notions de libertĂ© ou d’autodĂ©termination n’ont que peu de sens : elles Ă©manent essentiellement du fait que nous ne savons pas ce qui nous dĂ©termine. Si je choisis tel candidat, je pense que je le fais parce que je suis libre mais je le fais en rĂ©alitĂ© parce que j’y suis dĂ©terminĂ© pour des raisons qui m’échappent (par exemple parce que Facebook m’incite Ă  le faire). Ce qu’il faut, c’est se doter au maximum des moyens de connaĂźtre l’ensemble des causes qui dĂ©terminent les humains pour ensuite pouvoir Ă©tablir des politiques publiques sur la base d’une parfaite rationalitĂ© scientifique. On pourrait alors guider l’humanitĂ© objectivement vers des cieux meilleurs, eux-mĂȘmes objectivement dĂ©finis comme ’bons’. Au contraire, des notions comme la libertĂ©, l’autodĂ©termination ou la dignitĂ© sont des obstacles qui gĂ©nĂšrent de la confusion et de la discorde, empĂȘchant d’avancer dans la bonne direction. Dans un livre justement intitulĂ© Beyond Freedom and Dignity, Skinner Ă©crit : ’Il nous faut accomplir de grands changements dans le comportement humain, et nous n’y parviendrons pas Ă  l’aide des seules sciences de la physiques et de la biologie, avec toute la bonne volontĂ© du monde […]. Ce dont nous avons besoin, c’est d’une technologie du comportement […] comparable en puissance et en prĂ©cision Ă  la technologie physique ou biologique. [19]’


VoilĂ  pour l’hĂ©ritage. Aujourd’hui, internet et les technologies numĂ©riques offrent la possibilitĂ© Ă  qui les contrĂŽle de rĂ©aliser le programme skinnĂ©rien d’une vĂ©ritable technologie du comportement ou, pour reprendre les mots de ses hĂ©ritiers comme Alex Pentland, d’une vĂ©ritable ’physique sociale’. Ce dernier, directeur du Human Dynamics Lab au MIT et auteur d’un livre Ă  succĂšs intitulĂ© Social physics, a justement passĂ© les vingt derniĂšres annĂ©es Ă  chercher les techniques qui permettaient d’observer et de rationaliser les comportements humains. Parfois surnommĂ© le ’parrain des accessoires connectĂ©s’, il conseille toutes sortes d’organisations (Google, Nissan, Telefonica, l’ONU, etc). Alors que Skinner suscitait colĂšre et indignation pour ses positions provocantes, Pentland est plutĂŽt aurĂ©olĂ© de gloire et de succĂšs. Alors que Skinner se plaignait du manque d’instruments et de mĂ©thodes Ă  sa disposition pour mesurer le comportement humain, Pentland a tout ce qui lui faut Ă  disposition. En 2002, il Ă©crit avec une collaboratrice ’nous avons la conviction que la captation et la modĂ©lisation des interactions physiques entre les individus constituent un rĂ©servoir non exploité’ [20]. Puis, il dĂ©veloppe le ’sociomĂštre’, sorte de capteur portable permettant d’enregistrer et d’analyser divers types d’informations. En 2005, il dĂ©veloppe avec Nathan Eagle la notion d’ ’exploitation du rĂ©el’ en utilisant les rĂ©servoirs de donnĂ©es que sont les tĂ©lĂ©phones portables. À partir d’expĂ©riences menĂ©es sur leurs Ă©tudiants, ils montrĂšrent tout ce qu’il est possible d’apprendre en analysant ces donnĂ©es multiples. En 2009, il rĂ©alise des expĂ©riences Ă  l’aide d’un badge sociomĂ©trique avec des employĂ©s de bureau et fonde Sociometric Solutions qui deviendra Humanyze en 2015, qui fournit en badges et conseille un certain nombre de grandes entreprises. Pentland explique d’ailleurs qu’il a convaincu la Bank of America de synchroniser les pauses cafĂ© afin d’augmenter les interactions entre employĂ©s pour augmenter la productivitĂ© – il affirme que cela aurait permis une augmentation de productivitĂ© de 15 millions de dollars par an [21]. Plus largement, il vise Ă  ’construire des systĂšmes de gouvernement, de ressources Ă©nergĂ©tiques et de santĂ© publique efficaces’ grĂące Ă  l’analyse de donnĂ©es massives. Pour cela, il ne faut plus rĂ©flĂ©chir Ă  l’échelle de l’individu – ’Pentland a compris que ce qui gĂąche toujours tout, ce sont les individus’ [22]– mais Ă  l’échelle d’un systĂšme global, holiste : ’nous avons besoin de repenser de maniĂšre radicale les systĂšmes sociaux. Nous devons crĂ©er un systĂšme nerveux pour l’humanitĂ© qui puisse consolider nos systĂšmes sociaux partout sur la planĂšte’ [23]. Or, cela est possible puisque, ’pour la premiĂšre fois dans notre histoire, la plupart des ĂȘtres humains sont liĂ©s […] Par consĂ©quent, on peut ’exploiter le rĂ©el’ de notre infrastructure de tĂ©lĂ©phonie sans fil pour […] contrĂŽler nos environnements et planifier le dĂ©veloppement de notre sociĂ©té’.


Ce que l’approche de Pentland indique selon Zuboff, ce sont les signes d’une nouvelle figure du pouvoir qu’elle nomme Big Other, par opposition Ă  Big Brother. Alors que Big Brother incarne une figure personnelle de la surveillance, Big Other reprĂ©sente plutĂŽt une figure automatique, impersonnelle, d’un pouvoir qui repose sur les statistiques et la certitude particuliĂšre qu’ils offrent. Quand le premier veut rĂ©pandre une religion politique totalitaire, l’autre repose l’indiffĂ©rence radicale des processus algorithmiques, ce que d’autres ont nommĂ© la ’gouvernementalitĂ© algorithmique’ [24]. La masse laisse place Ă  la population, la rĂ©Ă©ducation forcĂ©e Ă  l’ingĂ©nierie du comportement. Alors que le pouvoir de Big Brother reposerait sur la violence et une thĂ©orie qui lĂ©gitime la pratique, Big Other repose sur la modification douce des comportements et du cadre de vie et les pratiques quotidiennes dissimulent la thĂ©orie qui leur est sous-jacente.

Les derniers chapitres du livre de Zuboff dĂ©crivent ce pouvoir « instrumentarien Â» et la ’ruche’ dans laquelle il veut nous faire habiter. C’est un aspect important du livre : il met bien en avant Ă  quel point la rhĂ©torique numĂ©rique contemporaine met toujours plus en avant la notion de communautĂ©. Ainsi de Zuckerberg : ’la chose la plus importante que nous puissions faire, c’est dĂ©velopper l’infrastructure sociale […] construire une communautĂ© globale’ [25]. Les images qui reviennent sans arrĂȘt sous la plume de Zuboff sont celles du troupeau (ce qui n’est pas sans rappeler la fameuse ’immunitĂ© de troupeau’ pudiquement traduite par ’immunitĂ© collective’ en France), de la ruche, bref de reprĂ©sentations de communautĂ©s animales (en vĂ©ritĂ© plus que discutables) dans lesquelles les comportements mimĂ©tiques et automatiques ont submergĂ© l’individu autonome. On trouve d’ailleurs sous la plume d’E. Schmitt et S. Thurn (anciens directeurs de Google et du X lab de Google) l’idĂ©e que l’intelligence des machines doit nous inspirer car elle est plus collective que la nĂŽtre : prenez telle voiture autonome, on remarque qu’elle ’apprend’ des erreurs d’une autre voiture situĂ© Ă  des milliers de kilomĂštres, ce qui n’est pas le cas des humains. Et les deux zozos d’en conclure : ’La leçon que nous enseignent les voitures autonomes, c’est que nous pouvons apprendre et agir de maniĂšre plus collective’ [26]. Non seulement les machines ont un mimĂ©tisme qui rappelle celui des animaux grĂ©gaires, mais en plus il faudrait les imiter pour apprendre Ă  ĂȘtre ensemble. On croĂźt rĂȘver.

Finalement, Ă  rebours d’une tradition qui tente de raccrocher l’autonomie et l’intelligence collective dans le sillage par exemple de l’opĂ©raĂŻsme italien, on trouve ici une opposition nette entre l’autonomie individuelle et la communautĂ©, les deux semblant s’exclure mutuellement. C’est du moins ce qu’en pense Zuboff : ’L’autodĂ©termination et le jugement moral autonome, qu’on aurait tendance Ă  considĂ©rer comme des remparts de la civilisation, deviennent Ă  son aune des ennemis du bien collectif. La pression sociale, bien connue des psychologues pour son rĂŽle dangereux dans la production d’obĂ©issance et de conformitĂ©, est considĂ©rĂ©e dĂ©sormais comme le meilleur moyen d’étouffer les influences prĂ©visibles de la pensĂ©e autonome et du jugement moral’ [27]. En lieu et place d’un ’nouveau collectivisme’ [28], il faudrait donc selon Zuboff rĂ©inventer une troisiĂšme modernitĂ© qui fasse la part belle Ă  l’autodĂ©termination, aux humains, aux individus et Ă  la vie privĂ©e. ’Que le futur soit numĂ©rique, oui, mais avant tout qu’il soit humain’ [29]. C’est pour le moins naĂŻf.


II. Critique de la critique

A. La fable du bon et du mauvais capitalisme

Le premier point de dĂ©saccord avec Zuboff se situe sur l’histoire du capitalisme. Son rĂ©cit laisse penser qu’il y aurait un capitalisme relativement honnĂȘte et sain qui aurait dĂ©gĂ©nĂ©rĂ© autour de l’an 2000 Ă  cause de quelques gĂ©nies de l’informatique et de l’état d’exception instaurĂ© aprĂšs les attentats du 11 septembre. C’est Ă©videmment trop simple. L’ensemble du XXe siĂšcle tĂ©moigne contre l’idĂ©e qu’il y aurait des techniques neutres que le capitalisme s’accapare seulement dans un deuxiĂšme temps. On sait bien que le machinisme est avant tout un prolongement du capitalisme lorsque ce dernier veut accentuer la productivitĂ© et se passer d’une main d’Ɠuvre trop onĂ©reuse. Par ailleurs, la surveillance et le contrĂŽle comme enjeux politiques et Ă©conomiques majeurs apparaissent au moins avec les dĂ©buts du capitalisme : dĂ©jĂ  au XVIIIe-XIXe siĂšcles il fallait compter et contrĂŽler les marchandises mais aussi surveiller et dresser la main d’Ɠuvre exploitable, tout comme les vagabonds. Inutile de revenir sur tout cela, mais le silence de Zuboff sur ces aspects est Ă©tonnant, quand il n’est pas suspect. Elle semble en effet avoir pour le capitalisme industriel ’à la Ford’ un certain respect puisque, dans le modĂšle de ce dernier, l’intĂ©rĂȘt des travailleurs Ă©tait pris en compte en tant que consommateurs : une partie des gains de productivitĂ© rĂ©alisĂ©s sur les chaĂźnes de montage leur Ă©tait reversĂ© et ils pouvaient acheter leur voiture Ă  bas prix. Tout faisait systĂšme et semblait profiter Ă  tout le monde. En rĂ©agissant Ă  une demande sociale rĂ©ellement existante et en la rĂ©alisant, Ford restait finalement dans un Ă©change de bons procĂ©dĂ©s : ’l’invention de Ford approfondissait les relations de rĂ©ciprocitĂ© entre le capitalisme et ces populations. Les inventions de Google, en revanche, dĂ©truisirent les relations de rĂ©ciprocitĂ© inscrites dans son contrat originel avec les utilisateurs’ [30]. C’est peu de dire que cette approche nous semble aberrante quand on pense aux cadences imposĂ©es et aux formes de vie infernales des ouvriers de la grande industrie fordiste (Ă©voquĂ©es dans le second article de cette rubrique).

L’opposition entre un capitalisme industriel et un capitalisme de surveillance numĂ©rique est Ă©galement trompeuse car l’industrie n’a jamais disparu sous le rĂ©gime du capitalisme de surveillance. C’est ce que doivent toujours dissimuler les approches universitaires qui tiennent Ă  faire valoir leur concept comme clef de lecture de l’époque : la persistance des anciens modĂšles et des anciennes formes. Et cela Ă  bien des Ă©gards. Zuboff Ă©crit par exemple : ’Le capitalisme industriel reposait sur l’exploitation et le contrĂŽle de la nature – les consĂ©quences sont catastrophiques, ce dont nous ne prenons conscience que maintenant. Quant au capitalisme de surveillance, il se structure, comme je l’ai suggĂ©rĂ©, sur l’exploitation et le contrĂŽle de la nature humaine’ [31]. En fait, l’exploitation et le contrĂŽle de la nature n’ont jamais cessĂ© pour la bonne et simple raison que le capitalisme actuel, de mĂȘme qu’internet et le secteur du numĂ©rique, reposent aussi sur l’industrie. Ils reposent sur l’extraction de matiĂšre premiĂšres relativement rares et une dĂ©pense d’énergie Ă©norme. Les productions s’additionnent sans cesse et on continue Ă©perdument le saccage du monde. Mais ce qui est vrai pour le monde vaut Ă©galement pour la nature humaine. Un peu de Marx ne fait pas de mal : il n’y a pas de nature humaine en dehors d’une relation avec un monde matĂ©riel. Si le capitalisme industriel dĂ©truisait la ’nature’, c’est que d’une maniĂšre ou d’une autre il saccageait Ă©galement le tissu Ă©thique des humains qui vivaient en son sein. La destruction des communautĂ©s traditionnelles, l’industrialisation, les guerres mondiales, la bombe atomique, la sociĂ©tĂ© de consommation, tout cela ne compte-t-il pas tout autant comme une vaste destruction de monde pour les personnes concernĂ©es et leurs descendants ?


B. Le droit et le confort bourgeois comme socles de la ’critique’

Au-delĂ  de l’analyse du capitalisme, c’est dans la vision plus gĂ©nĂ©rale du monde que notre vision diverge radicalement de celle de Zuboff. Selon elle, le capitalisme de surveillance remet en cause en 20 ans ce qui a mis des annĂ©es Ă  se constituer : ’cette vision nouvelle de par sa dynamique menace des systĂšmes – sociĂ©taux et psychologiques, cette fois, et fragiles – qui ont mis des milliers d’annĂ©es pour arriver Ă  une certaine maturitĂ©, des milliers d’annĂ©es de souffrances et de conflits humains : ces systĂšmes, nous les appelons perspective dĂ©mocratique et accomplissement de l’individu comme source de jugement moral et autonome’ [32]. Tout se passe donc comme si la civilisation Ă©tait arrivĂ© Ă  la ’fin de l’histoire’ vers les annĂ©es 90 et que quelques ingĂ©nieurs de chez Google avaient tout gĂąchĂ©. C’est Ă©videmment une caricature de la pensĂ©e de Zuboff, mais le dĂ©saccord persiste devant l’idĂ©e d’un ’produit fini’ de la civilisation qu’il s’agirait de sauvegarder. Et pour cause, le ’produit fini’ en question n’est autre que l’individu autonome qui, a bien des Ă©gards, est plus un problĂšme qu’autre chose, prĂ©cisĂ©ment parce qu’il est la cause et la consĂ©quence d’un capitalisme destructeur. Il est bien impossible de le jeter par dessus bord et il faudrait y consacrer une entiĂšre discussion, mais nous ne pensons pas qu’il soit un levier suffisant ou pertinent pour s’opposer aux logiques technologiques et Ă©conomiques actuelles puisqu’il est en rĂ©alitĂ© le rĂ©sultat du processus capitaliste lui-mĂȘme. L’usager individuel est aussi bien le produit (comme objet) de l’extraction de donnĂ©es personnalisĂ©es qu’il n’est produit (comme sujet) par ce processus mĂȘme. Pas question non plus de brandir son opposĂ©, le ’collectif’ ou la ’communauté’, dont on a vu avec Zuboff que le capitalisme de surveillance les utilisait aussi pour son compte. Il conviendrait plutĂŽt de diviser Ă  nouveau ces entitĂ©s et l’opposition binaire qu’elles composent pour examiner soigneusement ce dont nous dĂ©sirons hĂ©riter. Mais c’est une autre histoire.

La tĂ©lĂ©ologie de Zuboff la pousse donc Ă  la dĂ©fense d’une sorte de socle Ă©thico-politique tout simple, tout nu, tout bourgeois : l’individu et sa vie privĂ©e. D’ailleurs, l’un des ’mythes’, assumĂ© comme tel, qui revient sans arrĂȘt comme contrepoint critique dans le livre de Zuboff est le ’chez soi’, le ’sanctuaire’, le ’refuge’ dont elle donne un exemple concret au travers de l’Aware Home. C’est le nom d’un projet d’ingĂ©nieurs et informaticiens de Georgia Tech, en 2000, qui imaginĂšrent ’une ’symbiose humain-maison’ dans laquelle de nombreux processus animĂ©s et inanimĂ©s seraient captĂ©s par un rĂ©seau complexe de ’capteurs sensibles au contexte’ intĂ©grĂ©s Ă  la maison et par les objets connectĂ©s que portent ses occupants.’ Le tout avec 3 hypothĂšses de travail : ce genre de systĂšme ouvre un champ du savoir complĂštement nouveau ; ce savoir et le pouvoir qu’il confĂšrent doivent appartenir et servir aux habitants de la maison ; cette nouvelle maison numĂ©rique resterait un ’chez-soi’, un sanctuaire privĂ© pour les habitants [33]. Ce modĂšle de l’Aware Home, Zuboff le brandira Ă  nouveau pour montrer le modĂšle de ce qu’elle dĂ©sire : un chez soi numĂ©rique dont les donnĂ©es ne fuitent pas. Las, elle enchaĂźne ensuite sur le business actuel que reprĂ©sente la maison connectĂ©e, soit autour de 151 milliards de dollars en 2023.


Au contraire de Zuboff, nous n’avons pas envie de cette bulle privĂ©e numĂ©rique, que les donnĂ©es gĂ©nĂ©rĂ©es soit exploitĂ©es ou non par les grands mĂ©chants GAFAM (Ă  ce propos, on notera que Zuboff se concentre essentiellement sur Google, Facebook, Microsoft et un peu Amazon, comme si Apple, Ă©voquĂ© rapidement au dĂ©but, reprĂ©sentait un futur numĂ©rique plus ’humain’). D’abord parce qu’elle contribue Ă  mettre Ă  distance le monde rĂ©el, social. Ensuite parce qu’elle continuera Ă  reposer sur des technologies dĂ©vastatrices, suffisamment Ă©loignĂ©es du chez-soi rassurant. Enfin parce qu’il nous semble que cette bulle privĂ©e n’est pas pour rien dans l’impuissance toute particuliĂšre gĂ©nĂ©rĂ©e par le capitalisme numĂ©rique. Comme tout ce qui repose sur la conscience et la critique, la stratĂ©gie politique de Zuboff mise fondamentalement sur l’indignation : il s’agit de sortir de l’engourdissement, de retrouver une capacitĂ© de stupĂ©faction, etc. Ceci n’est pas rien, mais il est aussi probable que le capitalisme numĂ©rique tolĂšre tout Ă  fait ce genre de discours, surtout lorsqu’ils sont Ă©crit ou lu derriĂšre des Ă©crans. D’ailleurs, la plupart des mĂ©canismes exposĂ©s ici, on les connaĂźt dĂ©jĂ  plus ou moins et il n’est pour autant Ă©vident de s’y rapporter, surtout lorsque, comme Zuboff, on les attribue Ă  quelques grandes et lointaines entreprises. Zuboff apporte donc un peu de clartĂ© en exposant dans le dĂ©tail des stratĂ©gies clairement ’ennemies’ qui prĂ©fĂšrent souvent rester secrĂštes, mais elle apporte elle aussi, Ă  son tour, son lot d’impuissance, une sorte d’indignation muette et difficile Ă  convertir en autre chose qu’elle mĂȘme.




Source: Lundi.am