iBorderCtrl et FOLDOUT en l’an de grâce 2022

Je publiais le premier décembre 2018 sur le site iatranshumanisme.com un article qui sera actualisé ici, sur la mise à l’essai du dispositif appelé iBorderCtrl. Ce dispositif a, semble-t-il, changé de nom entre temps, ni vu ni connu : il est mentionné actuellement sous le nom de iCROSS. Mais il sera encore décrit sous son premier nom ci-après, parce que c’est celui sous lequel il a reçu des critiques à l’époque, qui sont encore consultables dans la presse en ligne. J’ai fait retirer mon article (ainsi que tous les autres) du site iatranshumanisme.com en raison de l’évolution conspirationniste et lepéniste de ce site durant la pandémie. Il fait partie de l’analyse du capitalisme de crise et de la critique de ses instruments répressifs de devoir aussi expliquer la prise en charge croissante du thème de la « dictature technologique » par l’extrême-droite et les discours conspirationnistes. Manifestement, la gauche a largement failli à en proposer une critique adéquate [1].


L’évolution de ladite Forteresse Europe durant les deux dernières décennies illustre la logique d´ « inclusion excluante » (Robert Kurz) qui transforme peu à peu des îlots de richesse (relative) en forteresses imprenables pour les milliards d’êtres humains situés à l’extérieur des centres capitalistes, surnuméraires du processus de décomposition global. Au moment où le directeur de Frontex démissionne sous le coup des accusations de pushbacks illégaux aux frontières, il n’est que trop tentant de lui faire porter le chapeau d’un système dont il n’est que le dessus du panier. De même le généreux accueil des réfugiés ukrainiens ne devrait pas faire oublier le sort inhumain de milliers d’autres, notamment sur la frontière entre Biélorussie et Pologne. La condamnation formelle par l´UE des refoulements de population sur les frontières polonaise, lettonienne et lituaniennes dissimule mal le fait que les mêmes pratiques ont lieu partout ailleurs aux frontières européennes. Mais l´UE s’est dotée d’un système de refoulement des réfugiés politiquement et juridiquement inattaquable, d’une part en externalisant le traitement des demandes d’asiles hors de son territoire [2] et d’autre part en développant actuellement aux frontières des dispositifs de surveillance qui représentent la quintessence de la technologie de pointe, de la société totalitaire et de la paranoïa sécuritaire.

Commençons par rappeler les informations disponibles sur le dispositif iBorderCtrl. La Commission Européenne a mis au point depuis 2016 une technologie dîte de « contrôle intelligent » qui a été testée pendant neuf mois de janvier à août 2019 sur trois frontières de l’Union Européenne (Grèce, Hongrie, Lettonie) sur la base du volontariat. Ce dispositif était financé par le programme européen de recherche et d’innovation Horizon 2020 (qui a été remplacé ensuite par le programme Horizon Europe) à hauteur de 4,5 Millions d’euros. Aucune loi nationale ou européenne n’autorisant un tel dispositif, les volontaires devaient signer un consentement éclairé. Le projet, « conscient des dimensions éthiques et légales » se targuait dès cette époque de travailler en « étroite proximité avec un conseiller en éthique » [3].

Comme l’expliquait à l’époque le site dédié de la Commission Européenne, la procédure se fait en deux étapes. Le voyageur — dûment informé de ses droits et découragé d’entreprendre des activités illégales — devait remplir d’abord un formulaire en ligne et télécharger ses documents officiels (passeport, visa, preuves de fonds) avant de répondre devant une webcam à des questions personnalisées. Ses réponses allaient être analysées par un système « détecteur de mensonges » qui vérifierait si elles sont en adéquation avec les expressions du visage à l’aide de 38 micromouvements indétectables par un être humain. A partir de ces résultats, le voyageur serait dirigé soit vers une file à « bas risque », soit vers une file à « haut risque » [4].

Les critiques de iBorderCtrl lui reprochèrent principalement son taux d’erreur (le système ne détecterait que 76% des menteurs) ainsi que le risque de répandre des technologies de reconnaissance faciale à caractère racial [5]. De tels arguments semblaient sous-entendre qu’un détecteur de mensonges 100 % fiable et garanti non raciste serait légitime. Par ailleurs, ces objections étaient en voie de résolution, puisque le projet prétendait devoir être encore amélioré afin d’atteindre une meilleure fiabilité, et qu’il n’était pas supposé être destiné à la prise de décision mais seulement à être un « indicateur de risque » et une « aide à la décision ».

Le risque de quoi ? Le projet vise, nous dit-on, à simplifier et accélérer les processus de contrôle aux frontières, à diminuer les coûts, à améliorer la sécurité en combinant différentes technologies, à diminuer l’immigration illégale et les activités criminelles. En effet, expliquait le site de l’époque sans la moindre fausse pudeur, « la croissance continue des flux combinée avec la menace croissante d’immigration illégale exercent aujourd’hui une pression considérable aux postes de frontière. Les passages de frontière ralentis entravent la satisfaction des voyageurs, les affaires et le commerce. » [6]

Le site de l’époque précisait qu’il s’agissait d’un système interdisciplinaire unifié convergeant vers un système global [overall system] comprenant : 1/ un détecteur de mensonge automatique ; 2/ un module biométrique lisant les empreintes de doigts et de veines ; 3/ un outil de reconnaissance faciale ; 4/ un outil de vérification des documents officiels ; 5/ un outil de détection des humains dissimulés ; 6/ un outil d’évaluation du risque aidant à la décision du garde-frontière ; 7/ un outil intégré d’analyse du contrôle des frontières chargé d’analyser l’ensemble des données collectées et d’évaluer l’ensemble du système.

On peut apprécier l’équivoque avec laquelle se terminait à l’époque la présentation du projet : « En tant que projet de recherche, iBorderCtrl vise à élaborer de nouvelles technologies et déterminer si elles ont la capacité d’améliorer la qualité des contrôles de frontière aussi bien pour les voyageurs que pour les garde-frontières, mais ne vise pas à implémenter de nouvelles politiques. » [7] Cela voulait-il dire que les lois qui n’existent pas encore pour encadrer ce système pourraient encore être refusées par les décideurs et citoyens européens malgré ces investissements considérables ? On pouvait en douter. Ou bien cela voulait-il dire que, en vérité, la chose étant acquise, il ne restait qu’à lui donner un vernis démocratique pour obtenir sa légalisation ?

La mise à l’essai devait naturellement être suivie d’un rapport d’évaluation. Sans surprise, la page CORDIS de la Commission européenne affirmait dans un document publié en mai 2020 et toujours consultable : « Les travaux ont été menés à bien et ont permis de valider le concept de base ; l’évaluation pilote et les tests d’usagers ont fourni des résultats très intéressants et prometteurs sur les différents modules et leurs performances. » [8] Ce rapport dit aussi que le développement et la commercialisation du dispositif dépendent maintenant de plusieurs facteurs : 1/ l’évaluation et analyse des implications et de la conformité juridiques et législatives ; 2/ l’appropriation du processus et contrôle sur la transparence de leurs données par les voyageurs ; 3/ l’intégration dans les bases de données existantes [9]. Le projet tente de se rendre juridiquement et politiquement inattaquable en mettant l’accent sur le respect de la législation, de la transparence, de l’acceptabilité sociale, de « l’éthique », etc.

Mais ce n’est pas tout. Cet impressionnant dispositif n’était lui-même qu’une partie de toute une panoplie d’instruments de contrôle voués à se déployer aux frontières européennes (et rien ne dit que ce n’est pas le début d’un déploiement beaucoup plus large). L’un d’entre eux porte le doux nom de FOLDOUT. Malheureusement, le site dédié ne dit pratiquement rien dessus [10]. La page CORDIS présentait en 2017 les idées principales de ce projet de détection dans les feuillages avant sa mise au point : « Alors que les activités seront exclusivement axées sur les applications civiles, une coordination avec les activités de l’Agence européenne de défense (AED) peut être envisagée, des synergies pouvant être établies avec des projets financés par les programmes de l’AED. La complémentarité de ces synergies doit être décrite de manière exhaustive. La coopération en cours doit être prise en compte. » « Le risque croissant de flux irréguliers et d’immigration sur les frontières avec, par exemple, la Turquie, l’Ukraine, le Belarus, la Russie ou le Brésil rend le problème encore plus aigu que par le passé. » « L’acceptation éthique et sociétale doit être abordée de manière appropriée. » [11]

Pour un coût de 8 Millions d’euros, le but de FOLDOUT est de perfectionner le contrôle du passage illégal des frontières, cette fois dans les zones boisées. Voici ce qu’écrivent ses concepteurs dans un ouvrage publié en 2021 : « Cette plateforme doit répondre aux besoins de l’utilisateur final [les garde-frontières] en intégrant des systèmes de capteurs terrestres, aériens, spatiaux et in situ. Plus précisément, la conception de l’architecture de FOLDOUT est axée sur la détection et le suivi des activités dans les zones feuillues, dans les régions intérieures et extérieures de l’UE. FOLDOUT construira un système qui combine divers capteurs et technologies et les fusionne intelligemment en une plateforme de détection intelligente, efficace et robuste. » [12] Ces technologies combinées consistent en une architecture intégrée de satellites, stratobus, drones et capteurs terrestres divers (détecteurs de mouvement, capteurs électromagnétiques, microphones, etc.), comme l’illustre un schéma qu’on peut voir sur le site officiel. La description détaillée de chacune de ces technologies peut être consultée dans le livre cité. Les algorithmes utilisés seront basés sur l’apprentissage automatique. Cette technologie doit aider à analyser les informations des capteurs à la recherche de « modèles inhabituels ». FOLDOUT doit aussi pouvoir fonctionner dans des conditions météorologiques extrêmes [13].

Il nous reste à nous demander comment se peut-il qu’un programme aussi impressionnant de technologies totalitaires (elles prétendent en effet ne rien laisser hors de surveillance) peut à ce point se développer dans la quasi-indifférence générale et au nom des meilleurs principes. Il ne faut pas non plus ignorer le fait que les arguments qui valent aux frontières européennes valent aussi pour la lutte contre le terrorisme, par exemple au niveau du territoire français [14]. Que se passe-t-il si l’on étend un tant soit peu la conception du « risque » et que chaque individu est considéré comme un porteur potentiel de risque ? L’ex-ministre de l’intérieur Gérard Collomb justifiait ainsi sa défense des caméras intelligentes dans la ville : « L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre. » [15]

Les démêlés du juriste et eurodéputé Patrick Breyer dans son combat pour dénoncer iBorderCtrl illustrent la pauvreté des critiques adressées à de tels dispositifs, lorsque de telles critiques existent. Breyer fait partie du Parti Pirate Européen qui milite (de manière politiquement transversale) pour davantage de démocratie, de transparence et de partage des données, c’est-à-dire pour un « internet libre ». Patrick Breyer a saisi la Cour Européenne de Justice de l´Union Européenne le 15 mars 2019 en exigeant la publication des détails concernant ce projet (nous avons vu combien le site officiel de l´UE est parcimonieux sur ce point, surtout depuis qu’il a essuyé des critiques). Une audience a eu lieu en février 2021, durant laquelle l’Agence Exécutive européenne pour la Recherche (REA) a refusé de divulguer la moindre information susceptible de nuire aux intérêts commerciaux des entreprises impliquées dans la mise au point de ces dispositifs. « Les documents en question contiendraient des détails confidentiels sur les algorithmes utilisés à des fins de détection de ˝mensonge˝. » [16] Patrick Breyer a réussi à récupérer sur le web des parties de document que la Commission Européenne voulait dissimuler, dans lesquelles étaient prévues des activités de lobbying auprès de différentes parties prenantes en vue de favoriser l’obtention de la base légale sans laquelle le dispositif iBorderCtrl ne pourrait pas être déployé [17].

Le jugement de la Cour de justice européenne a été rendu le 15 décembre 2021. L’argument principal de l’avocat de la défense a été qu’on ne peut pas réclamer un contrôle démocratique sur des activités de recherche et de développement qui ne sont pas implémentées. Patrick Breyer a argumenté que « les systèmes de reconnaissance des comportements apparents créent progressivement une société uniforme de personnes passives qui ne veulent tout simplement pas attirer l’attention. Une telle société de surveillance morte ne vaut pas la peine d’y vivre. Je suis convaincu que cette pseudo-science sécuritaire ne détectera aucun terroriste. Pour les personnes stressées, nerveuses ou fatiguées, un tel générateur de soupçons peut facilement devenir un cauchemar. En Allemagne, les détecteurs de mensonges ne sont pas admissibles comme preuve devant les tribunaux, précisément parce qu’ils ne fonctionnent pas. Nous devons mettre un terme au développement, financé par l’UE, de technologies permettant de surveiller et de contrôler toujours plus étroitement les citoyens respectueux de la loi ! » [18] La Commission Européenne a défendu le projet en arguant d’un rapport d’évaluation éthique indépendant qu’elle refuse pourtant de publier. La Cour a estimé que la protection des intérêts commerciaux exclut bel et bien l’accès du public aux rapports d’évaluation émis sur la technologie iBorderCtrl, notamment sa légalité, son respect des valeurs éthiques, sa fiabilité (faux positifs), le risque de discrimination, la protection de la vie privée, etc [19]. Patrick Breyer a fait appel le 22 février 2022.

Dans ce combat entre un preux chevalier de la « transparence » et de la « démocratie » contre les intérêts protégés du capital, c’est un ordre mondial aux frontières de plus en plus crispées qui en constitue le véritable tabou, ainsi que le rôle de la quatrième révolution industrielle dans cette évolution. Le système numérique de plus en plus asphyxiant qui vise à traquer chacun pour y détecter le geste suspect parachève le processus séculaire d’expansion du capital, qui se brise à présent sur ses propres limites. A la demande des États et des institutions publiques, il faut filtrer toujours plus finement le grain de l’individu, qui justement menace de réclamer ses droits aux frontières (ces mêmes droits qui sont proclamés à longueur de temps comme imprescriptibles) ou peut-être de se faire justice lui-même. La montée des risques n’est pas un vain mot et les documents cités mentionnent plusieurs fois l’accroissement des flux migratoires qu’il s’agit de juguler le plus efficacement possible — mais dans un seul sens, car « les voyages, les affaires et le commerce » doivent pouvoir bouger librement, comme il était écrit noir sur blanc. (Les potentiels demandeurs d’asile, eux, peuvent être remis à la mer dans un canot en plastique ou bien croupir dans des centres fermés à l’entrée de l´Europe.) La montée des partis d’extrême-droite en Europe suggère qu’une bonne partie de l’opinion publique européenne est favorable à cette sorte de fermeture des frontières tout comme à une prise en charge sécuritaire du terrorisme. Cette partie de la population se sent au-dessus de tout soupçon et bien dans son droit. Elle pourrait se mettre dans la position paradoxale d’accepter de telles technologies pour faire la chasse aux migrants mais de dénoncer ces mêmes technologies si on attente à ses propres « libertés ». Or ces technologies sont totalitaires par essence ; elles ne sont pas destinées à s’arrêter à la moitié, même si elles sont installées par étapes. La gauche n’est pas non plus épargnée par des considérations protectionnistes, voire anti-migratoires, témoin les positions de Sahra Wagenknecht en Allemagne ou de Arnaud Montebourg en France. La critique des politiques sécuritaires suppose donc celle de la forme-sujet bourgeoise, qui passe son temps à s’excepter des processus qu’elle réprouve et croit ainsi pouvoir identifier à l’extérieur d’elle des responsables personnifiés et des problèmes compartimentés, au lieu de critiquer l’extension d’un type de rapport social qui inclut chacun, soit positivement, soit négativement, et donc aussi ceux qui se croient encore à l’abri.

La société capitaliste est « paranoigène » dans son essence, en ceci que le producteur est séparé de ses moyens de production, qui se dressent devant lui sous la forme objectivée d’une gigantesque machine de production planétaire, qui semble le réduire à l’impuissance. Toutefois, sa participation, aussi minime fût-elle, y est requise, positivement ou négativement, et c’est là que gît le ressort du passage à la limite entre l’individu atomisé « qui n’est rien » et les processus objectifs « qui sont tout ». Ce « rien » et ce « tout » ne vont cependant pas l’un sans l’autre. Le déchaînement de « l’intégration excluante » planétaire des forces productives produit conjointement une société de masse et un individu qui se font face-à-face comme s’ils n’avaient d’autre lien que le système technicien (coextensif au mode de production capitaliste) qui les englobe et les relie.

L’automatisation et la numérisation intégrale ne sont que le parachèvement du processus de séparation du producteur avec ses moyens de production et l’ultime cristallisation de ce faux face-à-face ; il faut donc les critiquer du point de vue de leur noyau catégoriel et non du point de vue des émotions paranoïaques qu’elles nous inspirent, lesquelles risquent justement de perdre de vue le lien interne de chaque sujet avec le mode de production techno-industriel, qui est davantage qu’une médiation technique. Néanmoins, il est bien naturel que les dispositifs numériques en cours d’implémentation partout dans le monde puissent provoquer de telles réactions, étant donné, comme on a pu le constater, qu’ils sont eux-mêmes les émanations profondément paranoïaques d’une forme sociale qui considère chaque individu comme une sorte de boîte noire, d’où peut surgir à tout moment un risque incontrôlable pour l’ensemble du système. Les phénomènes de l’amok et des attentats-suicides répondent parfaitement à cette crispation en faisant surgir l’imprédictible au cœur même de l’hypersurveillance. C’est pourquoi le transhumaniste Nick Bostrom propose très sérieusement de mettre toute la population mondiale sous surveillance complète pour conjurer un risque croissant selon lui, consistant en l’appropriation par un individu fou ou malveillant de technologies dont la dangerosité est croissante [20]. On remarquera que ce sont les individus qui doivent selon cette proposition être surveillés, mais ce ne sont pas ces technologies mortifères qui doivent être arrêtées, entièrement et inconditionnellement. On voit ainsi dans quel état sont nos chères « libertés ».

La proposition de Nick Bostrom résume bien la raison immanente d’un système qui met tout en œuvre pour tenter de se survivre en surveillant tout ce qui lui rappelle l’existence des périphéries et toutes les violences réelles ou supposées qui menacent à tout moment de surgir en son sein. Les technologies répressives manifestent la tendance croissante à conjurer les risques que produit cette civilisation en contrôlant les individus susceptibles de réclamer concrètement leurs droits ou de déchirer le voile du droit par leur simple existence. Après des siècles d’expansion qui ont vu la totalité du monde entrer sous la coupe des empires coloniaux et lui fournir l’essentiel de ce qui fait sa prospérité, l´Europe barre l’accès de sa forteresse vieillissante aux dépossédés de partout. La dénonciation par Patrick Breyer d’une pseudo-science qui ne donnerait pas les résultats escomptés et d’une injuste surveillance des « citoyens respectueux de la loi » suppose encore un accord fondamental avec l’existence de telles frontières. La défense de nos « libertés » ne veut pas savoir de quel bois elles sont faîtes. La critique du totalitarisme technologique de gauche comme de droite ne sait rien faire d’autre que de viser l’une ou l’autre des dernières avancées technologiques sans la replacer dans l’implacable logique qui nous a menés là. Le perfectionnement indéfini des instruments de mesure et de contrôle, comme de celui des moyens de production, était inscrit depuis l’origine dans les gènes de la modernité ; il était adéquat aux abstractions qui meuvent le capital et il ne peut donc que l’accompagner dans sa fuite en avant. La frontière est aussi le lieu par excellence de son paradoxe constitutif — entre expansion illimitée du marché et établissement d´États armés défendant comme personnes morales leurs intérêts sur la scène internationale. « L’éthique » proclamée à tous les niveaux consiste à remplacer la brutalité ordinaire par la gestion glaciale, impersonnelle et automatisée des personnes en déplacement. Non, la procédure iBorderCtrl n’est pas plus « respectueuse des droits fondamentaux » et plus « éthique » que les barbelés, les murs, les centres de rétention, les pushbacks, les interrogatoires humiliants ou la coopération européenne avec des milices locales. On voit à quoi ressemble le capitalisme lorsqu’il boucle son propre concept, qui est de suivre mécaniquement sa finalité abstraite en laissant peu à peu tout le monde au bord de la route. Les anticapitalistes n’auront bientôt plus que des machines pour recevoir leur vindicte s’ils ne démontent pas les ressorts de cette logique qui à la fois prend les individus au corps et les exclut radicalement de son processus. La critique va bien devoir aussi en repasser par le corps en refusant massivement de servir ces dispositifs toujours plus nombreux, non pas au nom d’une énième protestation humaniste, mais parce que ces dispositifs sont l’expression du capital en train de se refermer sur ses sujets, comme un piège définitif caché dans un sourire biométrique. Il faut envisager un état du monde où toute contestation et toute fuite seraient rendues impossibles par la généralisation de tels dispositifs — comme c’est le cas en maintes régions du monde — et où il ne resterait que la désertion des corps pour dire le refus.

Sandrine Aumercier, 5 mai 2022


[1] Dans la même veine, il est bien malheureux par exemples que les médias qui relayent ces jours-ci la mise à l’essai — sur la base du volontariat — du système de crédit social en Italie soient des médias complotistes ou libéraux (comme Contrepoints en France ou le Frankfurter Allgemeine Zeitung en Allemagne). La gauche n’a donc rien à dire ? Ce cas dément en tout cas les affirmations racistes, imbues de la supériorité européenne et « libérale », selon lesquelles le système de crédit social chinois renverrait à une tradition confucéenne et à une particularité de la civilisation chinoise « qui ne risque pas de nous arriver à nous ».

[2] Voir par exemple Claire Rodier, « Externaliser la demande d’asile », dans Plein droit, n°105, juin 2015. En ligne : https://www.gisti.org/spip.php?article4990

[3] Cette citation est tirée du site officiel qui était accessible en 2018. Ce lien n’est plus accessible aujourd’hui.

[4] Voir https://ec.europa.eu/research-and-innovation/en/projects/success-stories/all/smart-lie-detection-system-tighten-eus-busy-borders

[5] Harold Grand, « Pourrez-vous passer les contrôles aux frontières ? C’est une intelligence artificielle qui décide », Le Figaro, 07/11/2018. En ligne : https://www.lefigaro.fr/secteur/high-tech/2018/11/02/32001-20181102ARTFIG00196-pourrez-vous-passer-les-controles-aux-frontieres-a-l-aeroport-c-est-une-intelligence-artificielle-qui-decide.php

[6] Comme déjà dit, ce site n’est plus accessible aujourd’hui. Cette citation a été tirée du site accessible à l’époque, qui disait en anglais : « Continuous traffic growth, combined with the increased threat of illegal immigration, is putting nowadays border agencies under considerable pressure. Slow border crossings impact traveller satisfaction, business and trade. »

[7] Le site inaccessible aujourd’hui, disait : « iBorderCtrl as a research project aims at elaborating new technologies and whether they have the capabilities to enhance the quality of border checks for both travellers and border guards, not at implementing new policies. » Le rapport actuellement consultable dit à peu près la même chose.

[8] Voir https://cordis.europa.eu/project/id/700626/reporting/fr :

[9] Ibid.

[10] Voir https://foldout.eu/

[11] Voir https://cordis.europa.eu/programme/id/H2020_SEC-16-BES-2017

[12] Voir Christos Bolakis et al., « FOLDOUT: A Through Foliage Surveillance System for Border Security », dans Babak Akhgar, Dimitrios Kavallieros, Evangelos Sdongos, (sous la dir.), Technology Development for Security Practitioners, Springer, 2021, p. 263.

[13] Voir Matthias Monroy, « Grenze zur Türkei: EU-Kommission will Geflüchtete mit Laubdurchdringung aufspüren », Telepolis, 9 décembre 2019. En ligne : https://www.heise.de/tp/features/Grenze-zur-Tuerkei-EU-Kommission-will-Gefluechtete-mit-Laubdurchdringung-aufspueren-4608218.html

[14] Rapport d’information n° 788 (2015-2016) de MM. François Bonhomme et Jean-Yves Leconte, fait au nom de la commission des lois, déposé le 13 juillet 2016. En ligne : http://www.senat.fr/rap/r15-788/r15-7885.html

[15] Flore Thomasset, « Le ministère fait le bilan d’un an de maintien de l’ordre », La croix, 08/06/2018. En ligne : https://www.la-croix.com/Journal/Le-ministere-fait-bilan-dun-maintien-lordre-2018-06-08-1100945363

[16] Alice Vitard, « Le juge européen exige des détails de Bruxelles sur son projet de « détecteur de mensonge » aux frontières », L’usine digitale, 9 février 2021. En ligne : https://www.usine-digitale.fr/article/le-juge-europeen-exige-des-details-de-bruxelles-sur-son-projet-de-detecteur-de-mensonge-aux-frontieres.N1058774

[17] Voir le document restauré sur le site de Patrick Breyer : https://www.patrick-breyer.de/wp-content/uploads/2021/04/17-D7-3-Dissemination-and-communication-plan-partial-discl_restored.pdf

[18] Voir https://www.patrick-breyer.de/en/press-briefing-transparency-complaint-against-secret-eu-surveillance-research-iborderctrl/

[19] Voir https://curia.europa.eu/juris/document/document.jsf;jsessionid=008867723F4B838EC33D8E2AC1FB6F5A?text=&docid=251282&pageIndex=0&doclang=FR&mode=lst&dir=&occ=first&part=1&cid=2172618

[20] Nick Bostrom, « The Vulnerable World Hypothesis », dans Global Policy, n°10/4, novembre 2019.

En ligne : https://nickbostrom.com/papers/vulnerable.pdf

« L’Appel des appels » et l’ascension des thérapeutes numérique

On peut remarquer dans le champ social une demande de certaines branches à se voir reconnaître un statut particulier au cœur de la logique marchande, laquelle ne cesse de s’enfoncer dans l’intimité de nos vies. Des artistes, militants, partisans de projets alternatifs, soignants, chercheurs, intellectuels, etc. pensent pouvoir exiger des représentants politiques une exception fondée sur l’idéalisation d’une activité qui serait plus noble que les autres à l’intérieur d’une ontologie du travail non questionnée (pour reprendre ici les mots de Robert Kurz). Ainsi, il est un peu embêtant mais sans doute tolérable que la production de tomates soit soumise à un calibrage répondant aux normes européennes et que le reste soit perdu, cela commence à être franchement gênant quand il s’agit des poulets en élevage intensif, car cela heurte notre sensiblerie animalière, mais passe encore, par contre la chose devient carrément inacceptable quand il s’agit, par exemple, des activités d’art et de soin, de notre « psychisme », de notre « bien-être » et de notre « créativité ». Lorsque la progression de la crise capitaliste rattrape la subjectivité accrochée à ses fonctions comme à une planche de survie, il arrive que celle-ci croit y voir malice ou suprême transgression. Pourtant, ce n’est que la suite logique d’un certain développement historique dont il s’agit d’articuler les catégories opératoires. 

Le slogan « la santé n’est pas une marchandise » implique que la santé est un bien suprême au-dessus de la marchandise ordinaire, mais que le reste, donc, peut quand même rester une marchandise. Or la société de marchandise est un « fait social total ». Elle n’a que faire de nos idéalisations personnelles et de nos préférences affectives : elle marchandisera tout ce qu’il y a à marchandiser. Il est impossible de s’en prendre « à moitié » à la société de marchandise en essayant seulement d’y sauver sa peau. Réclamer un statut spécial ressemblerait ici à essayer d’obtenir un meilleur morceau de viande que les autres dans la cantine infecte d’une prison politique, au prétexte qu’on sait faire de la musique. C’est au mieux de l’opportunisme. Mais certains font passer cela pour un combat émancipateur et digne des plus hautes valeurs.

Le collectif L´Appel des appels qui s’est constitué en 2008 autour des psychanalystes Roland Gori et Stefan Chedri en constitue un exemple pathétique. « Nous, professionnels du soin, du travail social, de la justice, de l’éducation, de la recherche, de l’information, de la culture et de tous les secteurs dédiés au bien public, avons décidé de nous constituer en collectif national pour résister à la destruction volontaire et systématique de tout ce qui tisse le lien social. Réunis sous le nom d´Appel des appels, nous affirmons la nécessité de nous réapproprier une liberté de parole et de pensée bafouées par une société du mépris. » Il s’agit, peut-on lire aussi, de « remettre de l’humain au cœur de nos pratiques » [1]. Ces lignes creuses qui voudraient se constituer elles-mêmes en méta-appel, montrent que les auteurs n’analysent pas le système dans lequel ils vivent, et dont ils exhibent ici platement les valeurs éculées de l’humanisme abstrait : grande gueule sans arrêt rebouchée par la progression inexorable de la crise globale. Outre que l´Appel des appels trahit le mot de Lacan selon lequel « il n’y a pas d´Autre de l´Autre », il est clair que personne n’entendra cette invocation emphatique lancée dans le vide, puisqu’il n’y a personne en face que des « masques de caractère » (Karl Marx). C’est ainsi que l´Appel croit pouvoir s’adresser aux « Pouvoirs Publics » tout en accusant immédiatement après le « Pouvoir » d’imposer « son idéologie de l’homme économique ». Selon cette vision circulaire, on pourrait donc opposer les « Pouvoirs publics » au « Pouvoir », lequel serait lui-même à la solde du capitalisme financier, comme nous l’apprend une publication du collectif. Le manifeste Politique des métiers [2] diffusé par l´Appel explicite ainsi sa vision de la situation : « Ces choix successifs [ceux du New Public Management], pris pourtant par des gouvernements politiquement différents, ont sciemment adopté une certaine culture de l’entreprise et organisé une authentique colonisation des services de l’État par la logique du marché. » C’est encore une fois les bons « métiers » qui se dressent contre le méchant capital (celui de la « financiarisation hégémonique », nous dit-on juste après), ignorant leur commune enveloppe sociale. Le fétichisme du travail qui est au fondement de la société capitaliste y est excepté de toute analyse critique.

Car comment les « Pouvoirs Publics » pourraient-ils être indépendants du « Pouvoir », et comment ce dernier pourrait-il être indépendant du fonctionnement de la machine capitaliste ? Cela n’est expliqué nulle part, car c’est là un credo qui ne fait que tourner depuis des lustres dans les discours de gauche et qui ne semble exiger aucun effort de vérification théorique. C’est un peu comme si un psychanalyste accueillait un nouveau candidat en lui disant : « Vous avez un peu de bon sens quand même ? Veuillez arrêter tout de suite vos habitudes déraisonnables ! » Cette injonction n’a aucun sens pour un psychanalyste qui prend au sérieux l’hypothèse de l’inconscient. Mais bizarrement, elle redevient possible dès qu’un psychanalyste prend la parole sur la place publique. L’inconscient n’est-il donc qu’une histoire de divan et rien de plus ?

La psychanalyse peut-elle se détourner de l’analyse des mythes qui structurent la civilisation où elle est apparue ? L’indépendance des institutions politique et l’idéologie de la souveraineté (y compris « démocratique ») fait partie de l’attirail mythologique moderne : c’est aussi ce que la psychanalyse est venu subvertir en décalant le sujet de sa pseudo-souveraineté. Pourquoi cette critique cesserait-elle d’être pertinente dès qu’on sort du cabinet analytique ? Elle a au contraire une portée au-delà de l’analyse individuelle. Les différentes sphères fonctionnelles de la société capitaliste ne sont pas indépendantes les unes des autres, quand bien même la technoscience morcellerait ses objets de recherche et d’intervention jusqu’à la poussière. L’ontologie moderne vise chaque objet dans son identité à soi, indépendamment de ses liens dynamiques et enchevêtrés avec son environnement, lesquels ne sont alors étudiés que comme des caractéristiques supplémentaires de son identité. Les sciences humaines participent de cette logique à chaque fois qu’elles extraient leur objet du système où il évolue comme si cet objet était auto-consistant et à lui-même sa propre origine. Mais de même qu’on ne parle pas en psychanalyse du sujet comme s’il était à l’origine de lui-même, on ne peut pas parler de la souveraineté politique comme si elle était à elle-même son propre fondement. « L´État moderne ne pourrait se mouvoir sans les médiations sociales capitalistes. La forme de l’agir collectif sous le capitalisme est donc nécessairement l’appendice du mouvement de la valorisation. Sans ponction fiscale sur la valorisation, sans dépense de la future valorisation escomptée (sous la forme de la dette d´État), pas d’agir collectif possible dans le monde moderne. (…) Lorsque la valorisation commence à ralentir, l’économie limite et étouffe toujours plus l’espace d’action de la politique. (…) Cette souveraineté limitée est toujours l’expression de la soumission de l´État à ses propres conditions de possibilité [3]. »

Combien de temps durera encore ce cirque pour la reconnaissance de la part de psychanalystes que leur « profession » aurait dû avertir de certaines impasses ? Quand donc les « psycho-quels qu’ils soient » se rappelleront-ils qu’ils « n’ont pas à protester, mais à collaborer » puisque « qu’ils le sachent ou pas, c’est ce qu’ils font [4] » (et l’on sait combien le mot de collaboration est historiquement chargé en France) ?

Les auteurs de l´Appel des appels et tous ceux qui ne demandent qu’un supplément d’âme pour le capitalisme en sont quitte pour avoir crié plus de dix ans dans le désert, comme le montre la progression de la barbarisation. Ces revendications ne veulent rien savoir du fait que la logique de valorisation de la valeur ne connaît aucune limite morale, que ceci est dans la nature du capitalisme au moins depuis l’émergence du capitalisme industriel (et non pas seulement depuis l’époque néolibérale), qu’elle se reproduira et s’étendra jusqu’à la dernière parcelle exploitable et jusqu’au plus intime de nous-mêmes si nous ne l’arrêtons pas entièrement et non partiellement. Dans cette perspective, libérer la tomate et l’humain constitue une seule et même visée — d’un certain point de vue s’entend — et ceci sans même qu’on ait besoin de se prétendre un « écologiste radical ». L’universalisme négatif du capital ne cesse de repousser ses propres limites, non sans se rendre inattaquable au nom de sa propre « éthique » managériale et instrumentale. De manière perverse, le « consentement » est ainsi de plus en plus exigé à un client, un patient, un usager, qui ont perdu jusqu’à la notion de ce à quoi, en fait, ils « consentent » en cliquant distraitement sur une option. Le capitalisme ne peut se reproduire qu’en élargissant sans cesse son horizon, lequel passe aujourd’hui par la disruption permanente et accélérée de toutes les limites techniques atteintes à chaque instant ; chaque entreprise particulière tente de rester compétitive sur un marché pris dans une concurrence sauvage, au fur et à mesure que s’accentue l’expulsion du travail humain productif et la désubstantialisation consécutive de la masse totale de valeur (celle-là même qui assure la reproduction du système dans son ensemble, c’est-à-dire aussi les fonctions de l´État). Les activités improductives — au sens capitaliste du terme — sont donc forcément les premières visées par les politiques d’austérité. Comment en serait-il autrement ? 

La psychanalyse, l’art et le soin ne constituent donc aucune exception. S’il est souhaitable de continuer à les pratiquer en dépit des « attaques » dont elles font l’objet, ces pratiques ne peuvent exiger la reconnaissance d’un système qui ne les reconnaîtra jamais et qui finira par les faire taire tout à fait. Il ne s’agit pas en premier lieu d’un « Pouvoir imposant son idéologie », mais d’un rouleau compresseur qui ne sait même pas sur quoi il passe. Les idéologies de ses officiants ne seront pas égratignées par des contre-idéologies de crise particularistes ou identitaires, y compris les identités professionnelles qu’invoque l´Appel des appels. Ce sont finalement les chiffres de l’économie et à terme, les algorithmes, qui viendront au mieux y répondre sous la forme, sans doute, d’un écho mécanique renvoyé à une humanité obsolète. Car le combat de l´Appel des appels positive un domaine immanent de la totalité négative dont il fait partie, comme le font tous les combats sectoriels qui s’attachent à conserver un moment dépassé d’une dynamique qui, elle, ne connait pas de halte. Ils méconnaissent ainsi que leur véritable fossoyeur — qui n’est pas le pouvoir mais l’impératif de valorisation capitaliste comme fin en soi abstraite — a toujours déjà une longueur d’avance sur leur revendication.

La pandémie actuelle a par exemple légitimé l’accélération de la numérisation du monde au nom d’un intérêt sanitaire supérieur. Même les psychanalystes ne sont plus gênés du tout de proposer des « colloques internationaux en ligne » assortis d’un lien zoom, sans se demander à quoi riment ce business et cette dématérialisation de nos activités auxquelles, eux comme les autres, participent avant de s’énerver ensuite contre la technocratie. Mais après tout, si nous n’avons plus besoin de partager une pièce pour nous « rencontrer », pourquoi serait-il tabou de faire des thérapies en ligne ? D’ailleurs, pourquoi pas carrément un traitement de la souffrance psychique par chatbot ? Arrière, monstre de technocrate — diront peut-être les psychanalystes appeleurs — touche pas à mon « métier » !

Woebot aus États-Unis, MindBeacon au Canada, Deprexis en Allemagne, Owlie en France : ces programmes d’accompagnement psychique numérique, gratuits ou remboursés, se justifient désormais : 1/ par la nécessité de réduire les contacts physiques durant la pandémie ; 2/ par l’existence de longue listes d’attentes pour obtenir un rendez-vous avec un thérapeute humain dans une période où les demandes de thérapie explosent ; 3/ par la nécessité de réduire les coûts, pour la communauté comme pour le patient ; 4/ mais aussi par la prétendue nécessité d’accorder aux patients un accompagnement 24/24 (ce qui signifie ipso facto une connectivité ininterrompue supposée pallier une absence de liens humains). Un article scientifique sur le sujet ne craint pas d’affirmer l’efficacité supérieure de cette forme d’accompagnement en première intention pour la dépression et l’anxiété, qui s’avère une « méthode idéale pour fournir des soins de santé mentale efficaces à grande échelle [5] ». De son côté, l’inventeure du chatbot Woebot — juge et parti de sa propre invention — se félicite des résultats (4,7 millions de messages échangés avec le thérapeute digital depuis sa création) et affirme : « Nous n’avons tout simplement pas assez de cliniciens et de spécialistes pour traiter tout le monde [6]. » Y aurait-il de plus en plus de gens dépressifs et anxieux ou de moins en moins d’offre en santé mentale ? Ou bien est-ce que le chatbot fabrique une nouvelle maladie, celle de la dépendance 24/24 à un accompagnement digital qui devient, dès lors, nécessairement irremplaçable par un humain ? En France, la psychologue Clara Falala-Séchet, co-créatrice du chatbot Owlie, se moque ouvertement de « papa Freud qui nous reçoit une fois par semaine sur son divan » en faisant « hum » [7]. Le chatbot thérapeutique, lui au moins, ne lâchera jamais son patient.

Voilà aussi ce que précise la page d’accueil du produit Aury développé en coopération avec l´Université Humboldt de Berlin, soutenu par le Sénat de Berlin et le Ministère Fédéral allemand de l´Économie et de l´Énergie : « Aury sera mis à l’essai à l’université Humboldt de Berlin entre octobre 2021 et mars 2022. Les patients et patientes du service ambulatoire de l’université Humboldt utilisent Aury durant la période où ils sont sur liste d’attente avant le début de la thérapie, et ils feront l’objet d’un diagnostic complet avant et après cet essai [8]. » Il est dit que ces entretiens numériques ne sont pas sensés remplacer une thérapie. Le mode d’emploi est le suivant : « Aury est un chatbot et ta conseillère numérique, qui peut t’aider en cas de symptômes de troubles anxieux ou de dépression. Aury te propose un programme d’aide psychologique basé sur la thérapie cognitivo-comportementale et développé à l’université Humboldt de Berlin. Tu peux suivre le programme d’aide durant 4 à 8 semaines sur ton smartphone ou ton PC. Pour cela, tu te connectes régulièrement et tu mènes des conversations par chat avec Aury. Une conversation dure entre 10 et 15 minutes. Pour qu’Aury puisse t’aider au mieux, nous te recommandons de lui parler quotidiennement. Au cours des entretiens, tu apprendras des choses importantes sur ta santé mentale, tu recevras des conseils pour gérer les symptômes et tu feras des exercices pour appliquer ce que tu as appris au quotidien. Les contenus d’apprentissage sont répartis en 6 thèmes que tu peux suivre en fonction de tes intérêts : sommeil, anxiété, soucis et ruminations, dépression, communication et conflits, ressources. De plus, Aury te demande régulièrement si tu te sens bien et analyse tes réponses. Après 4 à 8 semaines, tu recevras un bilan des contenus que tu as suivis et de ton bien-être. Tu peux donner ce bilan à ton ou ta thérapeute [9]. » Comme chacun peut le vérifier en se rendant sur le site, ceci n’est pas de la science-fiction ; c’est le monde dans lequel nous sommes et dans lequel certains espèrent encore « remettre l’humain au centre ». Ils n’auront bientôt plus que des robots pour leur répondre !

La psychanalyse n’est pas une pleurnicherie humaniste mais une méthode de déchiffrement des symptômes. Elle dispose de concepts articulés, comme celui de pulsion, d’inconscient, de moi, de surmoi, de désir, de chaîne signifiante… Elle ne réduit jamais les plaintes d’un sujet à une explication psychologique ni au primat d’une instance psychique sur les autres : aussi pourquoi devrait-elle retomber dans le psychologisme ou le politisme dès qu’on passe la porte du cabinet ? Freud a émis des hypothèses sur le « développement culturel » qui n’étaient pas des généralités morales ; à nous de reprendre ce chantier avec les moyens théoriques d’aujourd’hui, et notamment en nous efforçant de pénétrer le fonctionnement du capitalisme de manière aussi rigoureuse qu’on s’efforce d’entendre un analysant et de mettre à l’épreuve nos concepts habituels. La psychanalyse ne mobilise pas une « partie du moi » contre l’autre. De même, il n’y a pas de rigueur à invoquer une sphère sociale contre une autre, par exemple la « politique » contre « l’économie » (et encore moins certaines « catégorie socio-professionnelles » contre les autres), dans la méconnaissance de leur fonctionnement systémique. Il faut que la psychanalyse se mette à l’étude du système qui lui a — de manière assez courte — concédé une place qu’elle y a définitivement perdue. La critique freudienne de la religion, des formations collectives comme l’Église et l’armée, de l’identification au chef, de la guerre et du malaise dans la culture (assorti de ses fausses solutions) n’en était que le début.

Sandrine Aumercier, 3 février 2022.


[1] Voir (souligné par nous) : http://www.appeldesappels.org/

[2] Politique des métiers, Paris, Mille et une nuits, 2011.

[3] Clément Homs, « La politique et l´économie : deux faces d´une même pièce », dans Misère de la politique, divergences, 2017, p. 39-40.

[4] Jacques Lacan, Autres écrits, Seuil, 2001, p. 517.

[5] Voir : file:///Users/admin/Desktop/jamapsychiatry_rollman_2017_oi_170080.pdf

[6] Voir : https://www.wired.com/story/therapist-in-chatbot-app/

[7] Voir « L´intelligence artificielle au service des patients » : https://www.youtube.com/watch?v=MlsP8yX96sg

[8] Voir :  https://aury.co/#Produkt

[9] Ibid.

Quand les algorithmes seront parfaits

Le livre de Cathy O´Neil Algorithmes, la bombe à retardement [1] est paru aux USA en 2016 et en France en 2018. C’est peu de dire que ce livre fut encensé de tous les côtés à sa sortie. Le mathématicien et député Cédric Villani, ayant coordonné le rapport ministériel Donner un sens à l’intelligence artificielle, en a écrit une préface dithyrambique. L’auteure fut même invitée à rencontrer Emmanuel Macron en personne. Et pour cause ! Malgré son titre provocant, ce livre ne dérange personne. Son accueil fut orchestré à peu près ainsi : enfin une expertise critique sur cette chose qu’on dit omniprésente et que personne ne comprend ! Et de surcroît par une personne du terrain ! Qu’on nous explique enfin ce que c’est, avec des exemples à la portée de tout le monde ! Qu’on nous fasse un peu frissonner sur ses potentialités apocalyptiques et qu’on nous donne la solution pour éviter ça ! Cela commence avec son titre anglais Weapons of Math Destruction qui est un jeu de mots avec Weapons of Mass destruction. Durant tout le livre, l’auteure conservera le sigle ADM pour « armes de destruction massive ». Avec un tel surnom, on s’attendrait à une critique autrement radicale. On comprend lentement que c’est presqu’un surnom affectueux, un peu comme quand on appelle son chien « gros monstre ».

De fait, l’ouvrage répond bien aux attentes d’une société qui veut être guidée dans le « bon usage » des technologies meurtrières, mais s’est accommodée de leur prolifération et de leur constant perfectionnement. Mathématicienne, ancienne analyste à Wall Street puis dans le marketing, l’auteure connaît bien les big data et peut donc lever un coin de rideau sur d’inquiétantes réalités qu’elle a expérimenté sur le terrain. Repentie, elle a participé à Occupy Wall Street et a entretemps fondé la société ORCAA qui propose aux entreprises des audits sur leurs risques algorithmiques. Afin de sortir de la mystification, elle nous rappelle pour commencer qu’un algorithme n’est pas autre chose qu’un modèle qui pourrait être comparé à la composition des menus familiaux par une mère de famille tenant compte des goûts de chacun, de la saison, du budget, de l’équilibre alimentaire, etc. Si ce modèle interne intuitif était transposé dans un logiciel, il deviendrait un « modèle externe formalisé », caractérisé, dit-elle, par une simplification de la complexité du vécu. Ici déjà, l’auteure oublie de dire que ce modèle externe ne peut prétendre compenser cette simplification, qui est son défaut fondamental, qu’en engrangeant des masses de données exponentielles, afin précisément d’y intégrer la plus grande variabilité des situations humaines. Tant que les humains seront capables de surprise et de changement, la voracité d’une banque de données à l’affût de toutes ces infimes variations sera sans limite, afin d’affiner indéfiniment le modèle. Ce projet ne peut par définition qu’être total, c’est-à-dire tendre follement vers la saisie exhaustive du réel. Il peut se rapprocher de la réalité, y ressembler, il peut nous bluffer, mais il ne sera jamais le réel. Or il se peut que ce projet de rejoindre le réel le conduise bel et bien à le détruire sans merci, à le dévorer jusqu’au dernier grain, comme le cannibale pense incorporer l’esprit de sa victime en buvant son sang. « Software is eating the world », écrivait Marc Andreessen en 2011 de manière éloquente [2]. En voulant corriger son défaut, le modèle ne peut qu’étendre sa boulimie de données à tout ce qui existe, sans reste. Il fait passer la moindre surprise dans son broyeur prédictif dans l’espoir qu’un jour il n’y ait plus de surprises : son absolue prédictibilité serait alors démontrée. Mais cet espoir est vain, car son défaut initial, qui est un défaut ontologique, ne peut pas être résorbé par un apport quantitatif ; il peut tout au plus y tendre asymptotiquement, c’est-à-dire à l’infini — si du moins nous consentons à nous prêter à ce projet délirant, comme le veulent les tenants de la Singularité.

Sur les risques inhérents à une telle volonté de combler le défaut ontologique de la modélisation par une quantité exponentielle de données, la portée critique est ici d’une consternante pauvreté. Elle nous inspire la réplique de Cyrano de Bergerac : « Ah ! non ! c’est un peu court, jeune homme ! On pouvait dire… Oh ! Dieu ! … bien des choses en somme… » Cathy O´Neil ne fait qu’effleurer le problème de l’échelle d’application des algorithmes, sans voir que cette échelle toujours plus vaste est inhérente à l’existence même des systèmes algorithmiques : « Toute formule présente en théorie un caractère parfaitement inoffensif (…) mais si elle acquiert la dimension d’une norme nationale ou mondiale, elle crée alors sa propre économie dystopique et dénaturée » (p. 84). Elle ne reproche ici aux algorithmes que l’étendue de leurs dégâts et non leur logique qui ne peut pas faire autre chose que de conduire à une totalisation sans reste. L’auteure suppose ainsi que le bon sens et le progressisme politique sauront (une fois correctement informés) limiter cette extension galopante par de saines barrières. Mais elle ignore par là la logique à l’œuvre dans la modélisation algorithmique qui implique nécessairement le moulinage de tout ce qui existe dans le vain espoir de combler le défaut ontologique que le modèle introduit lui-même, soit de résorber l’écart insurmontable entre la probabilité et l’occurrence. Pour le dire autrement à partir de l’exemple empirique choisi par l’auteure elle-même, dès lors qu’on a accepté le principe de modéliser mathématiquement la composition des menus familiaux afin d’optimiser la conception des repas, il n’y a plus de retour : le système ne peut que s’engager dans le perfectionnement monstrueux de sa propre modélisation. Il a fait naître une frustration qui n’est pas stoppable par un argument d’autorité subjectif, comme pourrait l’être celui de la mère de famille qui déciderait que « c’est comme ça », justement parce qu’elle n’aura jamais la bêtise de viser une application littérale de son modèle intuitif, contrairement à l’algorithme, qui ne pense pas, n’expérimente pas, ne regrette pas, ne se laisse pas tenter : il avale simplement les données et les convertit en chiffre au service d’un objectif donné. C’est la raison pour laquelle Elon Musk disait que si l’on donnait à une IA l’objectif — assez innocent — de ramasser des fraises, elle pourrait transformer le monde entier en champs de fraises afin de remplir son objectif [3]. Cette logique serait la même si on lui donnait l’objectif d’éradiquer la faim ou le paludisme dans le monde. La nature de sa destructivité n’a rien à voir avec les valeurs morales qu’on prétend lui implémenter.

Le deep learning avale toujours plus de données pour corriger son déficit inhérent, par quoi il prétend se rapprocher du chatoiement du réel et en éliminer toute forme de surprise qui ne soit pas immédiatement réinjectée dans sa propre amélioration indéfinie. Ceci n’a en soi rien à voir avec la moralité des concepteurs ; mais si un tel programme est mis au service d’intérêts privés, il est évident que le potentiel destructeur est démultiplié. De fait, l’invention de tels systèmes est consubstantielle à l’optimisation des coûts dans le cadre de la concurrence économique. Ces technologies n’ont aucun sens en dehors de ce cadre d’émergence historique, car elles supposent des investissements colossaux et des échelles d’action globalisées. Elles ne sont pas seulement les belles « disruptions » qu’on raconte, sorties comme des champignons de l’ère internet. Elles sont bien plutôt congruentes avec toute l’évolution du système capitaliste depuis ses origines. Mais pour l’auteure, le problème est toujours la morale des modélisateurs  : « La racine du problème… réside dans les objectifs choisis par les modélisateurs. Le modèle est optimisé dans une perspective d’efficience et de rentabilité, et non pas pour l’équité ou le bien de l’‹ équipe ›. C’est bien entendu la nature même du capitalisme. (…) Voilà pourquoi la société doit pouvoir s’appuyer sur des forces contraires — comme une vigoureuse couverture médiatique, capable de mettre en lumière les abus de cette course à l’efficience et de jeter l’opprobe sur les entreprises pour les pousser à bien faire » (p. 198). Les vibrants discours de Mark Zuckerberg et d’autres sur le monde ouvert et généreux que nous sommes en train de construire démontrent surtout que cette moralisation ne nuit en rien ni aux monopoles ni au déchaînement des forces technologiques, elle se met au contraire à leur service en leur offrant un blanchiment éthique imparable.

Il y a là une ignorance profonde des logiques enclenchées par le principe même de la datification du monde, qui n’est que la dernière forme prise par l’optimisation du projet capitaliste.  Personne n’irait modéliser la composition des menus familiaux sans une certaine idée d’optimisation, qui n’est pas forcément « économique » au sens financier, mais toujours « économique » au sens d’introduire une forme d’efficacité quantifiable (de temps, d’équité entre les goûts des convives, d’équilibre diététique, etc.) Il s’agit bien uniquement d’économie. Jouer une dimension économique contre une autre ne nous sort pas de la logique acéphale du réductionnisme économique, qui, en tant que tel, ignore ces compartiments. Optimiser ceci ou cela, c’est toujours optimiser. L’argent n’en est que la forme ultime. Prétendre optimiser la réduction des accidents de la route est par exemple un argument de nature aussi « économique » que le marketing en faveur des voitures autonomes, et les deux intentions sont d’ailleurs vendues en un seul et même paquet bien ficelé. Imaginer qu’on pourrait développer de gentils petits algorithmes au service du bien public et décontaminés des intérêts financiers est d’une bêtise confondante.

Ayant complètement manqué l’analyse de cet aspect essentiel du système — puisqu’elle en fait pleinement partie et déploie toute son énergie à le perfectionner — l’auteure engage alors la critique dans une autre voie, qui sera celle de tout le reste du livre, en faisant remarquer que les données pertinentes qui alimentent un modèle sont toujours le reflet des préjugés de leurs concepteurs, par exemple, pour rester dans les soucis domestique, une idéologie diététique comme celle d’éliminer les sucreries des menus. En effet : « Les modèles sont un ensemble d’opinions inséré dans un système mathématique. » (p. 40). Le livre se concentrera donc sur l’analyse de l’amplification par les algorithmes des préjugés existants, parce qu’ils s’appuient sur des corrélations fallacieuses et des biais de confirmation, parce qu’ils développent des boucles de rétroaction, mais aussi parce qu’ils sont mis au service d’intérêts peu scrupuleux qu’il s’agit selon l’auteure de réguler pour que tout rentre dans l’ordre.

Elle décrit avec forces exemples et anecdotes le potentiel destructeur des algorithmes, du recrutement dans les grandes universités à l’évaluation des enseignants, de l’emprunt bancaire aux campagnes électorales en passant par la prévention du crime, la recherche d’emploi ou la signature d’un contrat d’assurance. C’est l’ensemble de la vie sociale qui se trouve ainsi passée au crible de l’analyse des manipulations algorithmiques au service des puissants et au détriment des populations précaires et marginalisées. Le tableau qui en ressort est celui d’une société profondément injuste, que les algorithmes, biaisés par les préjugés de leurs concepteurs, rendent encore plus injuste en enfermant encore plus les individus dans les cases où les ont mis des calculs anonymes et partiaux. L’auteure nous montre comment les algorithmes ont en quelque sorte l’art de perfectionner les injustices sociales et raciales existantes et de renforcer les ségrégations qu’ils prétendent pourtant éviter derrière la façade d’une fausse neutralité.

A partir de telles prémisses, le ton du livre est donné. Il s’agira désormais de donner aux big data leur supplément éthique. « Nous devons expressément intégrer à nos algorithmes de meilleures valeurs, en créant pour le Big Data des modèles conformes à nos visées éthiques. Ce qui supposera parfois de placer l’équité au-dessus du profit. » (p. 304). Que dire de ce vague « parfois » qui ressemble à une tapette sur l’épaule ? Ou encore : « Il nous faut pourtant insuffler à ces systèmes des valeurs humaines, même au détriment de l’efficience. » (p. 308). L’efficience est pourtant le principe même d’un algorithme, sa raison d’être. L’idée de modèles conformes à une bonne intention « insufflée » dans la machine reste la pièce maîtresse de cette entreprise de moralisation. Que ces modèles aient une vie propre, emportée par leur logique mathématique de manière non pas accessoire mais consubstantielle à celle de la valorisation économique, n’effleure pas l’auteure. Que les moratoires d’aujourd’hui, les règlements divers et les chartes éthiques ne soient que les cache-sexes de cette lame de fond tendant à optimiser l’intégralité du système-monde demeure inaccessible à la critique. Certes, l’auteure reconnaît que : « La tendance consiste à remplacer les gens par des flux de données et à en faire des acheteurs, des électeurs ou des employés plus efficaces afin de remplir un objectif quelconque » (p. 80). Selon elle, il suffit de remplacer les intentions immorales des acteurs économiques par des intentions morales, et nous aurons enfin des algorithmes bienfaisants. Cathy O´Neil doit bien alors réchauffer cette vieille idée selon laquelle ce n’est pas la technologie qui est mauvaise, mais l’usage qu’on en fait. Citant un algorithme employé à la prévention de la maltraitance infantile, elle peut ainsi affirmer : « Si l’objectif consiste… non pas à  punir les parents, mais à secourir les enfants qui pourraient en avoir besoin, cette ADM en puissance devient alors salutaire. » (p. 323). Le programme est simple : « En matière de communication politique, comme avec la plupart des ADM, le cœur du problème réside presque toujours dans l’objectif poursuivi. Si l’on choisit d’aider les gens au lieu de profiter d’eux, l´ADM se trouve neutralisée — et peut même se changer en une force bienfaîtrice.  » (p. 295). Le principe de cette curieuse argumentation est de potentialiser la vertu des armes de destruction massive, un peu à la façon dont la bombe nucléaire peut être défendue par certains pour sa capacité dissuasive (ce qui n’enlève rien à son potentiel létal). Un tel livre, loin de se livrer à la critique annoncée dans son titre, est donc pleinement au service de l’amélioration de technologies invasives qui devraient en fait être rendues non racistes, non sexistes, non spécistes, non discriminantes, non violentes, et même carrément bienveillantes, etc. Il promeut une moralisation publique légitimatrice qui est en accord fondamental avec l’égalisation de tout être, de toute chose et de tout comportement sous le signe du chiffre. Son progressisme et son antiracisme ne lui font pas de mal, ils travaillent au contraire insidieusement à la promotion d’un univers froidement égalitaire, servi par des algorithmes « bien éduqués », prétendument au service de grandes causes, auquel on aurait ôté ainsi les dernières objections éthiques qui se dressent encore sur sa route. Suivre ce retournement de la fausse critique en perfectionnement d’un système de domination explique aussi pourquoi le livre a été tellement applaudi.

Sandrine Aumercier, 15 juin 2020

Ce texte est initialement paru sur le site iatranshumanisme.com le 4 février 2020.


[1] Cathy O´Neil, Algorithmes, la bombe à retardement, Paris, Les Arènes, 2018 [2016].

[2] Marc Andreessen, « Why Software Is Eating The World », The Wall Street Journal, 20 août 2011. En ligne : https://www.wsj.com/articles/SB10001424053111903480904576512250915629460

[3] Kevin J. Ryan, « What Elon Musk Really Thinks of Artificial Intelligence and Why You Schould Care », Inc., 27 mars 2017. En ligne : https://www.inc.com/kevin-j-ryan/elon-musk-vanity-fair-profile-artificial-intelligence-fears.html

Quelle forme de complicité a rendu Facebook possible ?

L’exemple de Facebook permet de remonter à la racine d’une « responsabilité du clic » associant le réflexe corporel — celui de cliquer, commun à toute l’économie du net — et le succès fulgurant d’une révolution globale non pas tant numérique (comme on se plaît à le dire) que politique. [1] Facebook peut être considéré comme un exemple princeps de ce que Foucault nommait les « techniques du corps », exemple dont la valeur repose ici sur sa portée contre-intuitive, puisque l’Internet est réputé réaliser le triomphe de « l’immatériel ». Ainsi, la mystification est totale. La focalisation imaginaire sur la production des biens physiques — telles une voiture ou une paire de chaussures — fait volontiers oublier aux militants écologistes combien les réseaux ont accaparé un potentiel de croissance économique exponentielle qu’eux-mêmes hésitent à intégrer dans leur critique, en raison d’un désir de propager leur propre audience par ces moyens-là, désormais déclarés incontournables. Cette croissance est destinée à devenir ubiquitaire avec l’implantation du réseau 5G (de cinquième génération) et la généralisation de l’Internet des objets, ce qui montre à rebours que le capitalisme n’a pas dit son dernier mot sur les objets matériels : il s’agit par là de créer de toutes pièces une nouvelle phase d’accumulation qui ne laissera aucun geste quotidien en dehors de son emprise jusqu’à s’implanter dans le corps humain. Il s’agit de coloniser sans reste toute chose et tout être, et même les flux de pensée, avec notre consentement imperceptible, au nom de l’argument selon lequel il n’y a rien de mal à promouvoir des technologies si pratiques et si rapides. La croissance économique se présente ainsi sous les espèces d’une communication inoffensive, qu’il convient seulement de « faciliter » dans l’intérêt de tous, au service de bonnes causes, alors qu’elle vise à absorber l’ensemble des sphères non économiques dans sa progression dévorante. Ce faisant, elle parachève l’intégration de toute critique dans l’escarcelle de sa propre valorisation. Elle réussit à éliminer son propre dehors en contribuant à l’inanité de toute opposition politique — ceci dans la mesure même où elle prétend faciliter la diffusion de causes politiques. L’argument selon lequel on doit à Facebook (et d’autres réseaux sociaux) le départ et la diffusion de contestations sociales doit être analysé à l’aune de la croissance de Facebook lui-même, qui, pendant qu’on poussait les représentants de l’État à la démission, engrangeait les bénéfices cachés de ces révoltes : nous avons insensiblement changé de maîtres. La critique de la croissance peut ainsi en rester à la critique fétichiste des objets physiques en éludant les progrès d’une infrastructure de la communication prétendument acceptée pour la bonne cause. Ce faisant, elle nourrit un capitalisme à qui elle demande en même temps de décroître ou de disparaître. Cela démontre par les faits l’inconséquence d’une critique qui ne va pas jusqu’à considérer sérieusement l’affirmation de MacLuhan sur l’identité du message et du média. Que ne faut-il de naïveté ou d’idéologie pour penser qu’une bonne idée se suffit tellement à elle-même qu’elle n’a pas à s’interroger sur ses voies de médiatisation !

Facebook offre un cas d’espèce qui permet de définir un certain type d’enrôlement subjectif et d’éclairer la nature de certains compromis apparemment sans retour. La rumeur qui parlait d’une candidature de Zuckerberg aux élections américaines est à prendre au sérieux, même si la réputation de l’entreprise est désormais entachée : nous savons que le scénario d’un président milliardaire sans expérience politique est possible, aussi le scénario d’un milliardaire de la Silicon Valley président des États-Unis n’est pas exclure. Comme chacun sait, Mark Zuckerberg a dû répondre en 2018 devant le Sénat américain et le Parlement européen du scandale de la vente des données personnelles à Cambridge Analytica, c’est-à-dire pour avoir transgressé le respect de la vie privée des utilisateurs et avoir permis que soient influencés les résultats des présidentielles Américaines. Mais la dénonciation aussi irrégulière qu’inefficace du monopole des GAFAM [2] semble incapable de mener à une poursuite juridique à l’aide des seules lois antitrust américaines, en raison de l’intérêt pour le bien commun dont se targuent les géants du monde numérique : investissement dans la recherche scientifique (qui est cependant bien davantage qu’une recherche désintéressée puisqu’elle porte un vaste projet de société) et accession des particuliers à une multitude de services « gratuits ». Ces lois américaines qui surent dans le passé conduire au démantèlement d’entreprises aussi influentes que la Standard Oil ne s’appliquent plus à la situation actuelle. C’est pourquoi un auteur libéral comme Luc Ferry n’a rien de mieux à proposer aux Européens que de créer leur propre GAFAM. Leur monopole et leur ascension politique a déjà réussi la paralysie du monde politique, au point que la seule « alternative » aux GAFAM américains serait des équivalents européens, ce que les Chinois ont bien compris avant tout le monde avec leurs BATX [3]. L’arrogance européenne consistant à considérer par provision l’Europe comme naturellement porteuse de valeurs plus hautes — capable de transcender les horreurs américaines et chinoises — est une fois encore sans limites. Mais la menace que font peser les GAFAM sur l’économie et la politique elles-mêmes est la raison pour laquelle ces entreprises sont désormais dans le viseur de tout le spectre politique de droite comme de gauche, y compris américain : elles sont déclarées contrevenir aux règles minimales du libre-échange et inquiètent donc non pas tant pour leurs vertus capitalistes que pour leur nature anticapitaliste [4], comme un tricheur à qui on rappelle les règles du jeu, sauf que c’est désormais le tricheur qui fait les règles. Il n’est donc pas étonnant qu’une libérale comme Margrethe Vestager, commissaire européenne à la concurrence (et devenue en décembre 2019 vice-présidente de la commission européenne en charge du numérique), ait fait de la lutte contre les GAFAM son plus grand défi. Comment en sommes-nous arrivés à une situation où des entreprises en situation de monopole mondial sont devenues à ce point capables de dicter les règles du jeu politique ? Il est possible d’étudier toute la stratégie commerciale de ces firmes pour en tirer des conclusions sur leurs ambitions politiques, dont le transhumanisme est le fleuron idéologique. Mais cette approche ne suffit pas : elle n’explique pas la protestation persistante des utilisateurs même les plus gauchistes et les plus anticapitalistes en faveur de Facebook « malgré leur répugnance », et ceci en dépit des nombreux signaux d’une modification sournoise et fondamentale de la vie politique que Facebook et d’autres ont déjà enclenchée et bientôt remportée. Il n’est que de voir le nombre de lieux qui se disent anticapitalistes et alternatifs, dont le compte Facebook est mieux mis à jour que leur site Internet : ce qui contribue de fait soit à forcer le sympathisant à ouvrir un compte Facebook pour accéder aux contenus, soit à l’exclure de ces mêmes contenus s’il persiste à refuser de se joindre à la communauté Facebook. On conviendra que c’est là un comble pour toute pensée critique. Qu’on en juge par les propos sans fards de Peter Thiel, fondateur de PayPal, actionnaire de Facebook, transhumaniste, libertarien élitiste et adversaire résolu de la démocratie : « Nous sommes engagés dans une course à mort entre la politique et la technologie. Le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme [5]. » Les États, pour rester dans la course, sont sur une pente glissante : la France des droits de l’homme n’a pas craint de faire passer sans débat parlementaire en 2016 un mégafichier (Titres électroniques sécurisés) qui centralise les informations personnelles et biométriques de tous les Français. L’Europe met à l’essai « à des fins de recherche » un système de contrôle aux frontières européennes (iBorderCtrl) financé par la Commission européenne, qui utilise les technologies de reconnaissance faciale, un détecteur de mensonges et le recueil des données — tout ceci au nom du confort des usagers et de la sécurité collective qui seront les critères décisifs pour l’éventuelle adoption ultérieure de ce système de contrôle. Nous sommes insensiblement, une étape après l’autre, dépossédés du droit de ne pas être traçabilisés et personne ne sait à quoi peut servir dans un avenir incertain la constitution de tels fichiers (dont l’exemple de la Chine donne un certain avant-goût). Il n’y a aucune raison de penser qu’ils ne vont pas continuer de s’étendre en volume et en applications, toujours pour la bonne cause. « On vous protège », affirme désormais péremptoirement le métro parisien pour justifier les caméras de surveillance. Le progrès technologique est vu ici comme un développement autonome, naturel, cosmique en somme, contre lequel seules des interdictions puissantes auraient peut-être une chance de nous sauver du désastre. Il n’y a pas de choix ; il n’y a que des permissions ou des interdictions, des évitements ou des facilitations d’un phénomène qui, pour ainsi dire, se passe sans nous (dans la droite continuation du fétichisme du progrès). Pendant ce temps, nous continuons de nous enfoncer mollement dans la consommation numérique comme dans un sommeil de nos facultés critiques. Je prie le lecteur d’imaginer sur quelle pente nous mène ce faisceau de tendances qui concourent, mises ensemble, à transformer la planète en lieu invivable et sans échappatoire et l’humanité à un troupeau d’enfants qu’on dresse, qu’on surveille, qu’on protège et qu’on évalue.

Or tout se passe ainsi comme si nous avions (presque) tous voté pour Facebook et que nous considérions cette dictature d’un genre nouveau (sans doute difficile à décrypter aux habitudes héritées de l’histoire des dictatures) comme la seule option possible, rapportée à une inoffensive évolution des pratiques — du moins aussi longtemps que quelqu’un d’en haut ne nous en aura pas libérés, comme des enfants pris au piège. C’est dans ce contexte qu’il convient de replacer la demande répétée aux institutions européennes de nous libérer des GAFAM. Se peut-il que tout le monde s’en serve, mais que personne n’en veuille ? Voulons-nous ce que nous désirons, pour reprendre une formule de Lacan ? Personne ne se risque à dire sur quel modèle économique l’Europe pourrait sortir des GAFAM, étant donné qu’une version européenne des GAFAM fondée sur le même modèle économique n’aurait évidemment rien d’émancipateur, sauf à supposer qu’un label européen serait naturellement plus moral qu’un label étranger, comme tend à le croire le vieux chauvinisme européen. Quoi qu’il en soit, les politiques nationales et européennes sont dans l’impasse et leurs représentants sont détestés à la mesure de l’attente exorbitante à leur endroit.

Que dire ici des utilisateurs de Facebook ? Ils ne semblent à tout le moins pas faire grand cas ni de leurs données personnelles, ni des projets qu’elles permettent de financer, ni des influences qu’on exerce sur eux. Pourquoi en effet poursuivre les entreprises si le public en redemande ? La même personne qui ne se déclare pas prête à quitter Facebook peut à la fois critiquer la viduité de la plus grande partie des communications échangées sur Facebook, jouer tout de même les « infiltrés » et en appeler à la lutte active contre les GAFAM [6]. De manière caractéristique, cette argumentation manie soumission et fausse critique sans rien trancher sur le fond. À côté de l’argument pratique, il se développe en particulier une série de « justification par l’infiltration » : être présent sur Facebook permettrait justement d’observer Facebook, voire permettrait de répandre à grande échelle des informations critiques, de lancer des mouvements ou d’accéder soi-même à des informations inaccessibles ailleurs (alors même que tant d’informations sont notoirement des fake news et que tant d’autres sont censurées). Voyons plutôt ce que déclarait l’une des collaboratrices de Facebook au souvenir de l’introduction des News Feed en 2006 :

« Nous nous sommes réveillés avec des centaines de milliers de gens indignés. Pendant la nuit, des groupes Facebook comme ‹ je déteste newsfeed ›, ‹ Ruchi [la collaboratrice en question] est le diable › s’étaient constitués. Des reporters journalistiques et des étudiants étaient campés devant les bureaux. Nous avons dû nous faufiler discrètement par la sortie arrière pour quitter le bureau. Des tas de gens nous demandaient de fermer définitivement News Feed. Et la plupart des autres entreprises auraient exactement fait cela, en particulier si 10 % de leurs usagers menaçaient de boycotter le produit. Mais nous ne l’avons pas fait… En fait, News Feed a marché. Au milieu de tout ce bazar, de toute cette indignation, nous avons remarqué quelque chose d’inhabituel. Bien que chacun prétendait le détester, l’activité avait doublé [7]. »

La mesure de l’action plutôt que celle de l’opinion aura ici été déterminante : non pas ce que vous dîtes, mais ce que vous faites. C’est bien le coup de clic qui aura été décisif, cette sorte de réflexe inscrit dans la peau des utilisateurs de l’ère numérique. Cela porte un nom en économie néoclassique : ce sont les préférences révélées [8]. L’écart entre l’indignation affichée des utilisateurs et le succès réel de la chose (« News Feed a marché… l’activité avait doublé ») justifie la poursuite de l’entreprise, ressort ultime de son ascension. Le compromis passé à ce moment-là ouvre une voie qui, semble-t-il, est sans retour : une fois que ce cap fut franchi, Facebook devint en quelques années toujours plus puissant et politiquement hors d’atteinte. Les conditions d’installation initiales furent comme frappées de refoulement. Le compromis originel devient illisible dans ce que Freud nomme les phénomènes de déplacement ou de condensation : le destin du compromis est d’avoir effacé ses propres traces. Il n’empêche que le monde numérique est plein de repentis, tel le fondateur de WhatsApp qui, après avoir revendu l’application à Facebook investit désormais dans la protection des données, laquelle ne change rien au modèle économique de Facebook : elle renforce au contraire sa légitimité écornée. L’opinion d’une gauche imbue d’elle-même selon laquelle nous ne voulons pas de ce modèle de société est contredite par l’’ascension arrogante de ce même modèle assise sur une complicité généralisée. Se peut-il alors que les gens ne reçoivent pas autre chose en fait que ce qu’ils veulent vraiment ? Leur véritable désir est-il celui, pur, qui précèderait le moment de corruption, ou bien celui révélé par l’offre qu’ils acceptent gracieusement ? Cette spirale rétroactive ne se ferme sur aucune ontologie subjective susceptible d’endosser l’entière responsabilité du circuit de l’offre et de la demande. Leur vrai désir n’est certainement ni l’un ni l’autre : le désir n’a pas de substance. Lacan a dit que le désir de l’homme, c’est le désir de l’Autre : toutes les gesticulations sur mon désir insatisfait ne valent pas un instant de considération si mon adresse constitue un ralliement secret à cet Autre incarné dans le discours du moment – en attendant le prochain discours. À charge donc pour le critique d’incarner un autre discours. Le moment fictif de corruption (celui où un utilisateur se met agir d’une manière qu’il réprouve ou prétend réprouver) est lui-même ce point évanouissant d’une subjectivité impossible à objectiver à la fin autrement que dans la somme de ses actes. L’autre sujet, celui de l’inconscient, celui qui articule la structure « je sais bien, mais quand même… », n’est justement pas lisible dans l’ordre du monde algorithmique. Que vous ayez un doute, une mauvaise conscience ou un repentir ne compte pas pour les big data, qui ne font que totaliser des actes. Il s’ensuit que ce réseau social est probablement l’entreprise la plus populiste au monde, à savoir qu’il accorde une certaine fonction politique à la multitude dont il révèle ou façonne une préférence en supplantant imperceptiblement dans son creuset algorithmique toutes les formes connues d’organisation politique.

Mark Zuckerberg ne cesse de protester ingénument (lui aussi) du fait qu’il n’avait aucune autre intention que celle de lancer un réseau efficace et enrichissant pour les utilisateurs. Il nous semble décidément n’avoir à faire qu’à une humanité exclusivement soucieuse de générosité et de partage. Mais l’histoire de Facebook montre que la bonne intention dérape à un endroit de sa collusion obscure avec l’Autre au cours de son processus de multiplication. N’est-ce pas à juste raison que Zuckerberg ne manque jamais de remercier les utilisateurs de l’avancement de son grand projet universel ?

« À un moment, il [Mark Zuckerberg] décida que le principe universel qui vaut ici, c’est celui de l’acte d’engagement. Ce à quoi nous devrions vraiment prêter attention, ce dont il s’assurera que nous y prêtions attention, ce sont les choses qui génèrent de l’engagement. […] Le behaviourisme est ancré dans Facebook. Facebook n’en a pas fait mystère. Facebook est constamment en train d’ajuster ses algorithmes pour essayer de commuter nos états émotionnels positifs, qu’on appelle habituellement le bonheur. C’est l’une des raisons pour lesquelles Facebook mesure le bonheur du mieux qu’il peut, ou du moins c’est ce que pensent ses administrateurs. Voilà pourquoi ils ont conduit des études sur le changement de l’humeur (et cela leur causa des problèmes). C’est le genre d’ingénierie sociale qu’ils veulent mettre en place. C’est l’une des raisons pour lesquelles ils essayent d’appliquer le principe de mesure hédoniste à toutes les espèces [9]. »

Or Zuckerberg n’a pas mieux à promettre que ses investissements dans le domaine de la connexion télépathique universelle et la disparition de toutes les maladies de la terre, projets qui en d’autres temps seraient passés pour ceux d’un dangereux psychopathe. Lorsqu’il dévoile son projet d’interface cerveau-ordinateur, qui serait capable de transformer le flux des pensées en données partageables et en interaction directe avec les objets connectés, il n’a aucune raison de douter qu’une telle technologie trouvera des utilisateurs, conformément aux principes qui ont fait leurs preuves jusqu’à présent : « Je suppose que ce serait quelque chose que quelqu’un choisirait d’utiliser comme produit [10]. » Le fantasme de symbiose technologique tire son ressort de la promesse de surmonter la division du sujet par la fusion de l’environnement et de l’individu — en quoi notre civilisation s’avance dangereusement au bord de l’abîme de la responsabilité. Ceci dit indépendamment de la faisabilité de ce projet, qui reste bien sûr incertaine.

Et tandis que la seule solution, mais la plus improbable d’après certains critiques, serait de quitter massivement Facebook, on argue en face qu’il est peine perdue de quitter Facebook (les données étant récoltées partout ailleurs, autant dire qu’il est trop tard) et qu’on ne voit pas comment garder contact avec famille et amis, organiser un événement d’envergure ou lancer un mouvement contestataire sans un service équivalent à celui de Facebook [11]. Si une étude déplorait un quart de fermeture de comptes Facebook par les utilisateurs américains lors du deuxième trimestre 2018 (mais seulement environ 1 % de baisse d’utilisation active en Europe), Facebook n’est pas menacé et détient suffisamment d’autres services par ailleurs. Chacun sait que lorsque les utilisateurs sont lassés d’un service, il suffit — c’’est de bonne guerre capitaliste — d’en proposer un nouveau. Ce point de fuite est caractéristique d’une incapacité croissante des peuples et des individus à dire non, le refus ponctuel étant de toute façon immédiatement réorienté vers une nouvelle offre. Il faut donc le dire : Mark Zuckerberg a dû répondre des opérations de son entreprise, mais les utilisateurs sont à la fin lavés de toute responsabilité. Eux n’ont que de bonnes raisons, ludiques ou sérieuses, et toujours déclarées « pratiques », de rester utilisateurs d’un réseau qui, en vérité produit une accumulation capitaliste exponentielle grâce à leurs données personnelles et met en œuvre une révolution politique. Or ce n’est pas le règlement général sur la protection des données (RGPD) qui change quoi que ce soit à cette politique ; ce dernier parachève la perversion en permettant la récolte des données… avec votre consentement obligatoire, même si celui-ci est obtenu en un clic négligeant. Même si la case cochée par défaut n’est plus légale, on peut se demander quel utilisateur lit à chaque fois l’intégralité des conditions d’utilisation et s’embête d’un long détour pour refuser son accord. De plus le RGPD ne s’applique qu’en cas d’identification personnelle des données, mais ne s’applique pas à leur recueil anonyme à des fins statistiques (certains types de cookies), ce qui égare l’utilisateur. Il s’ajoute à cela un certain nombre de détournements des conditions d’utilisation qui ont été dénoncées en France par l’association la Quadrature du Net. La tactique du plus malin caractérise le recueil du consentement qui n’est pas du tout aussi « univoque » que le prétend le RGPD. En pratique, c’est une demande fastidieuse répétée à chaque nouveau site, renouvelable régulièrement, soumise à des conditions d’utilisation et à des paramétrages qui n’intéressent pas le profane. Le consentement s’obtient en harassant l’utilisateur par une demande répétée faîte dans des conditions qui dérangent sa navigation. Or le consentement obtenu de cette manière est d’ores et déjà l’argument imparable de Facebook dans les plus récentes accusations de collecte de données qui se poursuivent en contournant le règlement européen par le biais d’applications mobiles, faisant de l’utilisateur un « complice [12] » par sa négligence même à vérifier les conditions d’utilisation au moment de l’installation d’une application. Nous retrouvons au cœur de la question de la responsabilité la notion de consentement qui est tout sauf « univoque », contrairement à ce que prétend le RGDP. C’est plutôt en se fondant sur une équivoque fondamentale du consentement que Facebook peut continuer à déployer son modèle commercial. Comment Facebook cesserait-il, du reste, de collecter des données, puisque tout son modèle politique et commercial est bâti là-dessus ? Pourquoi fait-on mine tous les quatre matins de redécouvrir la même chose et de s’en offusquer ? Seule l’interdiction pure et simple de l’utilisation commerciale des données mettrait en péril le monopole, voire l’existence de Facebook. Au risque d’avoir un tiers de l’humanité en révolte pour défendre leur réseau social ?

Le mythe d’un Facebook générateur de rassemblement horizontal et de révolutions sociales (printemps arabes, gilets jaunes) oublie que ces révolutions sont retombées comme des crêpes, débouchant ici sur de nouvelles dictatures, là sur des réclamations populistes qui ne démontrent aucunement la capacité des citoyens à concevoir et organiser une nouvelle société, car une nouvelle organisation demande, comme disaient les surréalistes, de changer la vie et non pas seulement de répandre des mots d’ordre sur les réseaux. On ne pourra changer la vie qu’en reprenant la main sur les circuits de production et de décision politique. La « communauté globale » que promeut Facebook pour faire face aux défis globaux (tels le terrorisme, la crise des réfugiés ou le changement climatique [13]) ne démontre que l’ambition de son fondateur, pas seulement de renvoyer à la société son miroir supposé, mais aussi d’être à la source d’un changement mégalomane de société auquel chacun de nous a renoncé à toute petite échelle (à l’échelle de changer la vie). C’est ainsi qu’un enchaînement d’effets de masse conduit un fantasme ordinaire (qui ne voudrait sauver le monde ?) mais réprimé vers un effroyable degré de réalisation parfaitement combiné à l’apathie générale. Il repose sur la réorientation de toute activité de changement politique vers une émotion cliquée. Chacun s’émut d’apprendre que « la démocratie est menacée » lorsqu’une frange d’électeurs fut subrepticement influencée pendant la campagne politique de Donald Trump : mais qui met en doute la psychologie behavioriste rudimentaire qui fonde cette affaire, selon laquelle il suffit d’envoyer un message ciblé à la bonne frange d’électeurs et au bon moment pour faire tourner le vent politique ?

L’idée fondamentale est que les électeurs, comme les consommateurs, sont des sortes d’animaux manipulables à volonté, et non des sujets responsables de leur vote, quelque légère ou versatile que soit leur opinion. C’est une vision qui n’est ici pas un instant mise en doute : l’homme est un animal qui répond à des signaux. Il n’est donc pas responsable de ce qu’il fait et il convient uniquement de s’assurer de lui trouver un maître pas trop mauvais ou de vérifier les signaux qui lui sont envoyés, au cas où ils seraient malveillants, racistes, sexistes ou encore simplement faux. Il faut protéger la petite tête influençable du citoyen. Il y a beaucoup plus de souci à se faire sur cette définition animalière de l’homme réagissant au premier stimulus venu (comme si rien ne venait de lui et qu’il n’avait aucune responsabilité dans sa réponse) que sur les politiques d’un Trump ou d’un Zuckerberg qui du reste ont été portés au sommet par les peuples — l’un par le vote politique, l’autre par le vote économique. Deux formes de choix social qui ont bien en commun certains principes et certains paradoxes, notamment celui de ne jamais pouvoir refléter le désir supposé de l’individu, et donc de pouvoir donner lieu à des résultats collectifs aberrants, qui relancent, à rebours, l’insondable question de leur rapport à l’individu. Ce dernier évitera ainsi de se demander ce qu’il a à voir avec un résultat collectif dont il croyait ne pas vouloir. L’individu, citoyen ou utilisateur, préférera rejeter en bloc les élites et les représentants, accusés d’avoir menti sur la marchandise, plutôt que de remonter à la racine du compromis passé avec les forces qui le dépossèdent de son pouvoir d’agir. L’exemple de Facebook et d’autres plateformes à l’ascension fulgurante met en évidence par quel compromis imperceptible nous mettons le pied dans un engrenage qui ne tarde pas à apparaître ensuite comme une machine écrasante sur laquelle l’individu n’a plus aucune emprise. Facebook représente en ce sens le récapitulatif fulgurant de toute l’histoire du capitalisme.

Sandrine Aumercier, décembre 2019


[1] Cet article correspond au treizième chapitre de l´ouvrage paru le 5 décembre 2019, reproduit ici avec de légères modifications avec l´accord de l´éditeur : Sandrine Aumercier, Tous écoresponsables ? Capitalisme vert et responsabilité inconsciente, Libre & Solidaire, 2019. Site de l´éditeur : https://libre-solidaire.fr/

[2] Google, Amazon, Facebook, Apple, Microsoft.

[3] Baidu, Alibaba, Tencent, Xiaomi.

[4] Larry Elliott, « Is it Time to Break Up the Tech Giants Such as Facebook ? », The Guardian, 25 mars 2018.

[5] Fabien Benoit, « Peter Thiel, l’homme qui voulait achever la démocratie », Usbek et Rica, 17 juin 2018. En ligne : https://usbeketrica.com/article/peter-thiel-l-homme-qui-voulait-achever-la-democratie

[6] Olivier Erztscheid, « Pourquoi je ne quitte pas (encore) Facebook », Libération, 24 avril 2018.

[7] Ruchi Sanghvi, post Facebook, 06 septembre 2016, cité par Andrea Huspeni, « Mark Zuckerberg Reveals the 5 Strategies that Helped Facebook Grow at an Insane Rate », Entrepreneur, 25 mai 2017, en ligne : https://www.entrepreneur.com/article/294787.

[8] Olivier Mongin, « Les préférences révélées et la formation de la théorie du consommateur », in Revue économique, vol. 51, n° 5, septembre 2000.

[9] Alexis C. Madrigal, « Were We Destined to Live in Facebook’s World ? », Entretien avec Siva Vaidhyanathan, The Atlantic, 24 juillet 2018, en ligne : https://www.theatlantic.com/technology/archive/2018/07/were-we-destined-to-live-in-facebooks-world/565877/

[10] Noam Cohen, « Zuckerberg Wants Facebook to Build a Mind-Reading Machine », Wired, 7 mars 2019. En ligne : https://www.wired.com/story/zuckerberg-wants-facebook-to-build-mind-reading-machine/

[11] Brian X. Cjen, « Want to #DeleteFacebook ? You Can Try », New York Times, 21 mars 2018.

[12] Hatim Boumhaouad, « Exploitation des données personnelles par Facebook : l’usager est-il complice ? », The Conversation, 7 avril 2019. En ligne : http://theconversation.com/exploitation-des-donnees-personnelles-par-facebook-lusager-est-il-complice-114576

[13] Alexis C. Madrigal, « The Education of Mark Zuckerberg », in The Atlantic, 20 novembre 2017. En ligne : https://www.theatlantic.com/technology/archive/2017/11/the-mark-zuckerberg-theory-of-community/546290/

Human-made-decision versus machine-made-decision

Souvent, dans des situations complexes mettant en jeu des conflits de valeur, des conflits d’intérêts ou des incertitudes sur son véritable désir, on ressent une angoisse de ne pas savoir prendre « la meilleure décision » et on fait tout pour s’en remettre à l’avis d’un tiers. Parfois, on est tenté de consulter une série de personnes ou de pages web et de tirer de cette consultation une position qui refléterait soit l’opinion majoritaire, soit l’opinion moyenne, soit une opinion experte. Cette démarche peut égarer davantage, si la consultation amène de nouveaux paramètres qui s’ajoutent aux éléments déjà existants. Mais elle peut être un soulagement si l’on décide de s’en remettre à une autorité avisée, qu’elle soit représentée par une personne ou par la fiction d’une décision « bien pesée », laquelle peut être figurée par une liste comparée des arguments positifs et des arguments négatifs, avec, pourquoi pas, des coefficients d’importance. La décision finit donc par s’apparenter à un problème mathématique qu’il faut résoudre correctement. L’observation psychologique élémentaire montre pourtant que les sujets ne sont jamais satisfaits avec la perte d’une option. Le choix manifeste se présente comme un choix équivalent entre A et B, mais le choix fondamental inclut aussi la souffrance durable de « non-A » ou « non-B ». Il n’existe donc pas dans l’absolu « la meilleure décision » et l’éthique consiste à laisser cette question ouverte malgré le malaise apparemment insupportable qu’elle provoque.

Le fantôme de la perte hante les mortels que nous sommes. Le cas de conscience ou encore le dilemme cornélien suppose que toute décision entraînera une perte pour le sujet ou une entorse morale. Kant a d’avance évité tout dilemme de ce genre en disant que le devoir inconditionné de dire la vérité impliquait nécessairement de pouvoir le cas échéant dénoncer son ami, même s’il devait en résulter des conséquences fâcheuses [1]. C’est que Kant mettait le devoir de dire la vérité au rang de devoir suprême, au principe même de l’établissement d’un pouvoir politique. Ce devoir ne souffrait donc pas d’exception. L’architecture du système kantien en dépendait. On voit tout de suite ce qui pourrait s’ensuivre si on prenait Kant à la lettre au moyen d’une intelligence artificielle capable de détecter le mensonge, telle le système DARE [2]. Notre seule chance d’échapper à la potentialité terrifiante d’un pouvoir politique capable de détecter le mensonge dans toutes les situations cruciales est de retourner Kant contre Kant en lui opposant l’autonomie de la raison humaine, qui reste au principe de la philosophie kantienne.

Freud, lui, ramenait les rationalisations à un fond de « préférences pulsionnelles [3] » issues de la vie sexuelle infantile refoulée, ce qui achève de jeter le trouble dans la discussion morale. Car que pouvons-nous dire d’une préférence inconsciente ? Et que pouvons-nous en faire ? Précisons au passage — afin de prévenir un cliché répandu — que Freud ne fait pas par là l’apologie de l’irrationnel, d’une part parce que la préférence inconsciente répond tout à fait à un type de rationalité, et d’autre part parce que la vie pulsionnelle ne dédouane pas la raison de s’exercer, fût-ce à titre secondaire. Le désir inconscient ne consiste pas en motifs psychologiques, mais en une autre rationalité, laquelle adresse au sujet un défi logique qui s’exprime dans toutes les productions de la pensée (même les mathématiques). Il y a quelque chose en nous qui nous envoie une question que nous prenons au sérieux lorsque nous exerçons notre faculté de raison pour tenter de résoudre les problèmes logiques qui se posent à nous du fait de notre vie pulsionnelle.

Le dilemme du tramway est l’une de ces célèbres apories remises au goût du jour par le problème de la programmation des voitures autonomes. L’auteure de l’article fondateur confronte le lecteur avec diverses situations de dilemme (et non pas une seule) qui déclinent différentes modalités de l’intention et de l’exposition aux effets collatéraux ou encore aux « doubles effets », à partir du dilemme de l’avortement au sein de l´Eglise catholique [4]. Philippa Foot discute des exemples casuistiques destinés à fournir un critère moral distinctif dans des situations vitales où une vie humaine doit être sacrifiée au bénéfice d’une ou plusieurs autres. La discussion est, on le sent, menacée de relativisme. L’auteure parvient seulement à la conclusion que le critère pertinent ne saurait être uniquement la taille du mal infligé pour un moindre mal (critère quantitatif), mais aussi la nature de l’action entreprise pour l’éviter. Par exemple, le cas du véhicule choisissant de tuer une personne plutôt que cinq n’est pas équivalent à la décision de livrer une personne à un preneur d’ôtage pour en délivrer cinq. Pour résumer son argumentation, l’article ne semble avoir aucun doute sur la nécessité de sauver le maximum de vies quand nous sommes confrontés à deux devoirs négatifs (soit tuer une personne, soit en tuer cinq) ; le doute moral porte en revanche sur l’action positive de sacrifier une vie pour en sauver une ou plusieurs autres à partir de la distinction opérée entre devoir négatif (ne pas infliger de tort) et devoir positif (apporter de l’aide). L’argumentation de l’auteure la conduit à justifier sans hésiter l’histoire des marins qui survivaient à la faim en consommant l’un d’entre eux. Disons-le, l’argumentation est quelque peu abstruse, tout comme celle d’autres articles qui ont suivi cette tradition [5]. L’embarras des auteurs est patent. Il semble qu’ils soient occupés à fonder à grand peine une morale déontologique à partir de prémisses conséquentialistes posées par le setting initial. Ce qui ne réussit pas complètement, parce que l’opération risque à tout moment de fournir des résultats contre-intuitifs. Le devoir brut de sauver cinq vies plutôt qu’une ne semble poser de problème à personne, tant que la question reste posée au niveau abstrait ; les scrupules s’élèvent quand on commence à envisager les différents déterminants impliqués dans une situation concrète, où il s’agit d’autre chose que de maximiser le sauvetage de viande humaine. Sinon, nous pourrions en effet attraper le premier passant en bonne santé pour fournir ses organes à plusieurs malades nécessitant une transplantation d’urgence, et argumenter du fait que nous avons de la sorte sauvé plusieurs vies au prix d’une seule : un moindre mal.

Ces discussions sont exacerbées par le développement des voitures autonomes au point que le Massachussetts Institute of Technologie a engagé une vaste consultation publique sur ce sujet à l’aide d’expériences mentales proposées sur un site dévolu à cette question. Moral Machine suggère de déterminer la morale des machines grâce à l’évaluation de la morale humaine à partir d’un constat tourné en fait accompli : « L’intelligence machinique soutient ou supplante entièrement toujours plus d’activités humaines complexes à un rythme croissant [6]. » Le fait que les machines soient intelligentes et prennent des décisions morales n’est pas soumis à la discussion : il s’agit de discuter sur quels principes moraux nous nous accorderons pour programmer ces machines. Et ceci, paraît-il, en puisant dans la morale ordinaire.

Avec la voiture autonome, il s’agit, dit-on, de doter la machine d’une capacité de décision morale qui ne sera pas une capacité aléatoire et faillible comme la moralité humaine. Ce sera la morale ordinaire, mais en mieux. Le public et le constructeur ne souffriront en effet aucun écart dès lors qu’aura été trouvé un consensus sur les principes qui gouvernent l’action de la machine. Personne ne voudrait, n’est-ce-pas, d’un véhicule « qui n’en fait qu’à sa tête ». Le machine learning est toutefois supposé doter la machine de facultés d’apprentissage qui pourraient conduire à ce que dans deux situations identiques, la machine agisse autrement la deuxième fois que la première, ayant appris de la première fois ou d’une autre source de données. Elle n’aura pas pour autant dérogé à l’axiome initial de son paramétrage. Alors que l’humain, lui, pourrait être les deux fois sous l’emprise de deux états différents, imprédictibles et sans corrélation l’un avec l’autre, c’est-à-dire faire valoir un axiome moral différent.

Les problèmes éthiques posés par le véhicule autonome, tout comme d’autres domaines de décisions algorithmiques, supposent implicitement : 1/ que la « meilleure décision rationnelle » existe ; 2/ qu’elle peut être connue ; 3/ que si elle est connue, elle doit être garantie par le programme ; 4/ qu’elle doit être implémentée à grande échelle, voire rendue obligatoire, puisqu’elle est la meilleure. Cette prémisse théologique (qui suppose l’existence d’un souverain bien) ressurgit donc au beau milieu de problèmes qui paraissaient de prime abord d’une grande platitude matérialiste : confort, sécurité, mobilité accrue, etc.

La comparaison avec les risques inhérents à toute technologie, dont certaines déjà anciennes (comme le train ou l’ascenseur [7]) élude la généralisation d’un autre paradigme : le véhicule autonome érige la survie physique en valeur suprême. Tout ce qui optimise la quantité de corps survivants est bien, le contraire est mal. Mais on est aussi forcé par là de dire lesquels. Le rapport rendu en Allemagne par la Commission d’éthique sur la conduite automatisée exclut que les véhicules choisissent certaines victimes plutôt que d’autres selon des critères discriminatoires, mais il affirme que « la conduite automatisée et connectée est un impératif éthique si les systèmes causent moins d’accidents que les conducteurs humains. » Ce n’est rien d’autre que l’argument de Tesla. Cela pourrait justifier de les rendre un jour obligatoires. Le rapport affirme sans ambages : « Sur notre échelle de valeurs, la protection de la vie humaine est un summum bonum [8]. » Il s’agit d’un setting utilitariste fort : il faut maximiser le nombre de vies humaines sauvées, ce que sont déjà sensé faire les politiques de santé publique. Une assertion paradoxale dans un monde menacé de toutes part par des crises notoires, multiples et destructrices, précisément d’origines anthropiques…

Mettre l’accent sur le processus de décision (machinique ou humain) ferait presque oublier que c’est en général une situation soit monstrueuse soit improbable qui accule un sujet à une telle décision. La consultation publique du MIT repose sur des situations fictives. La quintessence de cette spéculation morale est atteinte par le roman le Choix de Sophie, ce qui en explique peut-être le succès. Mais dans les situations ordinaires, les sujets n’ont pas à effectuer des choix aussi radicaux et si, par accident, cette situation se présente, on pardonne n’importe quelle décision. Une situation assez folle peut justifier toutes les réponses inacceptables en temps normal. Il fallait toute la perversion du système nazi pour que des gens se retrouvent dans la situation d’avoir à choisir de sauver un parent plutôt qu’un autre. Lors d’une rafle où les détenteurs d’un coupon jaune (chefs de famille) et les détenteurs d’un coupon bleu (membres de leur famille) devaient se présenter en rang ordonné à la porte du ghetto de Vilnius [9], des chefs de famille étaient placés devant des « alternatives atroces », dit le récit, où ils devaient choisir quels membres de leurs familles inscrire à leurs côtés, par exemple leur mère ou leur femme. L’un racontait : « Je l’avoue : j’aime plus ma mère que ma femme, mais ma femme est la mère de mes enfants et maman est vieille déjà, elle a vécu. » Un autre disait : « J’ai fait enregistrer ma mère comme étant ma femme et ma femme, je l’ai laissée dans un abri. L’homme n’a qu’une seule mère, mais il peut avoir une seconde femme. Si maman disparaît, je n’en aurai plus d’autre, mais si je deviens veuf, je pourrai me remarier. J’ai peut-être mal agi, mais j’ai fait selon mon coeur. J’aime plus ma mère que ma femme. » Un troisième enfin : « Avant de me séparer de ma mère, je suis allé vers elle et je lui ai dit : « Maman, je ne peux pas te prendre avec moi, il faut que je prenne ma femme » [10]. » Ce qui frappe à la lecture de ces témoignages est que d’une part, les gens acculés se montraient étonnamment capables de telles décisions, mais que, d’autre part, ils les prenaient parce qu’un système de terreur les y forçait. La décision prise ne les laisserait plus jamais en paix. La voiture autonome, elle, continuera à rouler tranquillement.

Du statut exceptionnel d’un tel choix dans la vie ordinaire, on passe à un paradigme de programmation, dans un contexte d’implémentation exponentielle de « l’intelligence machinique ». Or, qu’il soit déontologique ou conséquentialiste, un axiome qui prétend incarner un summum bonum à l’échelle universelle permise par les technologies de la communication contient en tant que tel un potentiel effroyable. L’erreur anthropomorphique (répandue) consiste à croire qu’une intelligence artificielle pourrait devenir hostile, c’est-à-dire animée de mauvais sentiments, alors qu’il s’agit, comme le dit Nick Bostrom, du problème des valeurs à implémenter. C’est l’un des problèmes les plus redoutables de l’intelligence artificielle. Une intelligence artificielle encodée selon une ou plusieurs valeurs ne prendra en effet que des décisions conséquentes. Où est le problème direz-vous ? Si l’interdit de l’inceste est aussi universel que l’a dit Lévi-Strauss, alors il n’y a aucun problème à en faire, par exemple, un principe universel éventuellement encodé dans une intelligence artificielle. Sauf que les êtres humains ont de tout temps continué d’avoir affaire à leurs ambivalences et leurs passions, ce qui a finalement créé une immense différenciation des cultures : tout sauf l’application mécanique d’une valeur cardinale. Nous lui devons l’histoire de la culture.

En vérité, cette discussion éthique nous amène aux confins de l’éthique, là où l’éthique est incompatible avec l’universalisation d’un seul axiome (n’en déplaise à une lecture étroite de Kant, qui confondrait universalisation et généralisation), et là où elle implique nécessairement des valeurs plurielles et un jugement singulier souffrant des exceptions. Ceci est radicalement incompatible avec le fait qu’une machine ait la moindre « décision » à prendre. Le principe cherchant à vendre la voiture autonome par l’argument du moindre risque d’accidents statistiques est un compromis passé avec la mort de l’éthique.

On a beaucoup glosé sur les cas où la voiture autonome devrait tuer une personne pour en épargner cinq, et discuté entre autres de savoir si la vie du passager avait la priorité sur la vie d’un passant. Que se passerait-il si d’aventure la voiture autonome devait froidement choisir entre ma mère et ma femme ou bien entre mon fils et ma fille, ou bien entre une personne jeune et une personne âgée, ou bien entre un homme et une femme, et ainsi de suite ? Le rapport de la Commission éthique allemand exclut formellement un tel choix. Mais les éthiciens en appellent pourtant à des machines « empathiques ». Le vieil adage « les femmes et les enfants d’abord ! » est-il obsolète dans une société égalitariste ou bien est-il exigible d’une machine dotée « d’empathie » ? Nous exigeons de la machine qu’elle soit d’une équité irréprochable mais aussi qu’elle soit en « empathie » avec les émotions humaines, un peu comme la quadrature du cercle… C’est bien sûr encore une fois oublier que la soi-disant empathie de la machine sera encodée, simple reflet anthropomorphique de nos propres contradictions.

En l’absence de réponse consensuelle à de telles questions, il ne faut pas exclure la possibilité qu’un programme soit doté d’une capacité de décision aléatoire dans les cas éthiquement indécidables (la voiture pourrait devoir tirer au sort entre ma mère et ma femme, ou entre un adulte et un enfant). Il est probable qu’en situation analogue un humain effectuerait un choix subjectif inhérent à la singularité de la situation, même s’il est vécu comme un choix tragique, comme dans les témoignages évoqués ci-dessus. Les sondages montrent par exemple que la majorité des gens privilégient la vie d’un enfant sur celle d’un adulte ou celle du conducteur sur celle du passant. Mais de ce que ce choix puisse être effectué dans des situations exceptionnelles ou spéculé en réponse à un sondage, s’ensuit-il qu’il doive devenir une norme ? Les constructeurs, quant à eux, craignent surtout qu’un véhicule autonome qui ne ferait aucune préférence entre le conducteur et les passants ne serait acheté par personne, or il y a une volonté économique et politique de généraliser ce système, sans interroger l’amoralisme intrinsèque qui consiste à remplacer la responsabilité humaine par un algorithme. Tout se passe comme si la décision de généraliser les voitures autonomes était déjà prise (même si cette décision revenait à vendre notre âme), et qu’il ne s’agissait désormais que de vendre le meilleur argument éthique au public un peu inquiet. On va douc vous expliquer pourquoi la machine est plus morale que vous-mêmes.

Mais si le véhicule autonome semble actualiser le dilemme du tramway, ce n’est qu’une apparence. Il ne s’agit plus de délibérer sur un improbable conflit subjectif (à savoir si vous préférez sauver votre mère ou votre femme, une personne ou cinq, un enfant ou un adulte, aussi sordide soit la question), mais d’octroyer au type d’axiome moral retenu une extension telle (due à son échelle d’application) qu’elle façonnera de manière rétroactive la normativité, elle-même enfermée dans une boucle d’auto-confirmation. L’apparition et la systématisation du véhicule autonome introduit la légitimition d’une hiérarchie du pire au nom de la survie. Ce qui n’est pas l’esprit de l’article de Philippa Foot, qui essayait, certes péniblement, d’y échapper. Là où l’humain fait par la force des événements un choix tragique, circonstancié et toujours unique, la machine fera un choix technique dont le caractère axiomatique aura été en fait déterminé par avance et appliqué aveuglément à l’ensemble des situations identiques. Ce nouveau paradigme sera littéralement lancé sur les routes. Même le machine learning n’apprend qu’à raffiner sa réponse au fil des nouvelles données, réponse qui peut nous surprendre ou nous échapper, mais qui reste subordonnée à l’axiome moral encodé au moment de la conception. (Il ne fait pas de doute que certains rêvent de créer la machine qui saura créer son propre code moral supérieur à celui de notre humaine condition : elle saurait récolter dans les big data toutes les figures de la morale, puis les hiérarchiser et les purifier de toute l’amoralité du monde, selon un critère lui-même soumis à l’arbitraire ultime des visions du monde qui finalement ne fait que repousser le problème ad infinitum. Mais nous n’en sommes pas là.)

C’est pourquoi la machine ne sera jamais éthique et parler de dilemme moral est en l’occurrence fallacieux. Il s’agit exclusivement d’un dilemme fictif qui se passe dans la tête des constructeurs et qui n’a aucun rapport à l’événement ultérieur. Contrairement aux situations décrites par Philippa Foot, le véhicule autonome n’a aucune intention ni consciente ni inconsciente, même pas celle de minimiser le nombre de morts. Il n’est pas sous l’emprise d’un dilemme et il n’est pas mis à l’épreuve. Même si son programme disposait d’un nombre colossal de paramètres contextuels qui lui donneraient l’avantage sur le manichéisme moyen d’un être humain, son action ne représente pas une décision, mais l’exécution d’un ensemble de règles prises en amont. Et même s’il agissait en sorte que l’humain ne soit pas capable de comprendre le résultat (comme c’est déjà le cas dans de nombreux processus algorithmiques, bien qu’on travaille à les rendre lisibles), cela ne serait pas dû à l’esprit subtil de la machine, mais à la complexité du calcul. Par contre, la machine transporte et répand un axiome moral. Faire passer l’action de la machine pour une décision éthique consécutive à un supposé dilemme est en soi un coup de force politique qui occulte la position normative à l’œuvre dans le paramétrage et l’élimination subséquente de toute éthique. C’est là un véritable clivage, qui est soutenu par la résolution du Parlement européen du 16 février 2017 [11] lorsqu’il suggère à la Commission européenne de créer une nouvelle catégorie de personnalité juridique pour résoudre les problèmes de responsabilité ouverts par cette situation et d’autres analogues.  

Quant au rapport de la Commission éthique allemand, il prend précisément argument du décalage entre l’intention et l’acte (la personne sacrifiée n’est pas connue au moment de la programmation, aucune personne identifiable n’est donc instrumentalisée) conjugué à une mimimisation statistique des accidents de la route, pour le retourner en argument éthique : s’il est inacceptable, conformément à loi allemande, de sacrifier une personne pour le sauvetage d’une autre, en revanche « pour autant que la programmation initiale minimise le risque de tous de la même manière, elle était également dans l’intérêt de ceux qui ont été sacrifiés avant d’avoir été identifiés comme tels dans une situation spécifique [12]. » (Ce raisonnement est ici comparé au cas de la vaccination.) Le rapport est formel quant à l’immoralité de devoir mettre en jeu la vie d’une personne pour le sauvetage d’une autre, mais il se contorsionne autour de l’inachèvement d’un consensus quant à savoir si le véhicule pourrait être programmée à sacrifier une personne pour en sauver plusieurs.

Si l’une des critiques adressée à l’époque au dilemme du tramway est de n’être qu’une expérience de pensée, c’est bien parce qu’il n’a jamais été question d’en tirer une ligne de conduite ou un protocole d’action valable en tous les cas. En effet, un simple humain peut être éduqué, entraîné ou commandé à réagir ainsi ou ainsi, personne ne sait cependant comment il agira en situation, car personne ne sait quelle idée, quel réflexe, quel affect surgiront d’un contexte forcément unique. C’est en ceci qu’il est un sujet moral, même quand il agit de manière ignoble. La voiture autonome ne répond de rien, elle exécute ce que son programmeur aura codé par avance, une instance qui se donne à peu près les attributs du Dieu-des-accidents-de-voitures. Si le véhicule autonome se mettait à provoquer certains accidents, rares, qu’un humain n’aurait pas provoqué (tel l’accident provoqué par un véhicule Uber du 18 mars 2018 où les capteurs du véhicule, réglés d’une manière trop lâche, avaient été trompés par un « faux positif » et n’avaient pas su distinguer entre un être humain et une chose quelconque), faudrait-il continuer de faire valoir l’argument selon lequel le nombre d’accident total est inférieur à ceux provoqués par des humains ?

Le paradigme introduit par là est qu’il est possible de décider non par hasard, par réflexe, par passion ou par délibération ad hoc mais par principe que la survie d’une personne vaut mieux que la survie d’une autre, par exemple le conducteur plutôt que le passant, ou que la survie de cinq personnes valent mieux qu’une, là où des humains pourraient assurément privilégier la survie d’un roi, d’un prêtre ou même d’un animal sacré, aussi discutables que paraissent ces options morales. La pluralité des visions du monde — qui constitue le domaine propre de l’éthique — est rendue impossible. L’imprévisibilité qui met à l’épreuve la morale humaine également, de même que la réflexion, la culpabilité, la justification, l’honneur, le doute et enfin l’amour ou la préférence. Une situation humaine ne fait même pas du principe d’autoconservation un principe universel, puisque les cas d’altruisme existent. Au passage, notons aussi que le candidat à l’attentat-suicide prend l’exact contrepied de la morale machinique, en visant le maximum de morts sans considération même de sa propre survie : le parallèle entre le développement historique de ces deux modèles de pensée est saisissant, comme si l’un constituait l’impensé de l’autre. Quoi qu’il en soit, l’humain est obligé d’en passer tôt ou tard par un nouveau jugement qui est un acte singulier. Il comporte une série de considération affectives et symboliques inconnues de la machine. A cela, le rapport répond que, bien entendu, il est prévu que le conducteur pourra à tout moment reprendre le contrôle de la conduite. Mais que signifiera cette possibilité dérisoire s’il s’est déshabitué à conduire (tout comme d’ores et déjà des personnes constatent qu’elles ont perdu l’aisance d’écrire à la main) ?

La prétendue meilleure décision machinique conduit enfin à un dilemme encore plus redoutable qu’on pourrait appeler le dilemme des marins (également évoqué dans l’article de Philippa Foot) : quels humains devraient survivre si les ressources mondiales devaient continuer à diminuer pendant que la démographie et la consommation mondiales ne cesseraient de croître ? Il n’est pas impossible de se représenter la civilisation industrielle comme un bolide qui fonce droit dans le mur. Le véhicule autonome pourrait ainsi s’avérer la métaphore d’un plus gros problème que celui d’un assez banal accident de la route.

Des histoires disent que les marins tiraient au sort celui qui serait mangé pour la survie des autres. Comment exclure qu’une machine soit programmée à choisir « rationnellement » (le choix aléatoire pouvant être une forme de choix rationnel) à trier froidement entre les bouches inutiles et les bouches qui doivent survivre (ou les bouches immortelles, qui ne se nourriraient peut-être pas de pain mais d’énergie, à en croire un scénario post-humaniste) ? Comment exclure, une fois introduit et banalisé, que ce type de choix présenté fallacieusement comme moral, mais dont l’axiome biopolitique fondamental (effectué à l’ombre des paramétrages coupés des situations singulières) est la survie statistique, deviennent l’avenir d’une gouvernance algorithmique, une loi de survie déterminée par une sorte de Dieu-des-catastrophes-globales ? S’il est valable de sacrifier une personne pour cinq, n’est-il pas moralement préférable de sacrifier un ou deux milliards d’êtres humains pour que, par exemple, cinq milliards survivent, si nous sommes tous dans le même bateau ? N’est-ce-pas ce que nous faisons déjà à grande échelle lorsque des populations sont maintenues dans des conditions de vies indignes, végétant sur des décharges, ou lorsque des réfugiés sont reflués au péril de leur vie pour que la « forteresse Europe » ne perde rien de ses privilèges ? Seulement nous ne nous en vantons pas encore publiquement comme de nos plus hautes réussites morales. Nous n’avons pas encore trouvé le moyen de faire passer ces horreurs pour un résultat indiscutablement « éthique ». Contrairement à une telle duplicité humaine, trop humaine, la machine n’aurait pas de scrupules à trancher si l’input « moral » lui dictait que la survie d’un maximum de terriens dépend du sacrifice de certains autres, urgence globale oblige. Enfin, par survie statistique, nous pouvons aussi bien entendre le plus grand nombre de survivants possibles au détriment de certains autres, que la probabilité même d’une survie d’un specimen humain (qui pourrait recycler la vieille histoire de Noé, avec la question de savoir qui montera dans l’arche). Bref, n’ignorons pas qu’implémenter le setting moral du dilemme du tramway, jusqu’ici restreint à des situations ou fictives ou monstrueuses, façonne une vision du monde qui peut avoir des suites d’une autre envergure.

Sandrine Aumercier, septembre 2018.


[1] Emmanuel Kant, « S´un prétendu droit de mentir par humanité », in Théorie et pratique, trad. Françoise Proust, Paris, Flammarion, 1994, pp. 95-103.

[2] https://iatranshumanisme.com/2018/01/14/intelligence-artificielle-detecte-mensonge/

[3] Sigmund Freud, « Über infantile Sexualtheorien », 1908, GW VII, p. 176 ; « Les théories sexuelles infantiles », in La vie sexuelle, PUF, 1969, p. 18.

[4] Philippa Foot, « The Problem of Abortion and the Doctrine of the Double Effect », Oxford Review, Number 5, 1967. En ligne : http://www2.econ.iastate.edu/classes/econ362/hallam/Readings/FootDoubleEffect.pdf

[5] Cf. notamment Judith Jarvis Thomson, «Killing, letting die, and the trolley Problem » in Monist, an International Quaterly Journal of General Philosophical Inquiry, Vol. 59, 1976, pp. 204-217 ; Judith Jarvis Thomson, «The Trolley Problem », The Yale Law Journal, Vol. 94, No. 6, 1985, pp. 1395-1415.

[6] http://moralmachine.mit.edu/

[7] Ethics commission, Federal Ministry of Transport, June 2017, Germany, « Automated and connected driving », p 15. En ligne :  https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.pdf?__blob=publicationFile

[8] Ibid., p 17.

[9] Anciennement nommée Vilna.

[10] Marc Dvorjetski, La victoire du ghetto, cité dans Joshua Sobol, Ghetto, Lyon, La Manufacture, 1986, p. 226-227.

[11] http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//FR

[12] « Automated and connected driving », op. cit., p 15.

Faut-il défendre la culture contre l’homme augmenté ?

L’un des arguments imparables en faveur du progrès technoscientifique veut que l’homme soit technicien depuis l’invention, dès le paléolitique, des premiers outils en pierre taillée. Il n’y aurait depuis lors qu’une évolution continue, dans laquelle « l’homme augmenté » ou encore les technologies d’amélioration humaine [Human Enhancement Technologies] ne représenteraient qu’un pas supplémentaire le long de la série indéfinie des progrès techniques. Ce ne serait que le parachèvement d’un processus de perfectionnement inscrit dans une disposition naturelle (dans la droite ligne de la perfectibilité des Lumières). Il n’est donc pas étonnant d’entendre dire que, dès lors que nous avons accepté la machine à écrire, nous avons, disons, accepté le téléchargement du cerveau : ce ne serait qu’une affaire de degrés. Les détracteurs de cette argumentation arguent au contraire de certaines modifications biologiques (telle la modification du génome humain) comme étant une intervention d’un ordre qualitatif nouveau et irréversible. Ils sont inlassablement à la recherche d’un critère capable de marquer un point d’arrêt dans cette évolution. Las de ne trouver aucun critère ultime, ou de ne pas s’accorder entre eux, ils se réfugient parfois dans l’argument d’une nature à laquelle il ne faudrait pas toucher.

Philosophe et physicien, spécialisé dans les questions d’éthique scientifique, Dietmar Hübner oppose à ces derniers une réponse séduisante qui vise à battre en brèche ce qu’il appelle « l’argument de la nature » [1]. Dietmar Hübner rappelle qu’une tradition philosophique qui remonte à l´Antiquité marque l’être humain du sceau de la seconde nature, soit de l’irrémédiable sortie de la nature. La thèse des coordonnées intangibles de la nature s’expose à l’objection — bien connue — de l’impossible consensus quant aux critères retenus pour la moindre intervention technique : à quel moment cette intervention devient-elle invasive ou irréversible, à quel moment traduit-elle un changement de paradigme ? Cela ne commence-t-il pas avec le premier outil ? Les débats sur ce sujet démontrent l’impossiblité de poser une limite infranchissable en théorie. Même la plus complaisante des éthiques naturalistes aurait peine à démontrer que la nature est toujours juste et bonne, ou à tirer de l’être de la nature l’argument de son devoir-être-ainsi. Ce dernier argument est déjà d’ordre normatif ou transcendantal, et s’expose ainsi à la discussion morale qu’il croyait éviter (soit celle qui ne fait jamais consensus). Par conséquent, nous manquons d’arguments décisifs pour nous opposer, par exemple, au bricolage du génome humain.

C’est bien plutôt l’insuffisance de la nature et l’inadéquation foncière de l’homme à son environnement qui fonde le thème ancien de la seconde nature et justifie l’invention d’artefacts et l’histoire de la culture. « L’argument de la culture » dessine selon Dietmar Hübner une alternative théorique aux impasses de « l’argument de la nature » : ce n’est pas tant la nature qu’il s’agirait de conserver que l’ensemble des productions culturelles issues d’un état de nature fondamentalement déficient. Contrairement aux productions de la culture, affirme l’auteur, « l’homme adapté par les techniques de l’humain serait en fait rendu à l’animalité [2] », en tant que ces techniques ne visent rien d’autre qu’à surmonter par une modification biologique le fossé distinguant l’homme de l’animal et caractérisant la spécificité de la condition humaine. Une telle intervention serait bien plus une avancée anti-culturelle qu’un geste contre-nature. Son crime serait éventuellement de nous priver des moyens d’une intervention cultivée. Mais en quoi consiste celle-ci ?

On songe aux mots de Freud sur la détresse infantile mise en corrélation avec la phylogenèse dans le développement de la culture. Lorsque Freud affirme par ailleurs que « le développement culturel est bien un tel processus organique [3] », il laisse indéterminées les conséquences d’une double possibilité théorique : celle de biologiser la culture le long d’une boucle rétroactive que suivrait la trajectoire de la civilisation elle-même, ou celle d’extraire de l’élément culturel (dans toute son incertitude) les forces politiques capables d’inventer un règlement des conflits humains. Il est patent que Freud pressent la possibilité, si ce n’est la conjonction de ces deux possibilités à la fois. Lacan parlait aussi de prématuration, thème qu’il disait reprendre au biologiste Louis Bolk [4], (dont la célèbre contribution sur l’anthropogenèse ne fut traduite et publiée en français par la Revue Française de Psychanalyse qu’en 1961 [5]). La prématuration humaine ou ce qu’on appelle aujourd’hui la néoténie renvoie à un corpus millénaire, aussi bien scientifique que mythologique, qui peut déboucher, selon les options politiques, sur le diagnostic d’une faiblesse irrémédiable ou sur le pronostic d’une perfectibilité indéfinie [6]. Lacan aura insisté tout au long de son œuvre sur la « béance originelle » ou le « manque à être » constitutifs de l’homme. Aussi bien Freud que Lacan ont porté un immense intérêt au déploiement des systèmes symboliques et des institutions. Mais ni l’un ni l’autre n’ont affirmé le dogme d’institutions culturelles capables de sauver l’homme de son insuffisance originelle. La psychanalyse se solde plutôt sur le constat d’un malaise et l’idée peu réjouissante que, nonobstant nos attentes légitimes envers la civilisation, « certaines difficultés existantes sont intimement liées à son essence et ne sauraient céder à aucune tentative de réforme [7] ». La raison en est, dit aussi Freud, qu’avec les progrès de la civilisation croissent simultanément le meilleur de ce qu’on lui doit autant que les maux qu’elle engendre [8]. Nous en sommes quittes pour les grandes annonces.

Mais revenons à Dietmar Hübner ; ce dernier s’appuie sur d’autres sources de pensée, notamment sur les thèses de Arnold Gehlen développées dans un ouvrage dont la première édition remonte à 1940, alors que ce dernier, membre du parti nazi, effectuait sa carrière de sociologue sans être inquiété [9]. Arnold Gehlen définissait justement l’homme comme un être naturellement démuni et inadapté, ce à quoi seules des institutions stables pouvaient suppléer. On voit tout de suite la difficulté de s’accorder sur le rôle et la définition de ces institutions : les régimes totalitaires se sont aussi bien entendus à faire une telle promesse que les régimes démocratiques.

Lors d’un débat l’opposant à Theodor Adorno en 1965 sous le titre La sociologie est-elle une science de l´homme ? [10], Gehlen voyait dans le progrès technique une source d’insécurité croissante à laquelle pouvaient pallier des institutions solides qu’il appelait de ses voeux. Adorno attirait l’attention de son interlocuteur sur les rapports de production sous-jacents au progrès technique. C’était, selon ce dernier, la constellation des rapports sociaux, fondée sur le principe de l’échange, qui méritait une critique, et non la technique pour elle-même. Il récusait les expressions de société industrielle ou de rationalité technique, expressions abstraites de la structure effective des rapports de production. Lors d’un autre débat mené en 1967 entre les mêmes protagonistes sous le titre Institution et liberté [11], Gehlen affirmait le rôle de protection des libertés par les institutions, ce à quoi Adorno opposait le caractère objectivé et contraignant des institutions, intrinsèquement contradictoire avec leur idée fondatrice et justifiant dès lors, une approche critique. Adorno exigeait des institutions qu’elles mènent les hommes à l’autonomie (au sens kantien), et, si elles doivent administrer les choses, qu’elles ne traitent pas les hommes en éternels mineurs. Gehlen n’hésitait pas pour sa part à rapporter ici la critique des institutions à une posture rituelle…  Le débat, qui semblait, en toute politesse, se dérouler au niveau des seuls concepts, était pour le moins chargé d’histoire récente. Et même de l’histoire imminente.

Replacé dans la problématique qui nous occupe, ce que Dietmar Hübner appelle « l’argument de la culture » se teinte avec Arnold Gehlen d’une défense de l’ordre à laquelle la Technique semble faire face comme une entité autonome et débridée. C’est comme si la Technique n’avait rien à voir avec l’homme qui la fait. Si on lui ajoute un accent heideggerien, le stade ultime de l’oubli de l´Être. Hübner ne paraît pas assumer une telle position et s’accroche plutôt à une thématique de la culture un peu vague, une sorte de culturalisme impressioniste. Il rebaptise les deux pôles de son opposition : technique de l’humain [Anthropotechnik] et technique culturelle [Kulturtechnik]. La première entend modifier l’humain, et, en somme, réparer une erreur originelle en intervenant sur la nature elle-même. C’est la défense de la seconde qui pourrait selon Hübner sauver l’homme d’une technoscience privée de garde-fous. Mais la question plusieurs fois posée par lui des critères de transgression à l’œuvre dans les technologies d’amélioration [Enhancement] est curieusement renvoyée à des réactions morales intuitives, à la gestion du cas par cas et à la mise en garde individuelle. Si bien que « l’argument de la culture » semble à la fin reculer devant lui-même aussi piteusement que « l’argument de la nature ». Cela nous montre pourquoi le vieux problème de l’anthropologie pour départager nature et culture au cours de l’histoire de l’hominisation et de la civilisation échoue doublement, du côté de la nature comme du côté de la culture. Nous ne savons pas davantage définir ce que seraient pour l´Homme les critères pertinents de la « culture » que ceux de la nature humaine, comme si l´Homme était non pas un peu l’un et un peu l’autre, non pas un alliage improbable de nature et de culture, non pas une anomalie dont l’irruption nous est historiquement inaccessible, non pas un hybride dont le cyborg serait la figure la plus récente. L’homme est bien plutôt intrinsèquement à la fois tout l’un et tout l’autre, une espèce parmi les espèces – résultat de l’évolution des espèces – en même temps que la source d’une production technologique dont la civilisation est le fleuron. Il est, pourrait-on dire, porteur d’une impossiblité logique : entièrement cause et entièrement effet, à la crête de ce paradoxe. D’où l’impasse inhérente à toute démarche qui se donne pour tâche de distinguer les deux et d’en isoler un côté en essentialisant une position théorique qui représente un de ces côtés (par exemple le constructivisme et le naturalisme). Une autre impasse consiste à cuisiner un mélange des deux, dont le dosage ne dépend, en dernière instance, que des préférences du théoricien.

L’objection adressée par Adorno à Gehlen pourrait nous aider par contre à aborder le problème autrement. Plutôt que de s’en prendre à une technologie diabolique ou spectaculaire (tout critère de rationalité lui étant dès lors retiré dans une histoire qui, vue d’ici, semble n’avoir ni commencement ni fin), replaçons-là, sur le conseil d´Adorno, dans les rapports de production où elle prend effet. Qui profère la promesse d’une amélioration humaine et à qui s’adresse-t-elle ? Sur fond de quels marchés ? Au profit de qui ? Aux frais de qui ? Au moyen de quoi ? Nous verrons peut-être se dessiner des axes économiques et géopolitiques, des rapports de production et de domination qui, eux, ne surprennent pas beaucoup. La « culture » — si nous voulons bien l’admettre comme argument — ne sera plus cette mystification qui finirait presque par célébrer la minorité congénitale de l’être humain pour mieux la faire chapeauter par des discours totalitaires ou par des technologies qui se rêvent omniscientes. La culture ressuscitera la contradiction au principe des faits établis ; la culture voudra le conflit, voudra sortir de l’enfance et saura considérer avec une suspicion politique l’indécence de certaines offres.

Sandrine Aumercier, 15 février 2020


[1] Dietmar Hübner, « Kultürlichkeit statt Natürlichkeit: Ein vernachlässigtes Argument in der bioethischen Debatte um Enhancement und Anthropotechnik», in: Jahrbuch für Wissenschaft und Ethik, Bd.19(2014), 25–57 : https://www.philos.uni-hannover.de/fileadmin/institut_fuer_philosophie/Personen/Huebner/Aufsaetze/KultuerlichkeitstattNatuerlichkeit.pdf

[2] Ibid., p. 44.

[3] Sigmund Freud, « Pourquoi la guerre ? », in Résultats, idées, problèmes, II, Paris, PUF, 1985 [1933], p. 214-215.

[4] Jacques Lacan, « La troisième », Lettres de l’Ecole freudienne, n°16, 1975.

[5] Louis Bolk, « Le problème de la genèse humaine », in Revue Française de Psychanalyse, Tome XXV, n°1, Janvier-Février 1961, pp. 243-280.

[6] Marc Levivier, « L´hypothèse d´un Homme néoténique comme « grand récit » sous-jacent », in Les Sciences de l´Education – Pour l´Ère nouvelle, 2011/3, vol. 44, pp. 77-93. En ligne : https://www.cairn.info/revue-les-sciences-de-l-education-pour-l-ere-nouvelle-2011-3-page-77.htm

[7] Sigmund Freud, Malaise dans la civilisation, Paris, PUF, 1971 [1929], p. 70.

[8] Sigmund Freud, « Pourquoi la guerre ? », op. cit., p. 214.

[9] Cf. Article « Arnold Gehlen », in Ernst Klee, Das Personenlexikon zum Dritten Reich, Francfort sur le Main, Fischer, 2003, p. 176-177.

[10] « Ist die Soziologie eine Wissenschaft des Menschen ? Ein Streitgespräch zwischen Theodor W. Adorno und Arnold Gehlen », Norddeutschen Rundfunk, 3.2.1965. Vidéo en ligne :  https://www.youtube.com/watch?v=a9GB_XGnKyw 

[11] « Freiheit und Institution – Ein Soziologisches Streitgespräch zwischen Arnold Gehlen und Theodor W. Adorno »,  (Moderator: Alexander von Cube), WDR, 3.6.1967. Vidéo en ligne : https://www.youtube.com/watch?v=0o3eITHmIek