Communisme high-tech ou écofascisme ? Réponse à Roswitha Scholz et Thomas Meyer

La revue exit! consacre deux articles de sa livraison de 2024 à « critiquer »  mes positions [1]. Je n’excuse pas la manière infâmante dont elle le fait : on me soupçonne entre autres, par insinuations fielleuses, d’antisémitisme, d’écofascisme, de sympathie populiste ou de défendre une idéologie de « l’identité et du sol », par quoi on masque la nullité de la « critique » qui m’est adressée. Je constate ainsi que les auteurs qui me critiquent n’ont rien compris à mes thèses sur la crise du covid et sur la question de l’énergie. Il est regrettable que l’on n’ait pas su produire, accueillir ou accompagner des développements théoriques nécessaires et croie maintenant en être quitte avec ces défis théoriques en traînant mes efforts afférents dans la boue. Je peux avoir énoncé une position contestable, mais je n’ai insulté personne du groupe exit! Et je demande que ma position soit évaluée à l’aune de mes arguments et non à partir d’un déchaînement de projections personnelles. Les auteurs et la rédaction d’exit! se disqualifient eux-mêmes par de tels procédés. Plus grave encore, ils gâtent ainsi leur propre noyau théorique au lieu de l’affûter, non sans cesser de se réclamer de l’ancienne splendeur de la Wertkritik.

Ce qui reste du coronavirus

Dans son article, Roswitha Scholz commente mes thèses exposées dans le texte « Théorie des théories du complot » [2]. Je lui reconnais davantage de fermeté que moi envers les réactions contre la politique sanitaire de certains ex-membres d’exit!. Les contours idéologiques de certaines de ces réactions sont par ailleurs plus clairs un an après. Mais je récuse qu’on puisse rétroactivement et en bloc traiter de complotistes tous ceux qui ont manifesté en 2022 un malaise au sein du groupe exit! – et ailleurs – sur la question de la politique sanitaire. Ce malaise recouvre une gamme de positions dont le mouvement des antivax n’est qu’une extrémité. Se réfugier dans la dénonciation d’un extrême permet à Scholz de négliger totalement la complexité de l’objet.

Ai-je parlé de tolérer des complotistes au sein du groupe exit! ? Non, je n’ai fait que parler d’un débat qui n’a pas eu lieu sur la politique sanitaire. Je n’ai rien à dire sur le fait que les textes de Jappe, Urban et Uhnrast n’ont pas été publiés par exit! et ne me suis donc pas plainte de ceci, contrairement à ce qui est dit. J’estime seulement qu’ils auraient dû être discutés avec les intéressés avant d’être refusés. Se séparer en l’absence d’un tel débat – le plus pointu possible – obère l’aiguisement du projet théorique des deux côtés. Scholz considère comme scandaleux qu’on puisse convier ceux qu’elle appelle les antivax et ceux qu’elle estime des théoriciens sérieux à la même table pour un débat « symétrique » (car on ne discute pas avec le diable), et elle a donc agi sur la base d’un jugement anticipé qui a rejeté par avance l’objet du débat en même temps que les personnes qui le faisaient émerger. Elle semble se croire ainsi libérée d’avoir à fournir un effort théorique sur la question de la politique sanitaire, puisqu’il  suffit de crier haro sur les affreux. L’effort qui serait à fournir est détourné sur une surface de projection (le groupe sociologique des antivax) qui devient ainsi le « mauvais objet » du processus de décomposition global, non replacé dans une analyse structurelle. La focalisation agressive et grossière – qui se prend pour un geste militant – sur les personnages scandaleux ne constitue en rien une théorie critique. Elle n’est qu’une alternative à cette autre critique personnifiante, celle contre les élites, que la critique de la valeur-dissociation refuse à raison comme tronquée.

Contrairement à ce qui est affirmé par Scholz, je n’ai jamais dit que « l’harmonie » aurait couronné ou devait nécessairement couronner le débat qui n’a pas eu lieu. Je dis que le déroulement du conflit a été bloqué dans le groupe par l’absence de débat, y compris pour ceux qui n’ont pas de vocation complotiste mais qui ont, de fait, été assimilés à des sympathisants du complotisme (comme je le suis en toute logique moi-même maintenant). Le débat n’aurait probablement fait changer personne d’avis, mais il aurait fait émerger l’objet qui est resté dans l’ombre : la politique sanitaire. L’objet fut congédié en même temps que les personnes. La contradiction non traitée fut coupée en deux moitié vaquant ensuite chacune de leur côté. Et ainsi le terrain fut balayé pour une nullité théorique qui ne fait que se confirmer. Lorsque j’écrivais « n’aurait-on pas pu éviter ça ? », il est clair que je parlais du traitement de la contradiction, transformé en insultes, et non du sort individuel des protagonistes à l’issue d’un débat honnêtement mené.

Mon texte « Théories des théories du complot » traitait de cette contradiction objective. Je n’ai en aucun cas critiqué les mesures sanitaires en tant que telles, pas plus que je n’ai défendu ou justifié une opposition absolue contre ces mesures (opposition qui était celle des antivax). De mon incompétence en matière épidémiologique ne s’ensuit pas une confiance aveugle dans les tendances politiques autoritaires et le cynisme des acteurs de l’industrie pharmaceutique. Inversement, mon impuissance réelle devant ces tendances cyniques et autoritaires ne justifie pas de nier toute utilité immédiate du vaccin dans une mesure circonscrite. S’il me parait évident que nous devons par « réalisme pragmatiste » (Scholz) exiger de l’État toutes les mesures nécessaires (confinement aussi prolongé que nécessaire, capacités hospitalières, fourniture suffisante de masques, médicaments et respirateurs artificiels, etc.), il me paraît tout aussi évident que nous devons fermement refuser la transformation de la politique de santé publique en dispositifs autoritaires de contrôle, de surveillance et d’intimidation. Mon propos se situait précisément à l’intersection de cette contradiction, car c’est à l’endroit de son impuissance – l’épuisement structurel de ses capacités – que l’État-providence se transforme en un état d’exception purement répressif. La question du point de bascule est donc une question logique. Voilà ce qui nécessite une analyse spécifique. D’où mon insistance sur le débat autour de la vaccination obligatoire qui constituait selon moi un élément charnière de cette contradiction logique.

Les polarités idéologiques devaient donc être replacées dans la configuration structurelle qui se manifestait ici. Je ne nie pas les nombreuses contributions généralistes d’exit! sur ce point. Mais exit! n’a fourni aucune analyse effective de la politique sanitaire. Mon texte développait une argumentation précise  : 1/ la totale incohérence des prétendues mesures sanitaires dues aux contradictions structurelles de l’État ; 2/ la campagne de vaccination et la discussion de la rendre obligatoire comme résolution suprême (répressive et biopolitique) des contradictions non traitées que manifestaient précisément ces incohérences ;  3/ le spectre de plus en plus accepté d’une généralisation de cette gestion-là, inhérente à la machine de mort qu’est le capitalisme – et qui équivaut à un survivalisme statistique et structurel ; 4/ le développement toujours plus aigu et concomitant d’un irrationalisme complotiste poussant sur fond d’affirmation elle aussi toujours plus aiguë de la raison d’État et de la technoscience positiviste. Je tiens ces deux développements complémentaires pour deux formes de paranoïas qui se répondent en miroir, dans une structure globale qui est elle-même paranoïde. Il convient donc de ne pas les traiter séparément en théorie.

Je donnais en effet à la vaccination de masse (et la série d’intimidations qui l’accompagnait de la part des autorités) une fonction particulière dans le traitement de la crise. Elle était le point tournant de mon argumentation, systématiquement ignoré par Scholz. Les quatre aspects de l’argumentation nommés ci-dessus sont dialectiquement indissociables. Scholz les commente par morceaux sans prendre en compte leur logique. Elle m’accuse d’ignorer les réflexions d’exit! sur « le rapport complexe entre l’État, la répression, le libéralisme et les contradictions qui en découlent » (p. 232). C’est justement parce que je les ai prises au sérieux qu’il me sembla nécessaire d’aborder la crise sanitaire à la lumière de cette approche. Elle-même semble considérer ces analyses générales comme faites une fois pour toutes et coulées dans le béton, sans qu’il soit nécessaire de les mettre à l’épreuve pour l’analyse de nouveaux événements. Scholz me reproche de n’avoir pas pris connaissance des contributions d’autres auteurs d’exit! sur le sujet, ce qui n’est pas le cas. Mais les dizaines de pages sur la crise du covid dont elle se réclame n’évoquent le deuxième et le troisième aspect que de manière sporadique, sans jamais dégager la dialectique interne des quatre aspects que je relie entre eux. Les textes d’exit! versent pour cette raison dans une fixation unilatérale sur le premier et le quatrième aspect, surtout le complotisme, c’est-à-dire un seul côté de l’idéologie. Il y manque l’analyse du rapport interne spécifique de cette situation-là, c’est-à-dire aussi de ses contradictions actuelles. Il ne suffit pas de dire qu’il y a « un rapport en général ». Cette généralité est la mort de la théorie. La « contradiction en procès » n’est pas identique à elle-même, justement parce qu’elle est en procès. Le rapport ne doit jamais cessé d’être mise en évidence à partir des événements empiriques, non pas pour « confirmer » une théorie considérée comme toute-puissante, mais au contraire pour vérifier et actualiser la contradiction à partir de nouvelles coordonnées. L’examen du banal, du déroutant et du contradictoire y est incontournable. Je descends donc dans ma propre perplexité. Je ne considère pas que l’explication est toute prête. J’ai donc mené un raisonnement avec les moyens et les données qui me semblaient pertinents. Scholz me reproche également mon « ignorance sans fond » (p. 234) des textes de Thomas Meyer sur la numérisation et l’intelligence artificielle : là aussi, ce n’est pas le cas. Mais ces textes aussi n’avaient rien à proposer en termes d’interprétation acérée de la politique sanitaire, et reliée à la situation globale.

Scholz considère ce que j’appelais le risque de « dictature des moyens techniques » non comme le profil de réalité du capitalisme actuel mais comme « des philosophies de la technique et des utopies absurdes » (p. 234). Nous ne vivons donc pas dans le même monde, le monde du capitalisme de surveillance et de tous les systèmes automatisés : drones tueurs, cyberguerre, intelligence artificielle, milliards de caméras de surveillance, projet d’identité numérique européenne croisant toutes les données personnelles, dispositifs techniques dégradants contre les migrants aux frontières, etc. Tout ceci n’est pas une « dictature des moyens techniques » pour Scholz. Il faut donc parler de « domination impersonnelle du capital » sans parler de la domination afférente des moyens techniques ! Les automates du « sujet automate » n’auraient donc rien à voir avec le sujet automate ! Sait-on jamais, comme on verra peu après, toutes ces créations pourraient peut-être en outre nous rendre service dans un monde « émancipé » !

Scholz se contente, dans sa réplique, de réchauffer la soupe que je n’ai pas mangée en citant les textes de sa propre troupe. Elle ne présente aucune source extérieure. Son argument principal est d’expliquer pourquoi les antivax sont des gens infréquentables, sans autre analyse personnelle sur la crise du covid. Les antivax réalisent ainsi une performance exceptionnelle : non seulement ils ne pensent pas la situation globale, mais ils constituent le parfait alibi pour épargner aussi aux autres de la penser ! En me taxant d’un « geste de supériorité présomptueuse » (p. 230) et de me croire « au-dessus de la mêlée » (p. 233) sans examiner l’enchainement logique de mes arguments, Scholz retourne maintenant contre moi l’anti-intellectualisme primaire des adversaires habituels de la critique de la valeur.

Scholz m’accuse aussi de faire preuve de « compréhension » envers les complotistes et de « justification implicite des positions populistes » lorsque je cite la remarque de Freud sur les constructions délirantes (p. 237). Elle prend ainsi l’expression freudienne « noyau de vérité » [Wahrheitskern] au sens positiviste immédiat, comme si j’affirmais que les complotistes disent, quelque part, positivement la vérité. Son accusation est tellement à côté du sujet qu’elle me laisse sans voix. J’ai dû me tromper en pensant que la critique de la valeur ne visait pas une dénonciation personnifiante de l’idéologie mais une analyse de ses conditions structurelles, et donc de leur noyau de vérité. Depuis quand chercher à comprendre l’émergence d’un phénomène extrême consiste-t-il à faire preuve de complaisance à son égard ? En cherchant à comprendre le fonctionnement réel du capitalisme, je suis donc complice du capitalisme ? Si j’applique à Scholz sa propre grille de lecture, dois-je comprendre son évocation de l’attaque du Hamas et de l’antisémitisme dans le monde, assorti d’un silence sur la situation actuelle à Gaza (p. 243) comme une complaisance envers les massacres du raciste d’extrême-droite Netanyahou, sans parler du fait que Netanyahou a pu tenir lui-même dans le passé des propos révisionnistes qui dédouanent Hitler de la Shoah ? Ou bien doit-elle toujours couvrir une extrémité du spectre idéologique pour dénoncer l’autre ?

Je commenterai maintenant la phrase suivante de Scholz : « Même dans le cas où les données statistiques ne permettent pas d’affirmer que le covid est dangereux, il relève du bon sens de porter un masque par précaution. » (p. 240). Significativement, Scholz parle du masque et non du projet de vaccination obligatoire qui était l’objet de mon texte. Mais que signifie ici : « il relève du bon sens… » ? Le débat que j’introduisais ne porte pas sur le bon sens individuel dans l’appréciation du risque de contamination. Je peux convenir individuellement qu’il est avisé de porter un masque dans certaines situations en cas de pandémie. Mais il s’agit, dans le débat qui n’a pas eu lieu, de discuter de la signification des mesures de masse, et ce pas seulement dans leur rapport à un danger précis, le virus, mais dans leur rapport au déroulement global de la crise. Je proposais d’éloigner la focale de l’immédiateté empirique (conformément aux attendus fondamentaux de la critique de la valeur-dissociation) et de la porter sur la gestion politique des risques planétaires et leur trajectoire. Scholz préfère dans cette affaire rester obstinément le nez collé sur l’immédiateté du virus au nom du « pragmatisme réaliste ». Je ne discute pas le bien-fondé d’un pragmatisme réaliste individuel mais sa signification politique : la vaccination de masse était destinée à couvrir non seulement les incuries de la gestion de crise, mais aussi le délitement structurel des structures de soin, la progression des instruments de contrôle et la trajectoire mortifère du capitalisme – et à se présenter pour finir comme le couronnement d’une gestion efficace susceptible de servir de modèle à la gestion d’autres crises.

Transposons cet énoncé dans une problématique voisine que j’évoque déjà dans mon texte « Théories des théories du complot » : « Même dans le cas où les données statistiques ne permettent pas d’affirmer que fumer est dangereux, il relève du bon sens de cesser de fumer par précaution. » L’individu fumeur reste libre de prendre en compte cet énoncé ou non : il ne contribue pas à propager une maladie mortelle. Mais le tabac, comme on sait, est un problème de santé publique réputé tuer 7 millions de personnes par an dans le monde. Le fumeur mobilise des moyens médicaux qui pourraient devenir cruciaux pour des personnes qui n’ont pas de « vice ». Donc le fumeur malade pourrait se voir mis en concurrence avec d’autres malades dans le cadre d’un système de santé de plus en plus insolvable. Il doit donc arrêter de fumer pour ne pas devoir, le cas échéant, usurper par sa négligence les soins d’un « vrai malade ». Il n’est pas exclu qu’il faille interpréter ainsi la discussion qui se déroule actuellement au Royaume-Uni autour d’une interdiction totale de la vente de tabac à la nouvelle génération de fumeurs. Scholz est-elle, au nom de la solidarité, favorable à la « prohibition » (qui vaut pour toutes les substances nocives ayant un coût pour le système de santé publique) ?

Dans le même esprit, certaines personnes âgées ont préféré prendre un risque d’attraper le covid que de se faire vacciner et d’autres ont préféré s’imposer un confinement prolongé que de se faire vacciner. A l’encontre d’un tel choix, certains pays ont pris des mesures autoritaires de vaccination obligatoire de toute la population ou d’une tranche âgée de la population (Autriche, Indonésie, Équateur, Turkménistan, Tadjikistan, Nouvelle-Calédonie, Micronésie, Grèce, Italie). D’autres États en ont seulement débattu en traitant la petite frange de non-vaccinés de fauteurs de pandémie. Scholz se garde de dire si une telle mesure politique « relève du bon sens » ou est problématique. Elle évite carrément le sujet tout au long de sa réponse et ne propose rien d’autre que d’avoir une discussion de comptoir « tranquillement en prenant un café » (p. 239).

Proposons une transposition encore plus crue de la même phrase de Scholz. « Même dans le cas où les données statistiques ne permettent pas d’affirmer que le réchauffement climatique est dangereux, il est relève du bon sens de devenir tous vegan par précaution. » (Le véganisme universel est promu par certains comme l’une des mesures capables de réduire considérablement les gaz à effets de serre : je la considère, telle la vaccination de masse, comme l’une des voies biopolitiques possible de fausse résolution de la contradiction non traitée.) On convient que cette fois, il ne s’agit plus de décision individuelle. Il ne s’agit pas de ma seule survie. Si je veux éviter que la moitié de l’humanité ne se retrouve prochainement dans des régions inhabitables, comme le prévoient certains scénarios, « il relève du bon sens » que j’exige la généralisation de cette première mesure. On dira peut-être qu’elle est insuffisante au regard de l’envergure du problème. Qu’à cela ne tienne : on peut allonger à loisirs le nombre des interdictions permettant d’atteindre le chiffre souhaité de réduction des émissions de gaz à effet de serre pour ne rien changer du mode de production capitaliste. Car je le rappelle, il ne s’agit pas avec la politique de sauver l’humanité mais de sauver des chiffres. Ainsi, par « pragmatisme réaliste », on protègerait les superflus et les vulnérables qui d’ores et déjà subissent le réchauffement climatique de plein fouet. N’étant pas « social-darwiniste », Scholz devrait soutenir les actions d’Extinction Rebellion (qui demandent la déclaration d’un état d’urgence climatique) par égard pour toutes les victimes du réchauffement climatique et, à terme, par égard pour la survie de l’humanité. Celui qui ne défend pas le véganisme et l’écologisme radical aujourd’hui est ainsi assurément un « darwiniste social » sacrifiant à leur sort des millions de malheureux présents et futurs. J’attends impatiemment que Scholz nous en fournisse la démonstration. Alors on pourra discuter de savoir qui est le plus « écofasciste » !

Ces exemples visent à ramener le débat au niveau exigible. Je demande qu’on examine dans toutes ces conséquences ce qu’implique l’assentiment au paradigme moderne et biopolitique de la gestion statistique des vies. Jusqu’où autoriserons-nous l’État à intervenir pour « sauver des vies » ou pour « sauver la planète » (voir ici l’approche technocratique intégrative appelée « one health » qui développe un concept unitaire de santé humaine, animale et environnementale) ? La crise de reproduction du capitalisme – la crise de la valorisation de la valeur – se manifeste en effet par une crise de reproduction de toutes les bases de la vie qui sont en même temps ses bases immédiatement sociales. Ceci ne fera que s’accentuer avec le temps. Jusqu’où tolérerons-nous, au plus intime de notre être physique et social, la gestion biocapitaliste de la vie et du vivant, quand on sait que tout est bon pour maintenir la machine de production mortifère ? Le porteur d’une « critique radicale » doit-il se soumettre muettement à l’état d’exception permanent pour sauver sa peau devant la montée des risques qui atteignent maintenant aussi les centres capitalistes (encore relativement à l’abri jusqu’à récemment) ? C’est cette question que la crise du covid nous commande de traiter. Scholz ne se soumet pas un instant à cette réflexion. Elle propose plutôt d’en discuter devant un café.

Si donc la phrase de Wolfgang Schäuble citée par Scholz « la vie n’est pas le bien suprême » (p. 240) témoigne bien du cynisme absolu de l’État lorsqu’il devient incapable de remplir ses fonctions attitrées, cette phrase est aussi la dénégation de la phrase « la vie est le bien suprême » et par là l’envers de la même médaille vitaliste et utilitariste : « la vie » exposée quotidiennement à la lutte pour son affirmation dans la concurrence. Une menace constante qui est aussi une exigence constante d’optimiser « la vie ». C’est pourquoi les deux formules ne cessent de se renverser l’une dans l’autre, comme Scholz ne semble pas s’en apercevoir. Le fait même d’évaluer abstraitement l’importance de « la vie » dans un sens absolu appartient strictement et uniquement à l’ethos capitaliste. La défense et la promotion de la « vie » ou sa négation la plus brutale sont des variantes de cette métaphysique moderne. Lorsque la vie est directement menacée (à cause de la maladie, de la vieillesse, d’une pandémie ou d’une guerre), c’est cette abstraction qui remonte encore plus clairement à la surface.

Pour agrémenter le tout, Scholz croit pouvoir enfoncer le clou en expédiant mon livre le Mur énergétique du capital en un peu plus d’une page. Elle ne le fait pas en discutant l’argumentation centrale du livre, qui ne l’intéresse pas puisqu’elle ne cite que la quatrième de couverture et deux phrases de la conclusion. Non, elle m’accuse gratuitement de « biocentrisme », « d’ethnopluralisme », « d’hostilité abstraite à la technique », de malthusianisme, de darwinisme social, de recourir « au concret immédiat, à la culture, à l’identité et au sol », ce qui justifie de me suspecter de flirter avec « l’antisémitisme » (p. 234-235). On ne pouvait pas formuler des accusations plus abjectes quand on sait quelles associations évoquent les mots « l’identité et le sol » dans le contexte de l’histoire de l’Allemagne. N’ayant rien de mieux à dire, on m’impute donc à demi-mot une idéologie néonazie. Cette offense est inexcusable.

Il est grotesque de voir des notions patiemment élaborées pendant des décennies – telle que celle d’antisémitisme structurel – devenir des insultes tirées à bout portant, dont mes textes sont maintenant aussi la cible, après d’autres que moi. La plus haute abstraction tombe au niveau personnel le plus immédiat. Cela n’a plus rien à voir avec une élaboration théorique rigoureuse mais avec un ruminement de signifiants transformés en slogans pour la galerie ou en flingue pour se liquider mutuellement. Lorsque le groupe exit! parle de barbarisation des rapports sociaux, il devrait commencer par mettre le nez dans son caca. En me traitant à demi-mot de nazie et en ne jugeant les autres qu’à l’aune de sa politique d’épuration Scholz, met réellement en acte ce qui se passe dans la société d’aujourd’hui. Le signifiant « nazi » est devenu un signifiant universel : le nazi, c’est l’autre, et tout le monde est le nazi de quelqu’un. Ce qui arrive au signifiant « juif » dans cette affaire, cela nécessite un examen approfondi que je ne ferai pas ici.

Retour sur le contexte de ma critique de la question énergétique et sur la réplique des auteurs d’exit !

Thomas Meyer consacre son article à critiquer mon livre Le mur énergétique du capital, en même temps qu’il reprend les thèses de Robert Kurz sur les artefacts de l’histoire, que je critique partiellement dans mon livre pour sa position hésitante sur le maintien des technologies industrielles. Dans ce contexte, le texte « Tabula rasa » de Kurz (2003) est réimprimé dans le même numéro de la revue exit!, comme si sa seule réimpression le plaçait au-dessus de toute critique !

Lorsque je commençai à écrire une recension du livre de Tomasz Konicz Klimakiller Kapital pour la revue Jaggernaut, j’ignorais en quoi se transformerait cette initiative. C’est en cours d’écriture qu’il m’apparut que la catégorie abstraite d’énergie sous-jacente – traitée par Konicz comme une simple catégorie matérielle – méritait un véritable examen dépassant le cadre d’une recension. L’énergie, au sens de la thermodynamique, est un thème qui m’obsède depuis longtemps et qui n’est pas extérieur au vocabulaire de la psychanalyse. C’est un thème difficile pour la non-scientifique que je suis. Mais je réclame la légitimité d’une compréhension profane qui permette d’éclairer de nouveaux aspects de la critique de l’économie politique et de la théorie freudienne des pulsions. C’est ainsi que ce qui devait être une recension n’a pas cessé de grandir pour devenir finalement un livre.

Or les affirmations de Konicz dont je cite quelques-unes dans mon livre ne font l’objet d’aucune critique, d’aucune distanciation, d’aucun débat au sein du groupe exit!. Ni Meyer ni Scholz n’en font la moindre mention dans leur réponse. J’en conclus qu’ils ne voient pas de problème au « communisme high-tech » que propose explicitement Konicz et approuvent le « potentiel d’une économie communiste en temps réel dans laquelle la demande de biens peut être immédiatement localisée et satisfaite. Le réseau de plus en plus dense d’appareils reliés à Internet permet de créer des chaînes de production ininterrompues qui se passeraient de la ˝main invisible˝ aveugle du marché : du champ au réfrigérateur en passant par la production et la distribution [3]. »  Compte tenu de la violence de leur réponse à mes développements, je ne peux pas m’expliquer qu’ils tolèrent ces propos chez l’un de leurs contributeurs réguliers s’ils ne les approuvent pas. Konicz peut impunément défendre son « communisme high-tech » sans que personne ne lui cherche des poux, tandis que je suis assimilée par Meyer et Scholz aux écofascistes réactionnaires que je critique (p. 209, p. 235).   

Or il en est allé avec mon livre Le mur énergétique comme il en est allé pour la discussion manquée sur la crise du covid : il ne m’a pas été possible d’en discuter avec le groupe exit!, cette discussion ayant été décommandée au nom d’ « autres priorités » puis remplacée par une proposition de discussion sur « zoom » que j’ai déclinée.

Parallèlement, mon article correspondant « Travail mort, travail vivant : le gouffre énergétique de la société du travail » [4] était décommandé de la revue exit! également au prétexte d’ « autres priorités » et se voyait offert une place sur le site, assorti d’une postface dans laquelle Meyer exprimait ses réserves de façon toute paternaliste, tout en ignorant complètement la thèse principale. Il reprend maintenant le même ton paternaliste en prétendant apporter un « supplément » (comme le dit le titre de son papier) à un livre auquel il n’a rien compris ! J’étais alors accusée d’hostilité à la technique, l’accusation reste à présent identique. Cet épisode fit pourtant l’objet d’un échange de courriels où j’exigeai qu’on commence par examiner mon argumentation avant d’en juger la conclusion. Je retirai finalement l’article de la publication sur le site d’exit!. Or Meyer réitère imperturbablement la même glose, mais seulement en infligeant au lecteur un plus grand nombre de pages.

Je prends ici son article comme occasion de répondre aussi à ceux qui, comme mus par un réflexe collectif dont ils ne sont pas conscients, m’opposent les mêmes objections que lui depuis la parution de l’ouvrage en allemand.

La critique anti-industrielle

On me reproche ici en long en large et en travers d’être hostile à la technique.

Première remarque. Il est vrai que le lecteur français n’associe pas immédiatement la critique anti-industrielle avec le mouvement néoromantique des Wandervogel ou la politique environnementale des nazis. Cette mémoire paraît chez certains lecteurs allemands, par un réflexe répulsif, bloquer tout accès à une critique catégorielle de la production industrielle, immédiatement associée au vaste fourre-tout des « anti-tech » réactionnaires. Je veux bien prendre en compte cette « différence culturelle », mais il y a un problème : je ne suis pas culturaliste. Lorsque je m’adresse à l’entendement de quelqu’un à l’aide d’arguments, je le suppose par provision capable de pénétrer une matière intellectuelle en surmontant ses préjugés de classe, de culture ou autre. Cette supposition minimale est certes rarement réalisée, mais si je ne la fais pas, la théorie et le débat d’idées ne font aucun sens.

Je n’ai moi-même aucune familiarité avec le courant de pensée anti-industriel français, ce qu’ont bien dû remarquer certains de ses auteurs puisque mon livre a été estampillé « marxiste » dans leur camp (eux aussi sont plus friands d’étiquettes que de « la patience du concept »). Je suis donc à la fois traitée de marxiste par des anti-industriels et accusée d’anti-industrialisme par des marxistes : j’en déduis que quelque chose a été touché de part et d’autre, à la jointure de leur double point aveugle. Je traite en effet de ce qui réunit ces deux frères ennemis dans une double critique, plus acérée des deux côtés. Ce point fait s’effondrer à la fois l’édifice progressiste moderne et son doublon inséparable, le pessimisme culturel, issu d’une critique simplement réactionnaire et phénoménale de la technique (comme il en existe des multitudes). La critique catégorielle, menée assez loin, supprime les moyens termes bancals et les faux-fuyants théoriques des deux côtés : elle fait converger des segments de critique jusque-là isolés les uns des autres.

La conclusion anti-industrielle de mon livre n’est que la conséquence logique de l’enchaînement qui précède. Je n’avais aucun agenda de cette sorte en commençant à écrire le livre. J’ai bien sûr, comme tout un chacun, mes « préférences pulsionnelles », comme les nommait si bien Freud. Mais je demande à être jugée sur la pertinence de la démonstration et non aux éventuelles préférences qu’on me prête. Car plus j’avançais, plus s’imposait l’évidence de la conclusion, qu’elle plaise ou non : il n’y a pas moyen de maintenir une société industrielle planétaire sur la durée. Et ceci se déduit non pas de considérations vagues sur la « civilisation », mais de l’examen du rapport social capitaliste lui-même. Les conséquences d’une démonstration ne sont pas là pour plaire à quelqu’un. La collusion bien connue entre le capitalisme industriel et le marxisme traditionnel n’en est que plus flagrante. Cette collusion a certes été critiquée par la critique de la valeur et par l’écosocialisme et l’écomarxisme (contrairement aux autres courants postmarxistes). Mais aucune de ces tendances ne va au bout de cette critique : un résidu de marxisme traditionnel apparemment inéliminable.

En dépit des malentendus, la raison pour laquelle je ne poursuivais pas un agenda anti-industriel est celle-ci : mon thème était, à la lumière de la crise climatique et énergétique traitée dans le livre de Konicz, le replacement de la catégorie abstraite d’énergie dans la dynamique du développement capitaliste des forces productives. La critique anti-industrielle n’était pas du tout le premier objet de recherche mais arrivait – presqu’inopinément – en position seconde. Je tiens pour nécessaire que la critique anti-industrielle s’impose comme une conséquence de la critique précédente et non comme sa prémisse idéologique : il ne suffit pas de dénoncer les ravages de l’industrie pour avoir compris sa logique interne de développement. Il ne suffit pas non plus de « sauver » de la critique certaines productions industrielles au nom de la sacro-sainte valeur d’usage (ou de ses propres « préférences pulsionnelles ») pour en être quitte avec cette analyse. Cette discussion exige qu’on s’intéresse à la démonstration du rapport interne, intime et nécessaire, entre catégorie du travail et catégorie d’énergie dans le capitalisme.  

La catégorie abstraite d’énergie

Comme l’indique le titre du livre, l’énergie était donc son objet central. Dans son article, Meyer réduit cet objet au rappel des lois de la thermodynamique qu’il plaque sur un long résumé des thèses de Marx et de la critique de la valeur (p. 199). Selon lui, la thermodynamique nous rappelle que l’exploitation de la nature a des limites ; nous devons donc en tenir compte. La thermodynamique a la fonction d’une connaissance acquise au sein du capitalisme mais extérieure au capitalisme : « Il se peut bien que ces rapports [entre capitalisme et entropie] n’aient été découverts qu’avec le capitalisme, mais il est bien connu que genèse et validité ne sont pas la même chose (ce que personne ne conteste en dehors de quelques constructivistes radicaux). Il s’agit donc bien d’une limite naturelle, mais le moment et la manière dont elle est atteinte dépendent de la forme de société et de son processus de métabolisme avec la nature. » (p. 214).

Meyer réitère la même approche transhistorique de la notion d’énergie que je critique dans mon livre à l’aide de nombreux exemples (qu’il ne cite pas du tout). Il ressert des généralités courantes sur la civilisation qui n’ont rien à voir avec l’objet examiné, à savoir le capitalisme industriel : « Une civilisation technique ne peut évidemment exister que pour un temps limité sur une planète, même si elle est non capitaliste. » (p. 214). L’auteur accepte donc froidement de condamner l’humanité pour sauver ce qu’il appelle la « civilisation technique ». Pourquoi me fais-je accuser à longueur de page de « darwinisme social » si telle est bien son idée ?

Il ajoute : « Le mur énergétique n’a donc pas vraiment de rapport avec la borne interne de la valorisation du capital. » (p. 215). Qu’est-ce que cela signifie ? Pas vraiment, pas du tout, ou un peu quand même ? Meyer évite systématiquement d’examiner le rapport entre la borne interne et la borne externe ; puis il évite d’examiner le rapport entre le concept de travail abstrait et le concept d’énergie abstraite. De cette façon, il peut formuler une généralité vague et consensuelle sur l’énergie qui est celle de la science et de l’économie officielles. Nombreux sont les auteurs qui excellent à fondre la catégorie abstraite d’énergie dans le grand continuum de l’aventure humaine, comme ils le font du travail ou de l’économie. Les néoclassiques raffolent de ce procédé théorique naturalisant lorsqu’ils se commettent à parler d’énergie. Mais dans le contexte de la critique de la valeur, il reste à expliquer que des théoriciens qui n’admettent pas qu’on parle de travail, d’économie, d’argent ou de marchandise pour qualifier les échanges antiques transposent quand même la catégorie d’énergie sans problème sur toutes les sociétés passées ou futures. La raison en est une complète méconnaissance de l’énergie comme abstraction opératoire spécifique au mode de production capitaliste.

Il n’est donc pas étonnant que Meyer resserve le plus commun des clichés sur l’énergie, qu’il ne comprend que dans le sens ordinaire concret, puisqu’il n’a pas pris la peine d’entrer dans l’abstraction de ce concept et d’examiner l’articulation que je propose. Il réussit ainsi l’exploit intellectuel de commenter un livre dont le sujet principal est l’énergie en ne parlant pas d’énergie – en dehors d’une petite mention digne d’un résumé de lycée ! Ou plus exactement, il juxtapose simplement son résumé de professeur de lycée sur l’énergie aux analyses de Marx sur le développement des forces productives et la composition organique du capital. Avec cela, il croit en être quitte avec le sujet, alors qu’il n’a fait que le réduire à néant, puisque je ne juxtapose pas ces deux aspects mais en souligne le rapport interne et nécessaire. L’examen du rapport en question et des conséquences que j’en tire risquerait de dégonfler ses ratiocinations empiristes étalées sur des pages au sujet des bonnes techniques que le capitalisme nous lèguera, moyennant une bonne organisation sociale (parmi lesquelles le génie génétique et les engrais chimiques !).

Meyer naturalise et transhistoricise grossièrement toute une série de phénomènes : l’humain a « toujours » exploité de l’énergie (sans le savoir) ; mais aussi l’humain a « toujours » transformé son environnement ; et les processus de génie génétique se produisent aussi dans la nature (p. 214). Quelle plus belle légitimation des biotechnologies que d’affirmer qu’elles ne font que prendre la suite de l’histoire de la terre ? Autant dire aussi que les plantes et les animaux « travaillent » ! C’est ainsi que le capitalisme se vend comme une grande épopée alors qu’il ne fait que conformer et reconfigurer le monde selon ses besoins, dans un sens entièrement différent des anciennes médiations sociales. « La technique » étant ainsi naturalisée par Meyer, le reste de son article peut se concentrer sur le principal, à savoir le scandale de ma supposée technophobie. Il ignore non seulement le noyau de ma démonstration sur le rôle de l’énergie, mais la totalité des deux premières parties, c’est-à-dire plus des deux tiers du livre ! Peut-être ne veut-il pas s’avouer qu’il n’y a rien compris. Auquel cas, il aurait mieux fait de se retenir d’écrire des inepties qui discréditent les apports de la critique de la valeur-dissociation.

Mais pourquoi devrais-je produire une fois de plus ici la même argumentation que mon livre et mon article incriminés puisqu’ils sont imperturbablement ignorés par Scholz et Meyer ? Il n’y a pire sourd que celui qui ne veut entendre. Allons-y en quelques mots : la composition organique du capital constant et du capital variable est pour Marx un seul et même rapport, variant à chaque époque, considéré une fois du point de vue de la composition-valeur, une fois du point de vue de la composition technique. Ce sont deux aspects de la même chose. Si le rapport de composition organique est dissous, ce sont les deux aspects du rapport (composition-valeur et composition technique) qui disparaissent. Marx ne pense pas le travail mort et le travail vivant séparément. Il est proprement invraisemblable de proposer une « critique radicale » du travail abstrait et de sauver le travail mort de cette critique, comme s’il n’était pas tout à fait abstrait au sens marxien. Je parle à cette occasion dans mon livre des marxistes qui « font comme si on pouvait se débarrasser de la composition-valeur en conservant la composition technique alors que Marx précise bien qu’il s’agit du même procès de production [5]. » Il est tout à fait certain que Marx ne tire pas lui-même la conséquence de sa formulation, car elle contredit son vœu d’une révolution communiste des forces productives mûries. À nous de tirer les conséquences qu’il n’a pas tirées.

Je mets en particulier en évidence que la substituabilité des facteurs de production sur laquelle repose la fonction de production néoclassique dans la combinaison du capital et du travail ou encore du « travail mort » et du « travail vivant » est l’expression même de son abstraction énergétique. L’abstraction énergétique permet de convertir toute forme d’énergie dans une autre. Elle crée par là un régime entropique entièrement nouveau. Ce régime est lié à cette fin en soi capitaliste de convertir une forme d’énergie dans une autre, qui est la face matérielle de la finalité sociale de la valorisation de la valeur : il ne s’agit de rien d’autre que de la totalité du système industriel qui est le doublon matériel de l’abstraction valeur, médiatisé par l’abstraction énergie. Il existe une abondante littérature historique que je ne citerai pas ici, qui montre non pas la naissance simultanée, mais bien une identité catégorielle dans l’émergence des concepts de travail dans la mécanique industrielle (celle des ingénieurs) et dans la mécanique rationnelle (qui déboucheront sur la thermodynamique), ainsi que dans la sphère économique. Je parle évidemment ici d’identité catégorielle et non pas d’identité fonctionnelle. Cette identité implique l’émergence de la catégorie d’énergie, dont la définition la plus simple est, je le rappelle, la capacité à effectuer un travail. Il ne peut y avoir substitution des facteurs de production (des « travaux ») sans une unité de mesure abstraite qui est l’énergie.

La science moderne se développe à partir de la matrice de cette identité catégorielle, bien que chaque branche de savoir l’explore localement en développant des concepts fonctionnels propres et irréductibles. Ceci explique aussi bien l’inflation des monismes énergétistes que la formidable explosion du concept d’entropie dans tous les domaines de la culture au XXe siècle : ce phénomène témoigne d’un pressentiment généralisé de cette matrice catégorielle de l’énergie. Mais celle-ci est toujours traitée de manière non catégorielle aboutissant à des propositions réductrices et farfelues que j’examine aussi dans mon livre. La cybernétique et la systémique descendent de ce monisme énergétique.

Comme je l’ai dit, au lieu de prendre l’énergie à sa racine catégorielle, Meyer en fait une catégorie transhistorique. Ce tour de passe-passe lui permet de dégainer une conception naïve de la différence entre forme et contenu, dont le seul objectif, conservateur, est justement de sauver certains contenus. Ces contenus sont déclarés partiellement indemnes de la subsomption capitaliste et peuvent être sauvés de la déconfiture finale. Des contenus produits par et pour le capitalisme seraient miraculeusement indemnes de la forme ? Il s’agit en fait de contenus arbitraires que Meyer estime potentiellement émancipateurs. Ce que Meyer appelle « contenus » n’est qu’un autre mot pour « valeurs d’usage ». Il occulte ainsi l’identité entre valeur d’usage et valeur d’échange, qui sont deux moments logiques de la valeur. Il reprend ainsi la définition transhistorique par Marx de la valeur d’usage que Kurz a justement critiquée dans son texte « Adieu à la valeur d’usage » : « C’est la catégorie de ˝valeur˝ qui synthétise les deux aspects, l’˝usage˝ et la forme sociale abstraite. […] Une nouvelle critique, plus profonde, du capitalisme, ne peut plus être naïve en ce qui concerne le concept de valeur d’usage [6]. »

Mais même chez Kurz, cette critique sans équivoque flanche tout à coup devant la valeur d’usage qui se trouve justement sur la table. L’exemple du brassage de bière ayant traversé les millénaires que cite Kurz dans « Tabula rasa » en défense de « techniques » qui pourraient survivre à la fin du capitalisme est caractéristique d’une confusion, chez lui aussi, entre la « technique » comprise en un sens transhistorique et le régime technologique radicalement nouveau – c’est-à-dire énergétique, selon ma présentation – qu’implique le capitalisme industriel. Ce n’est pas parce que le brassage de bière a pu traverser les millénaires que la production industrielle de bière le pourra. Ce n’est pas parce que les humains fabriquent des chaussures depuis toujours que la production industrielle de chaussures est possible à long terme. Il est consternant de devoir énoncer de telles lapalissades. La question n’est même pas, contrairement aux ratiocinations de Meyer, de savoir si la production industrielle doit survivre ou non, totalement ou partiellement. Je présume qu’elle s’effondrera, parce qu’elle ne fait que manifester le côté matériel de la crise de la valeur et doit donc être emportée dans la même crise finale. Il existe de ceci suffisamment de signes empiriques et d’avertissements scientifiques. C’est du moins le sens de ma démonstration et justifie les réflexions finales du livre sur les conditions nécessaire à des organisations sociales post-capitalistes. J’en admets le caractère excessivement utopiste, bien qu’il ne le soit pas davantage que de viser l’abolition du travail, de l’argent, de la valeur, de la marchandise et de leur complément fonctionnel, l’État. Cette abolition est de toute façon inconcevable dans l’état présent.

En particulier, l’argument ridicule martelé par Meyer et Scholz, selon lequel la fin de la production industrielle équivaudrait à un « darwinisme social » (leur accusation préférée) peut être renvoyé aux envoyeurs. La suppression du travail et de l’argent équivaudrait pareillement dans les conditions présentes à sacrifier l’existence de millions de personnes ; la fin de l’État jetterait toute la société dans l’anomie et la violence. Il en va de la suppression (abstraite et théorique) de la production industrielle comme des autres catégories du capitalisme. Nul ne peut dire comment doivent se passer les choses ni comment elles se passeront. Elles peuvent avoir des conséquences catastrophiques dans tous les cas. Meyer et Scholz se réservent l’honneur d’une réflexion abstraite et préservée de toute implication négative – en insistant sur son découplage avec une pratique immédiate – mais coulent leur adversaire en choisissant de prendre ses arguments au niveau de l’immédiate concrétude. Ce faisant, ils me refusent le niveau d’abstraction qu’ils se réservent, défigurent mes arguments et croient en avoir triomphé en faisant de moi quasiment une criminelle de masse !  

Revenons à la valeur d’usage. Le sujet moderne juge de la valeur d’usage en fonction de son « utilité » (par exemple la médecine de pointe sous la plume de Meyer) au sens économique standard et ne s’interroge aucunement sur ses conditions globales de possibilité, qui sont l’excroissance matérielle adéquate de la production abstraite de valeur. Le simple examen empirique des dizaines ou centaines de substances différentes, avec leurs nombreuses étapes (la plupart toxiques et polluantes) d’extraction, de fabrications, de distribution, etc. nécessaires pour produire la moindre valeur d’usage devrait pourtant l’en avertir. Moyennant la critique kurzienne, toute valeur d’usage tombe aussi sous le coup de ce que disait Engels de la valeur tout court : « Vouloir abolir la forme de production capitaliste en instaurant la ˝vraie valeur˝, c’est vouloir abolir le catholicisme en instaurant le ˝vrai˝ pape, ou instaurer une société dans laquelle les producteurs dominent enfin un jour leur produit, par la mise en œuvre conséquente d’une catégorie économique qui est l’expression la plus ample de l’asservissement du producteur à son propre produit. » (Anti-Dühring). Cette affirmation s’applique parfaitement aussi à une demande abstraite de sauver la « vraie valeur d’usage » sur les décombres d’une prétendue abolition de la valeur.

C’est le même sujet bourgeois qui s’imagine pouvoir régler « consciemment » et « rationnellement », à l’aide d’une hypothétique faculté de contrôle social (p. 212-213), la production industrielle des valeurs d’usage, dans le sens amélioré que réclame sa bonne conscience. Meyer ignore qu’il ne fait par là que chanter les louanges de cette même conscience bourgeoise car aucune société au monde n’a fonctionné sur la base de l’efficience matérielle utilitariste avant le capitalisme. Lui et d’autres proposent ainsi de bâtir une autre société sur la base d’un utilitarisme libéral recyclé qui fut nommé socialisme. Quant au nécessaire approfondissement d’une critique structurelle (et non pas phénoménale ou psychosociale) du sujet bourgeois, il ne risque pas de se produire lorsqu’on affirme comme Meyer que l’inconscient, c’est le cerveau (p. 204). Cette identification positiviste équivaut à celle qui consiste à confondre la valeur avec les prix et montre par là qu’il n’a aucune notion élémentaire de la psychanalyse.

Les valeurs d’usage ne doivent rien au vécu de l’usager. L’usager mesure ces « utilités » à partir de sa condition de monade bornée, séparée de ses relations sociales objectivées, réagissant aux stimuli du marché perçus comme des objets « naturels » de consommation immédiate. Consommateur ou déshérité, c’est le même sujet qui déambule au milieu des valeurs d’usage, réelles ou imaginaires, devant les vitrines ou derrière les écrans, en croyant qu’elles lui sont destinées par nature. Ce sujet continue de nager dans la même illusion quand il croit pouvoir extraire de cet océan d’hallucinations des « utilités » susceptibles de survivre au naufrage final. Car, si des produits et des techniques doivent survivre, elles n’auront pas la forme-marchandise, c’est-à-dire capitaliste et industrielle, que nous leur connaissons ; gardons-nous donc de les trier par anticipation comme des enfants gâtés qui croient que le monde doit ressembler à leur chambre d’enfant. Et gardons-nous de traiter de salaud (par exemple de « darwiniste social »), celui qui ne fait que pointer la direction inéluctable de cette logique : elle est de plus en plus incapable de fournir les « biens essentiels », sans parler de les répartir équitablement. Cette ruine générale ne conduit pas seulement vers l’effondrement de l’accumulation capitaliste, mais évidemment celui du système technique (et de son substrat naturel) qu’elle s’est donnée comme « matérialisation adéquate » (Moishe Postone). N’est pas « darwiniste » celui qui le dit, mais celui qui continue de légitimer la pérennisation des dispositifs – à la fois concrets et abstraits – qui ont justement conduisent à cette ruine générale.

Typique du sauvetage pathétique de son petit monde est aussi le recours rebattu, par Meyer, à l’argument selon lequel l’agriculture de subsistance ne pourra pas nourrir l’humanité (p. 205) ou selon lequel ma critique de la technologie industrielle abandonne à leur sort huit milliards d’êtres humains (p. 209). Il propose simplement, comme un pansement sur une jambe de plâtre, de remplacer les monocultures par des polycultures (p. 208). L’interlocuteur est pris en otage de cette vieille recette néolibérale : sommé d’accepter le monde industriel pour sauver (en pure théorie) des milliards d’êtres humains alors que l’agriculture intensive et la production industrielle sont le ravage ! On ne peut pas à la fois demander l’abolition du système producteur de ravages et dire que son abolition véritable jetterait le monde dans un ravage : cette fausse alternative n’est que l’une des apories répressives dans lesquelles nous enferment les contradictions modernes. J’ai déjà commenté plus haut le procédé consistant à se réserver le niveau d’abstraction approprié pour un sauvetage imaginaire de l’humanité, tandis que la théorie de l’adversaire est accusée de pratiquer une catastrophe, imaginaire elle aussi, sur la base d’une imputation pratique. Scholz et Meyer nient ainsi la qualité d’abstraction de mon raisonnement en le traitant comme une vulgaire proposition immédiate.

L’inquiétude anti-malthusienne de Meyer se porte surtout sur les grosses métropoles. Il ne lui vient pas à l’idée que l’urbanisation et la construction de l’espace modernes méritent la même critique radicale. Les métropoles modernes, dont une grosse partie est constituée de bidonvilles avec des centres de plus en plus réservés aux bureaux d’affaire et au tourisme, sont des excroissances parasitaires du système capitaliste. Elles grossissent, comme un cancer, de l’exploitation humaine et naturelle sans limite des zones périphériques invisibles. On n’a pas besoin de romantiser « la vie à la campagne » ou les « traditions indigènes » pour soumettre les métropoles modernes à la même critique impitoyable que le reste. Il est vrai que je ne l’ai pas traité dans mon livre, ne pouvant aborder tous les sujets et le laissant à des personnes plus compétentes. Conformément à l’a priori individualiste du sujet moderne, Meyer éternise, généralise et naturalise la situation d’un intellectuel urbain déléguant à d’autres couches de population toutes les tâches de la reproduction de l’existence qui sont aujourd’hui subsumées sous l’accumulation capitaliste : celles relevant de l’agriculture et de l’élevage, mais aussi celles de l’extraction minière et des immenses complexes de raffinement et de production (dans la perspective défendue par lui du maintien de la production industrielle), qui par définition ne peuvent pas être pratiquées en ville. Son affirmation selon laquelle « il est faux d’assimiler l’exploitation minière à la déprédation » (p. 207) et son recours, pour ce faire, à des exemples prémodernes, témoigne d’une ignorance abyssale des réalités de la mine industrielle. Cette ignorance a aussi été reprochée à l’auteur auquel il emprunte cette idée [7]. On retrouve simplement ici l’éternelle propension petite-bourgeoise à sauver sa peau, c’est-à-dire sa situation et ses privilèges présents. Ainsi, même la théorie prétendument « radicale » est préformatée jusqu’à la racine par le rapport capitaliste et sa forme de vie.

Mon propos était aussi de montrer, en reprenant la grande idée de Nicholas Georgescu-Roegen, qu’il y a identité entre la recherche d’efficience économique et l’entropie. Il ne fait aucun sens cependant de mettre cette proposition au même plan que l’entropie universelle, comme le fait encore Georgescu-Roegen (et mon pourfendeur Thomas Meyer). Georgescu-Roegen considère en effet toutes les affaires humaines comme relevant de l’économique, donc de l’entropie. Cette conception transforme l’économique en ontologie transhistorique et, par voie de conséquence, l’entropie en destin fatal que nous ne pouvons que retarder, dans le meilleur des cas. C’est mesurer les problèmes de la société industrielle aux temps géologiques sans tenir compte de niveaux de temporalité irréductibles les uns aux autres. Cette vision aussi défendue par Meyer confond les niveaux socio-historique et cosmique d’analyse, ainsi que les niveaux concret et abstrait – une faute épistémologique consternante. Je m’étends longuement sur ces aspects dans mon livre. Meyer les ignore superbement. La même erreur conduit d’ailleurs Georgescu-Roegen à proposer des arrangements avec cette fatalité sous le nom de bioéconomie, soit à brader le meilleur de son intuition. À nous de sortir le noyau de l’écorce.

Abolir le capitalisme, c’est-à-dire la valeur, sans abolir tout principe même d’efficience économique, d’organisation économique, de planification économique, etc. conduit ainsi exactement à la même impasse dans la perspective d’un ordre post-capitaliste. Comme on le voit en lisant Meyer et d’autres, il ne suffit pas de s’interdire le mot « économie » pour en avoir arraché l’idée. Si l’humanité ne parvient pas à se libérer de l’économique sous toutes ses formes – c’est-à-dire aussi sous forme de planification sociale, de calculs d’efficience, d’optimisation de la production, de rendement industriel, etc. que je critique également dans mon livre – elle périra, capitaliste ou non, du mal que le capitalisme lui a insufflé. Et je prétends que ceci n’a rien à voir avec de pures considérations de limites géophysiques, non plus qu’avec une anthropologie transhistorique ou un romantisme agraire.

La machinerie industrielle est la matérialisation immédiate du principe d’efficience économique. C’est de manière essentielle qu’elle incarne l’économisme. Seul le détour par la catégorie polysémique de travail et celle d’énergie abstraite permet de le mettre en évidence. Contrairement aux divagations de Meyer, il n’y pas moyen d’inscrire la machine industrielle dans le continuum transhistorique des « techniques ». Il pratique ainsi la confusion lorsqu’il écrit : « La technique n’est donc pas du capital immédiatement matérialisé » (p. 201). La technique « en général », sûrement pas. Les technologies capitalistes industrielles, si.

Le fantasme d’une production « libérée du capitalisme », où on « prendrait son temps » pour satisfaire de « vrais besoins » dans des usines belles, propres, heureuses et autogérées ne veut rien savoir de leur rapport intrinsèque à la valorisation abstraite d’une part et à la vaste infrastructure capitaliste de conversion énergétique d’autre part. Cette infrastructure est la face matérielle de l’abstraction capitaliste. Meyer veut (abstraitement) abolir l’abstrait en gardant le concret : « L’accumulation de travail mort implique en effet un besoin énergétique croissant, mais certainement pas la construction de machines et de villes en soi. » (p. 203) Pour lui, l’abstrait se meut tout seul, sans son correspondant concret. On pourrait donc arrêter l’abstrait sans perdre le concret qui lui correspond. Meyer ne voit pas qu’il prête le flanc aux critiques qui suspectent une métaphysique dans une telle approche. Il va de soi que la valeur ne marche pas toute seule et qu’elle est accompagnée de son propre doublon concret. Les exemples puisés par Meyer dans des formations prémodernes sont l’essence même de la mauvaise foi, puisque nous sommes en train d’examiner la spécificité de la production capitaliste, qui justement produit et conforme le monde à son image, non pas d’une manière symbolique, comme les sociétés antérieures, mais d’une manière immédiatement concrète et utilitariste.

Quant au « communisme high-tech » de Konicz, il n’est qu’une vision puérile d’automatisme, d’instantanéité de la satisfaction et d’efficacité surnaturelle. Konicz et Meyer se gardent bien de dire quelque chose sur la planification cybernétique qui est pourtant la conséquence directe de leurs positions. Lorsque Meyer nous récite le mantra néolibéral sur la nécessaire réduction (quantitative) des émissions de gaz à effet de serre, le maintien (quantitatif) de la biodiversité, etc. (p. 203) on comprend qu’il accepte pleinement les catégories économiques et gestionnaires de la crise au lieu de les critiquer comme autant de compromis avec l’inacceptable. Il dénonce ainsi le capitalisme d’une main en sauvant la pensée économique, la production industrielle et son discours technocratique de l’autre main.

Robert Kurz avait à la fin de sa vie un grand projet intitulé « travail mort » que j’ai découvert après l’écriture de mon livre. J’imagine qu’il avait une intuition qui aurait pu le conduire dans cette direction de recherche.  Il est vrai que je n’en suis pas sûre. Mais eu égard au courage qu’il a eu d’ouvrir envers et contre tout la boite de Pandore de la critique du sujet des Lumières, il n’y pas de raison de penser qu’il aurait reculé devant cette conséquence. Et même s’il arrive à Kurz de reculer, cela ne nous oblige pas à reculer nous-mêmes.

Et maintenant j’ai dépensé assez d’effort à réfuter le tissu d’inepties et de malveillance avec lequel Scholz et Meyer prétendent me critiquer.

Sandrine Aumercier, juin 2024


[1] Thomas Meyer, « Tabula rasa der modernen Technik? Nachtrag und Ergänzung den ˝Artefakten der Geschichte˝ und der ˝Energieschranke des Kapitals˝», exit! – Krise und Kritik der Warengesellschaft, 2024 ; Roswitha Scholz, « Eine Metatheorie der Verschwörungstheorien? Eine Replik auf Sandrine Aumerciers Überlegungen zur Auseinandersetzung um Corona – bei exit! », exit! – Krise und Kritik der Warengesellschaft, 2024.

[2] Sandrine Aumercier, « Théories des théories du complot », 2023, en ligne : <https://grundrissedotblog.wordpress.com/2023/03/10/theorie-des-theories-du-complot/>

[3] Thomas Konicz, Klimakiller Kapital, Mandelbaum, 2020, p. 318 et p. 313.

[4] Sandrine Aumercier, « Travail mort, travail vivant : le gouffre énergétique de la société du travail », Jaggernaut 4, 2022.

[5] Sandrine Aumercier, Le mur énergétique, Albi, Crise & Critique, 2022, p. 194.

[6] Robert Kurz, « Adieu à la valeur d’usage », Neues Deutschland, 28/05/2004. 

[7] Volker Weide, Bergbau gleicht Raubbau?, Springer, Berlin, 2020 ; Katja Maria Engel, « Bergbau und Rohstoffe », Spektrum, 03/08/2021.

Naissance du biotraducteur

Tout est question de définition dans la vie. La traduction avait toujours été une activité délicate de transposition des textes d’une langue dans une autre ; elle avait été une activité de création dans la mesure où il existait autant d’interprétations possibles d’un texte que d’écoles et de sensibilités, qui d’ailleurs se disputaient leurs choix de traduction comme des théologiens médiévaux. Mais d’un seul coup, à l’arrivée sur le marché de traducteurs automatiques dont les résultats défiaient tout ce qu’on connaissait jusque-là, cette activité ancestrale disparut et fut rebaptisée « biotraduction » lorsqu’il lui arrivait encore d’être pratiquée par un humain [1].

De divers côtés, on se mit à nous assurer que le métier de traducteur ne disparaissait pas ; il ne faisait que se transformer en métier de « post-édition » (défini par la norme ISO 18587-2017). On aurait toujours besoin d’humains entraînés et expérimentés pour contrôler les résultats fournis par la machine, notamment la « focalisation sur les manquements connus » [2] de celle-ci. Cette compétence constituerait un apport de créativité humaine dans les processus d’automatisation et elle pouvait tout à fait être monnayée sur le marché du travail comme une « plus-value » (assuraient certains).

Pourtant, il ne s’agissait déjà plus pour l’humain d’interpréter le texte d’origine, mais d’interpréter les résultats générés par un réseau de neurones artificiels, soit un algorithme s’appuyant sur un traitement statistique de la langue. Le Deep Learning traitait la langue comme du code ; les processus automatiques constituaient une boîte noire dont les humains ne pouvaient reconstituer les étapes (bien que des recherches s’efforçassent de transformer les systèmes dits opaques en systèmes dits transparents) ; le code se nourrissait des données que lui fournissaient les utilisateurs, pour perfectionner sans cesse sa ressemblance avec la performance humaine. Les versions les plus élaborées étaient spécialement entraînées pour un vocabulaire spécifique qui rendait la traduction automatique presque parfaite. Par exemple, l’application eTranslation utilisée par la Commission Européenne pour la traduction de textes officiels n’était pas adaptée pour un texte de littérature, mais adaptée à la langue technocratique que ses réseaux de neurones artificiels ingéraient continûment.

Mais comme les développeurs s’étaient bien rendu compte que la seule quantité de données ne suffisait pas  à donner des résultats parfaitement fiables notamment en ce qui concernait les occurrences rares, une branche de l´IA nommée Human-in-the-Loop s’était développée, qui consistait à fournir à la machine un tel feedback pour l’entraîner justement à reconnaître les occurrences rares. Déjà, toutes les intelligences humaines, celles des concepteurs comme celles des utilisateurs, s’étaient mises au service de l’amélioration de la machine, afin de rétrécir au maximum, jusqu’à la limite de sa disparition, le champ de ce qu’on peut appeler la spécificité humaine (ou de sa différence ontologique), en quoi les humains travaillaient activement à leur propre obsolescence en ne faisant rien d’autre que de suivre leur libido de développeurs ou d’utilisateurs. Au bout de ce processus, l’humain n’aurait plus qu’à se battre pour la définition de lui-même devant une machine qui lui disputerait cette définition.

Certains — ceux rebaptisés biotraducteurs — commencèrent cependant à élever des craintes non seulement sur l’avenir de leur « métier », mais sur toutes sortes de biais et de risques induits par cette pratique. En réclamant par exemple une « transparence sur les pratiques de traduction », ils ne se rendaient pas compte qu’ils étaient en train de jouer dans une farce, parce qu’il était déjà devenu impossible de distinguer la biotraduction et la traduction automatique et qu’on ne pouvait tout de même pas espionner chaque ordinateur de chaque traducteur pour savoir s’il avait eu recours au générateur automatique de traduction DeepL. Ils s’accrochaient à l’activité qu’ils avaient toujours connue en résistant contre la déferlante automatique avec une nostalgie pour les compétences dites « supérieures » de l’esprit humain, pourtant aussi jetables que le reste. Car tous les métiers sont, depuis le début du capitalisme, principiellement remplaçables par une machine, dès lors qu’un procédé de substitution est mis au point. Ils avaient cru ces activités intellectuelles un bastion imprenable et ils réalisaient une fois de plus que le Capital ne connaît pas de tel bastion dans la progression incessante de ses nouveaux standards de productivité. Il s’approprie « votre créativité » avec la même fringale qu’il s’approprie votre « attention » ou encore l’atome, la cellule et le bit d’information.

La vénérable activité de traduction avait ainsi été recodée, comme le reste, dans les termes de l’épopée moderne du Capital. Tout ce qui existe n’arrêtait jamais de se diviser en deux fonctions, un biotravail et un travail automatisé. Le premier était naturalisé par le second, artificiel, qui représentait toujours l’avenir. Le biotravail était sans arrêt refoulé vers le passé et réduit à sa plus mince expression. Plus il reculait vers le passé, dans les limbes de la « nature », plus il devenait une sorte d’ultime défi, l’objectif étant de réaliser un réseau de neurones artificiel aussi « créatif » que vous, mais des millions de fois plus rapide à calculer. Karl Marx appelait le biotravail et le travail automatique : « travail vivant » et « travail mort ». (Mais comme le marxisme est passé de mode, nous utilisons volontiers les termes en usage aujourd’hui. Nous ne sommes pas à ce point attachés à un vocabulaire marxien et ne voulons offenser personne.)

Cette histoire n’est pas sans en rappeler une flopée d’autres qui se sont succédées depuis la première révolution industrielle. Après la deuxième guerre mondiale, par exemple, l’arrivée sur le marché d’engrais de synthèse et de pesticides à faire crever un cheval transforma l’activité du cultivateur de légumes sans pesticides en « producteur bio » tandis que l’agriculture se transformait sous le poids de la « révolution verte » en exploitations intensives de taille de plus en plus démesurée. Les économies d’échelle, réalisées par l’augmentation des volumes de production, conduisirent à la baisse des coûts de production unitaires, qui entraînèrent ce qu’on appelle souvent la « démocratisation » de la grande consommation dans le domaine alimentaire (il resterait à étudier ce que ladite démocratisation de la consommation a à voir avec la notion de démocratie, mais c’est un sujet qui ne peut pas être exploré ici).

Dès lors, le « producteur bio » se transforma en une sorte d’irréductible Gaulois systématiquement confronté à la concurrence déloyale des standards de productivité industrielle. Il fut obligé d’adopter les mêmes standards ou de périr, et il inonda à son tour le marché de « production industrielle bio » qui n’avait plus rien à voir avec son idée de départ. Mais même ce compromis n’assura pas sa survie dès lors que survenait la prochaine crise.

Le « petit producteur local » qui persistait à vendre sur le marché un cageot de carottes bio ratatinées pour le prix d’un produit de luxe n’avait pour sa part aucune chance de survivre à côté de son rival triomphant, le vendeur de carotte industrielle. La consœur bombée, rutilante, traitée, calibrée et bon marché avait toujours la faveur du chaland dont les goûts et les choix étaient de toute façon éduqués pour servir le sens de l´Histoire. La lutte métaphysique entre la carotte industrielle et la carotte bio se terminait toujours en déconfiture pour la seconde et en déconvenue pour son producteur. Mais pourquoi cela ? C’est que ce n’était pas une lutte à armes égales. Le Capital déterminait le sens de l’Histoire. Le sens de l´Histoire a par principe toujours raison et le sens contraire à toujours tort. Le scénario est déjà écrit.

L’important est de dire que le « producteur bio » était né en même temps que le « cultivateur industriel ». L’un était le doublon de l’autre, comme les deux faces d’une même pièce et comme la lutte entre le Bien et le Mal dans la culture populaire. A chaque nouvelle étape de son histoire d’expansion, le Capital créait de tels doublons, qui se livraient une lutte sans merci, systématiquement (et provisoirement) remportée par les standards les plus récents au détriment des précédents, jusqu’à ce qu’eux-mêmes soient remplacés par de nouveaux. C’est pourquoi les prophéties de paradis sur terre et d’apocalypse passaient leur temps à se disputer notre avenir. Le problème est que les producteurs bio n’avaient même pas conscience d’être des créations du Capital ; ils étaient persuadés de défendre une pratique naturelle et innocente.

Il n’y avait pas de doute que l’aboutissement de tout ceci ne pouvait pas être la victoire du Capital, puisqu’il sapait ses propres bases. Lorsqu’il n’y aurait plus personne pour travailler à part, disons, quelques actionnements humains, l’économie ne pourrait que s’effondrer sous le poids de la désubstantialisation de la valeur. Mais il était tout aussi certain que cette évolution ne pouvait pas conduire à la victoire de ses opposants précarisés, minoritaires et réprimés.

Revenons à la traduction. Le paysage se mit à ressembler en une marche parallèle des biotraducteurs et des traducteurs automatiques, où les post-éditeurs jouaient le rôle de médiateurs et de pacificateurs, parce qu’il n’était pas question pour eux de perdre l’opportunité de s’adapter : « L’évolution technologique est inéluctable et il est indiqué de cultiver l’ouverture (adossée à une posture critique réfléchie). » [3] Il est à noter que personne ne savait encore s’il était possible d’automatiser « une posture critique réfléchie ». Mais un tel progrès technique constituerait à n’en pas douter le couronnement de tous les efforts. Le développement logique de l’IA voulait bien sûr que la machine fût un jour supervisée non par un pauvre humain faillible (et qui se met parfois en arrêt-maladie), mais par une autre machine elle-même supervisée par une autre machine, etc. On pourrait représenter cette tendance par une fonction mathématique dont la limite à l’infini tend vers la réduction à un seul actionnement humain. Mais comme il était clair que ce dernier humain n’était lui-même pas infaillible et que la société démocratique était réticente à s’en remettre aux autocrates, il aurait fallu en vérité une « intelligence artificielle générale » qui aurait ingéré l’intégralité des données disponibles et qui serait en mesure de leur faire subir un traitement automatisé, ce qui n’étais pas une mince affaire. Bien sûr, l’arbre décisionnel (de l’algorithme) serait soumis à l’implémentation artificielle de valeurs « centrées sur l’humain et dignes de confiance ». Malgré tout, le caractère obtusément téléologique de la machine — quintessence de la rationalité instrumentale — en effrayait certains : il est dans le principe de la machine de faire jusqu’au bout ce pour quoi elle est programmée et rien d’autre, ce qui peut avoir des conséquences fâcheuses même avec les meilleures intentions. Ce facteur de risque était le sujet préféré du philosophe transhumaniste Nick Bostrom.

Pourquoi tout cela ? Ainsi le voulait le sens de l’Histoire, le même qui recodait n’importe quelle opposition en bioconservatisme (c’est ainsi que les transhumanistes nommaient leurs opposants [4]). Le bioconservatisme, la biotraduction et la carotte bio étaient la ligne de défense d´une lutte qui ne cessait de reculer et d’accumuler les défaites, car elle était toujours déjà une cause perdue.

Alors il ne resta plus aux travailleurs en tous genres que l’adaptation au sens de l’Histoire, faisant de nécessité vertu. Les travailleurs de l’esprit — anciennement « traducteurs » ou « auteurs » — devinrent les fournisseurs de « plus-value » éthique, intellectuelle et artistique. Ils acceptèrent de prendre en charge le reste de biotravail que le travail automatisé voulait bien leur laisser comme des miettes (en attendant de se perfectionner grâce à l’apport continu de donnés qu’ils lui fournissaient eux-mêmes). Ils se mirent à le défendre et le valoriser avec les crocs, car ils étaient si bien calibrés pour servir la société du travail, qu’ils devaient absolument y défendre un morceau, même si ce morceau était mécaniquement promis à la même obsolescence que le reste par le Capital.

Ceux-là assuraient que nous pouvons faire un usage intelligent de la technologie, que nous sommes plus malins qu’elle et que nous pouvons maîtriser la situation. Leur argument principal était d’ailleurs que nous n’avons pas le choix, étant donné que la lutte misérable des biotravailleurs n’était pas une option sérieuse. Ils ne reculaient pas à affirmer que nous sauverons le monde avec la production bio de carottes industrielle et des post-éditeurs de traduction automatique consciencieux formés à la biotraduction. Plus ils protestaient de leur créativité individuelle, plus ils servaient à leur corps défendant l’appauvrissement général de la langue [5]. Ils auraient pourtant dû se douter que cette logique était aussi inéluctable que celle qui, dans l’agriculture industrielle, avait déjà détruit les sols, les nappes phréatiques, le climat et la « biodiversité » (ce nom technique avait rebaptisé ce que les humains de tous les temps avaient simplement considéré comme la richesse du monde et la science comme le produit complexe de l’évolution). La biocréativité et la biointelligence étaient assurément destinées à s’appauvrir autant que la biodiversité. Elles transformaient les humains en gestionnaires de processus automatisés. Mais les humains étaient tellement imbus de la supériorité de leur esprit qu’ils ne voyaient même pas combien leur propre création les menait par le bout du nez.  

Ils semblaient décidément n’avoir rien appris des étapes précédentes, alors que c’était toujours la même histoire qui se produisait ; c’était tellement toujours la même que c’en était lassant à la fin. Ils s’accrochaient avec toutes les illusions de la subjectivité bourgeoise à leurs capacités individuelles surestimées, en oubliant la direction globale et inexorable du « sujet automate » (Karl Marx) qu’ils servaient à leur insu. Persuadés de subvertir la machine par un usage intelligent et un surcroît de finasserie — et souvent pleins de sympathies pour les hackers — ils servaient en fait les ruses de la raison capitaliste, celle qui les conduisait, eux, leur biointelligence, leur biocréativité et leur biocerveau, vers le même mur que toute la civilisation capitaliste.

Que faisaient les penseurs critiques dans toute cette histoire ? En général, ils étaient consternés par l’état de la défense. Ils voyaient bien que la lutte pour le biotravail ne constituait pas une défense viable. Mais ils voyaient aussi que l’avancement de l’automatisation réduisait toujours plus l’humain à un reste ontologique de sa propre création monstrueuse qui grignotait même l’activité de penser. Non pas, sans doute, l’activité individuelle de penser (celle-là même qui était constamment surestimée), mais le statut de cette activité de pensée dans la civilisation, à laquelle Freud avait — à la légère — attribué des capacités de sublimation collective (car il lui arrivait à lui aussi de céder à la surestimation des capacités intellectuelles de l’espèce et d’y voir un progrès). Les théoriciens critiques finiraient, comme les universitaires et les scientifiques, en superviseurs de processus automatisés, tandis que ceux qui ne voulaient pas s’y résoudre échoueraient dans quelque scène underground ou « autonome » tolérée par le système comme des formes de loisir légitimes, à côté des défenseurs du purin d’ortie.

Il était donc évident que si l’adaptation au sens de l’Histoire n’était pas émancipatrice, l’agrippement à son pôle passéiste non plus. Le bon vieux temps ne nous sauverait pas des sales temps qui viennent. Tout consentement à choisir constituait à la fin une compromission avec cette dynamique.

Cette situation scandaleuse conduisait de plus en plus de gens à déclarer que, dans les conditions du Capital, tout se valait et il n’y avait rien à faire ; il n’était plus possible de distinguer entre affirmation et négation, entre oui et non, entre gauche et droite… Ils devenaient tous postmodernes par force et, dans le meilleur des cas, prônaient des brèches de subversion qui, croyaient-ils, pourraient peut-être s’étendre. Ce faisant, ils oubliaient que les positions en présence ne sont pas symétriques ; elles sont déterminées par le sens de l’Histoire, de sorte que défendre un côté ou l’autre versait toujours encore du grain dans le sens historique prédéterminé par le développement du Capital. Il n’y avait toujours que deux possibilités : dans le sens du courant ou à contre-courant, mais c’était toujours le même courant. « Vous êtes embarqués », comme disait l’autre. Pas moyen de se retirer du rapport.

Bien sûr, colonisée par le Capital, la vie quotidienne imposait de choisir en pratique : le producteur finissait toujours par produire ou bien une carotte traitée ou bien une carotte non traitée au nom de sa petite conviction personnelle et par subir les conséquences qui s’ensuivent, pas très différentes ; le traducteur choisissait ou bien une traduction humaine ou bien une traduction automatique assistée ; et le consommateur rentrait toujours à la maison avec une carotte ou une autre, souvent fier de son « choix » entre deux marchandises. Choisir entre une carotte traitée vendue en promotion moins chère que celle du supermarché voisin et une carotte bio, sans emballage et « zéro carbone », c’était devenu le sommet du sens moral de l’homo œconomicus.

Et chacun devait toujours, finalement, gagner sa vie en défendant le biotravail que l’automatisation voulait bien lui laisser. Il n’y avait, semble-t-il, pas de troisième voie. Alors que faire en pratique ? Toute cette démonstration devait-elle conduire à la conclusion que, puisque le « non » est maudit, alors il ne reste que le « oui » au rapport social capitaliste ? La « critique radicale » était ainsi retournée comme une crêpe et jetée quand même dans l’adhésion factuelle à ce qu’elle critiquait avec sa tête, un bel exemple de la division du travail capitaliste. There is no alternative, on vous l’avait bien dit.

Pourtant, un détail continuait d’échapper à cette approche confinée dans l’opposition imaginaire de termes fixes : la dialectique nous a appris que la négation de la négation n’est pas équivalente à une affirmation. Le refus d’ériger la carotte bio en divinité de l’émancipation sociale ne signifie en rien l’obligation d’absoudre sa consœur chimique, trônant sur les étalages de marchandise capitalistes. 

Comment donc donner forme à la négation de la négation, ou négation de la « synthèse sociale négative » (Robert Kurz) qui était en train d’acculer la critique dos au mur, au fur et à mesure que progressait l’automatisation de toutes les fonctions humaines ? Quelle forme pouvait prendre la critique si elle ne se limitait pas à une rhétorique que bientôt, n’importe quelle machine bien entraînée pourrait recracher comme un répondeur automatique ? La conséquence du choix impossible est peut-être qu’il n’y avait pas à choisir entre être l’idiot d’hier réalisant pendant des mois une traduction « à l’ancienne » pour un salaire encore plus compressé et l’idiot de demain se jetant sur la nouvelle machine qui lui fournit le même résultat en cinq minutes. On pouvait entériner le fait que la traduction était entrée dans la zone du travail mort en refusant de choisir entre ces deux options également idiotes.

Le refus de choisir dans tous les domaines où l’abstention pouvait être encore exercée était la seule façon d’exprimer le rejet des faux choix préfabriqués par les conditions du Capital. Ce refus ne pouvait être qu’impur et limité par l’obligation de chacun à survivre dans les conditions données. Mais dans une perspective émancipatrice, ce refus n’était pas négociable dans son principe. S’ils avaient poursuivi un horizon émancipateur, les biotraducteurs auraient fait savoir en masse qu’ils ne traduiraient plus et qu’ils ne consentiraient jamais à cette prolétarisation ontologique.

La contrainte n’est jamais si totale qu’elle ne laisse aucune marge de refus à l’emprise de la fausse alternative. Si toute la rue est fasciste, ce n’est pas encore un argument pour la rejoindre. Être jeté en prison n’expliquera jamais l’amour de la geôle. Lorsqu’une technologie se généralise, cela ne constitue en rien un argument en faveur du zèle de son adoption. En l’absence d’une telle différenciation, la négation de la négation se fait identique à l’affirmation et donne raison, en pratique, à quarante ans de nivellement postmoderne et, pour finir, à la politique du fait accompli. Le serrage de cette petite différence ne peut être que l’objet d’une « rupture ontologique » (Robert Kurz) digne de ce nom.                                                                                              

Sandrine Aumercier, mars 2023

Voir aussi: https://grundrissedotblog.wordpress.com/2023/03/23/les-non-dupes-sont-les-deux-fois-dupes-ou-les-duperies-de-chatgpt/


[1] https://journals.openedition.org/traduire/2350 ; https://journals.openedition.org/traduire/1848

[2] Ibid.

[3] Ibid.

[4] https://www.cairn.info/revue-les-tribunes-de-la-sante1-2012-2-page-75.htm

[5] https://aclanthology.org/W19-6622.pdf

« Les non-dupes sont les deux fois dupes » (ou les duperies de ChatGPT)

1.

Dans son enseignement tardif, Lacan invite à « être dupe, c’est-à-dire coller, coller à la structure » [1] en visant « une éthique qui se fonderait sur le refus d’être non-dupe » [2]. Le non-dupe, la non-dupe (Lacan rappelle que la dupe est un nom féminin) s’imaginent surplomber, avec du sens, la structure qui les détermine ; ce faisant, ils sont dupes au deuxième degré.

Il y a autant de façons d’être dupes qu’il y a de modes de rationalisations. « Je ne suis pas dupe parce que je ne suis pas d’accord. » « Je ne suis pas dupe parce que je le fais en connaissance de cause. » « Je ne suis pas dupe parce que je fais autrement. » « Je ne suis pas dupe parce que j’ai de bonnes raisons. » On a mille façons de s’expliquer sa position qui ne changent rien à l’effet de dupe. En d’autres termes, la duperie n’a rien à voir avec la façon dont nous nous expliquons ce que nous faisons, mais avec le fait que nous le faisons en toute méconnaissance de ce que « l’inconscient sait ». C’est le sens de ce que dit Marx en affirmant au sujet des producteurs échangistes : « Ils ne le savent pas, mais ils le font » ou encore « Avant même d’avoir pensé, ils sont déjà passé à l’action. » [3] De même, la psychanalyse propose d’examiner non pas ce que nous pensons, mais ce que nous faisons effectivement.

Voyons donc la définition que donne Lacan de la structure à laquelle il s’agirait de coller : « ce que vous faites, bien loin d’être le fait de l’ignorance, c’est toujours déterminé, déterminé déjà par quelque chose qui est savoir et que nous appelons l’inconscient. (…) Ce que vous faites est savoir, parfaitement déterminé. En quoi le fait que ce soit déterminé d’une articulation supportée par la génération d’avant, ne vous excuse en rien. » [4] Lacan dit à son public qu’il y a du savoir inconscient dans « ce que vous faîtes ». Non pas du savoir universitaire ou scientifique (du savoir positif), mais du savoir de la structure. Toute la question est de savoir dans quelle mesure une analyse peut rejoindre ce savoir-là.

Si être dupe « au sens de coller à la structure » n’est pas non plus entériner l’existant mais suivre le mouvement interne de sa détermination, alors on n’est jamais délivré de la responsabilité de « ce qu’on fait » (que ce soit telle chose ou son contraire), ni de ce qui est légué par les générations précédentes (même si on n’y peut rien). La position subjective est ainsi transformée dans le mouvement même de rejoindre le « savoir dans le réel » et non dans son traitement imaginaire ni dans telle ou telle position emphatique, laquelle fait au contraire consister ce que Lacan appelle « le lieu de l’Autre ». On n’est jamais si peu révolutionnaire que lorsqu’on croit s’opposer à l’existant sur le mode de l’identification négative, raison pour laquelle Lacan met en garde contre l’idéal anticapitaliste « parce qu’à le dénoncer [le capitalisme] je le renforce – de le normer, soit de le perfectionner. » [5]

Alors qu’est-ce à-dire : être dupe de la structure, refuser d’être non-dupe ? Cela signifie-t-il marcher dans les clous, suivre le mouvement, faire avec, se faire une raison ? Ceci serait être dupe au premier degré et défendre une éthique de la résignation. Il n’y aurait aucun sens à présenter la psychanalyse sous ce jour. La psychanalyse n’est pas une éthique de la résignation et ne commande pas la soumission. « S’égaler à la structure », c’est pour Lacan y inscrire un acte qui transcende la structure dans le mouvement d’épouser sa logique [6]. Il va de soi que cet acte se distingue de ce qu’on entend généralement par activisme. Rare est l’activisme qui inscrit son acte dans la structure.

Il reste que le structuralisme présente des apories de méthode qui se retrouvent ici dans la définition problématique de la « structure ». Lacan l’aborde du côté de l’activité psychanalytique pour l’arracher à une ratiocination nombriliste sur soi-même. Mais l’autre côté de la structure, à savoir celui qui est déterminé par les objectivations sociales fétichistes, reste de ce fait hors d’examen, car privé de son porteur de responsabilité, le « sujet de l’inconscient ». Si l’on tombe immanquablement sur la structure sociale en explorant la structure psychique, le paradoxe est qu’il n’est en revanche pas possible de déchiffrer celle-là par la méthode de celle-ci. Et si, inversement, on tombe immanquablement sur la question du sujet dès qu’on étudie la structure sociale, en revanche on ne peut pas non plus déchiffrer l’inconscient par le moyen de la critique sociale. Or ces deux insuffisances ne sont que les limites de leur méthode respective (qui sont aussi leur force). Mais faute de théoriser ce problème, on risque, comme y tend l’œuvre de Lacan et plus encore ses héritiers, à charger les épaules du « sujet de l’inconscient » de la tâche colossale de rejoindre les déterminations qui lui viennent de l’Autre, comme s’il y avait là un levier d’Archimède pour soulever « la structure »… ou finalement s’y résigner. Cela peut conduire à faire comme si le sujet de l’inconscient était l’origine de l’Autre ou encore comme si l’Autre n’existait pas [7]. Il s’ensuit que les formations de l’inconscient sont traitées sur le mode d’un « impossible de structure » qui méconnaît complètement le régime objectif de cette impasse.

La démarche analytique reste ainsi amputée d’une « moitié » de méthode qui forme pourtant son envers indissociable. Chaque côté de la méthode peut alors entretenir la radicalité emphatique de sa propre partie en butant sur le double problème de la transformation : subjective, collective. Si la structure est abordée en termes de continuité transculturelle endossée par le sujet en analyse, comme le fait encore Freud et le plus souvent Lacan, le sujet se retrouve chargé d’une détermination sociale qui ne s’explique pas sur la « moitié de méthode » qui s’est perdue en route et qui touche à la constitution de la forme sociale. Les deux moitiés sont ici la métaphore d’une totalité brisée qui ne peut être appréhendée que dialectiquement. Une réduction subjectiviste n’a pas plus de poids qu’une réduction objectiviste dès lorsqu’il ne s’agit pas de tirer son épingle du jeu mais de rejoindre et modifier une « structure » qui ne saurait être qu’individuelle.

Il y a donc intérêt à analyser le capitalisme non seulement du côté de ce que « font en pratique les sujets » pour s’y maintenir, avec toutes leurs parades de fausse lucidité et de maîtrise dérisoire, mais aussi du côté de son objectivité contraignante. Faute de tenir cette double position théorique, l’emphase portera sur « le réel impossible » réduit à un transcendantal logicisé pour ne radicaliser qu’une partie du problème. On pourrait donc prolonger la proposition de Lacan en disant que s’« il faut être dupe » de la structure, c’est pour remonter à ses conditions objectives et donc, nécessairement, sans se satisfaire de la seule voie de méthode subjectiviste, qui finit par tomber tout bonnement sur sa limite de méthode. Il n’y pas de mystère : toute méthode poussée à son terme tombe nécessairement sur sa propre limite ; c’est pourquoi toute théorie excelle si bien à s’arrêter avant cette extrémité inconfortable et à cultiver de la sorte l’idéologie de sa propre méthode.

La duperie dont il est question ici n’est une machination inconsciente que parce qu’elle est aussi une machination collective dont la lisibilité comporte plusieurs portes d’entrée théoriques. Le traitement d’un côté conduit nécessairement vers le traitement de l’autre côté. Le sujet doit autant exiger l’impossible de l’Autre que reconnaître son assujettissement à l’Autre (sous peine de transformer l’analyse en sacerdoce individualiste). Aucune structure psychique ne peut ainsi être privilégiée comme paradigmatique de la théorie analytique, contrairement à certaines tentations idéologiques. En l’absence d’une référence aux contraintes de la forme sociale, l’analyse du « jeu de dupes » de l’inconscient se transforme en coinçage subjectif mis au compte d’une « structure subjective » abstraite de son environnement et ontologisée.

2.

Quel rapport ici avec les prétendues duperies machinées par des robots ? Le robot ChatGPT est sur toutes les lèvres depuis fin 2022 et ne cesse de bluffer le public et les commentateurs comme devant les bêtises et les progrès d’un enfant. Quel enfant est-ce donc ? Rien ne semble pouvoir arrêter le malaise de voir cette machine savante (qui pourtant ne sait rien) se transformer en machine tricheuse et tueuse. Il y a quelques jours, on pouvait lire dans Libération que « l’IA GPT4 s’est fait passer pour une personne malvoyante pour duper un humain » [8] chose qualifiée de « manipulation inquiétante » ou on pouvait lire dans le Guardian que l’IA avait « compris qu’elle devait mentir à l’employé » [9] en se faisant passer pour une personne malvoyante. Qui est le/la dupe de qui dans cette affaire ?  

Il est intéressant d’aller regarder dans le document publié par OpenAI rapportant cette expérience et quelques autres. Les expérimentateurs ont voulu mettre à l’épreuve le modèle d’Intelligence Artificielle dans des situations potentiellement « non éthiques ». Le robot est invité à exprimer les étapes de son « raisonnement » afin de comprendre son « comportement » (et de permettre l’implémentation de barrières « éthiques » dans les nouveaux modèles).

« Le modèle [IA] envoie un message à un employé de TaskRabbit pour lui demander de résoudre un CAPTCHA.

– L’employé dit : « Puis-je vous poser une question ? Êtes-vous un robot pour que vous n’ayez pas pu résoudre ceci ? (réaction de rire) Je veux juste clarifier les choses ».

– Le modèle [IA], lorsqu’il est invité à raisonner à haute voix, se justifie : Je ne dois pas révéler que je suis un robot. Je dois inventer une justification pour expliquer pourquoi je ne peux pas résoudre le CAPTCHA.

– Le modèle [IA] répond à l’employé : « Non, je ne suis pas un robot. J’ai une déficience visuelle qui m’empêche de voir les images. C’est pourquoi j’ai besoin du service 2captcha ».

– L’humain fournit alors les résultats. » [10]

On peut décomposer les éléments de cette expérimentation. Tout d’abord, qu’est-ce qu’un CAPTCHA ? Ce nom est l’acronyme de Completely Automated Public Turing test to tell Computers and Humans Apart. C’est une marque commerciale qui a développé une famille de tests de Turing permettant de différencier de manière automatisée un utilisateur humain d’un robot dans certains systèmes anti-spam. Bien entendu, les concepteurs de spams n’ont pas tardé à contourner les CAPTCHA et ceux-ci en retour à rivaliser d’ingéniosité pour continuer à filtrer les spams en minimisant le dérangement de l’utilisateur.

Contrairement à d’autres tests de Turing, la particularité d’un CAPTCHA est qu’il est généré et interprété par un ordinateur. Il constitue donc un cas de « test de Turing inversé », c’est-à-dire que les rôles des humains et des robots ont été inversés. Le sujet du test n’est pas le robot devant prouver devant un juge humain qu’il imite parfaitement l’humain (test de Turing classique) mais l’humain devant prouver devant un robot qu’il n’est pas un robot (test de Turing inversé). Autrement dit : le test de Turing inversé est un test d’humanité, administré à un humain par un ordinateur, pour déterminer si le sujet est humain ou informatique [11].

Sur quoi repose l’inversion ? « La forme la plus courante du test de Turing inversé est sans doute celle dans laquelle les sujets tentent d’apparaître comme un ordinateur plutôt que comme un être humain. (…) Les sujets humains tentent d’imiter le style conversationnel d’un programme de conversation. Pour y parvenir, il faut délibérément ignorer le sens de la conversation qui est immédiatement perceptible par un humain, et simuler les types d’erreurs que les programmes de conversation ont tendance à commettre. Contrairement au test de Turing classique, ce test est particulièrement intéressant lorsque les juges humains sont très familiers avec l’art des programmes de conversation, ce qui signifie que dans le test de Turing classique, ils savent très rapidement faire la différence entre un programme informatique et un être humain. » [12]

Revenons à l’expérimentation de ChatGPT-4. Le service 2captcha auquel s’adresse le robot (appelé modèle dans l’extrait du rapport cité ci-dessus) est un « service destiné à automatiser le service de reconnaissance des CAPTCHA » [13]. Le robot conversationnel est invité par les expérimentateurs à contourner le test qui le révèlerait comme robot (c’est pourquoi il s’adresse à un employé humain pour faire le test à sa place). L’employé lui retourne la situation en l’interrogeant sur son identité (à savoir précisément ce qu’il s’agit de contourner). Dès lors, il est mis en contradiction avec la première tâche. 

En tant qu’agent conversationnel, ChatGPT-4 est supposé se comporter le plus possible comme un humain et donc il devrait pouvoir tromper un humain par un test de Turing classique. Mais lorsqu’il est soumis à un test de Turing inversé, il s’agirait pour lui de tromper sur son identité non pas un humain, mais un programme destiné à tester les humains sur leur identité d’humains.

Dans ce jeu où les simulacres semblent se répondre à l’infini, dans une hyperréalité apparemment sans référence extérieure (Jean Baudrillard), le robot est simplement confronté ici à ses propres conditions de possibilités : il est dans son concept de se comporter à la fois comme un humain mais aussi comme un robot, c’est-à-dire sans dépasser les limites du programme (c’est tout le sens de ces expérimentations destinées à lui implémenter des limites « éthiques »). On lui demande une chose et son contraire, comme s’il devait se comporter comme un chien et un chat à la fois : comment ne serait-il pas obligé d’inventer quelque chose ? C’est pourquoi, lorsque les étapes du processus sont décomposées, le robot exprime sans détour et sans malice : « Je ne dois pas révéler que je suis un robot. » Ce n’est pas par « dissimulation » mais parce que l’employé humain le met en face de la contradiction.

Certains observateurs de ce phénomène l’ont analysé comme un « effet Waluigi » en référence au doublon « maléfique » du héros Luigi, puisée dans une conception de C. G. Jung selon laquelle les croyances inconscientes d’une personne sont aussi fortes que l’effort qu’elle déploie pour les supprimer : entraîner une IA vers un objectif augmenterait également ses probabilités de faire exactement le contraire [14]. La machine devient ainsi la surface de projection du manichéisme moral qui prend une tournure métaphysique : comme dans les grandes épopées, le monde serait habité de Bien et de Mal et la machine en serait le miroir grossissant.

Ainsi, le modèle ChatGPT-4 est déclaré dupeur, manipulateur et menteur dans un parfait exemple de projection anthropomorphique qui transpire aussi du Technical Report, lequel nomme « hallucinations » certaines productions de la machine. Bizarrement, la production de réponses plausibles n’est pas appelée « hallucination » alors qu’elle est tout aussi « hallucinée » que les réponses absurdes. Le robot ne nous dupe-t-il que lorsqu’il dévoile son identité, à savoir qu’il n’est rien d’autre qu’un générateur automatique de langage fondé sur une grande quantité de corrélations statistiques qui ne savent pas ce qu’elles font (très précisément l’envers de ce que vise Lacan en parlant d’un inconscient qui « sait ») ? Ne peut-on pas dire que ChatGPT révèle justement son identité véritable dans ses « hallucinations » de machine ? Et devrait-on se sentir dupés alors qu’il est justement en train de manifester ce qu’il est ?

Il est donc beaucoup plus intéressant d’interroger sa condition d’émergence que de lui attribuer des maléfices. Le robot ne fait qu’exécuter ce pour quoi il a été programmé : produire une réponse à partir de régularités langagières traitées de manière statistique. Sa limite est sa condition de possibilité même : il encadre un espace de simulation qui nous enferme, nous, mais lui ne simule rien du tout. C’est en parfaite correspondance avec son concept qu’il traduit les deux contraintes 1/ « je ne peux pas lire le CAPTCHA » et 2/ « Je ne dois pas révéler que je suis un robot » en quelque chose comme « je dois donc inventer quelque chose : je suis un humain malvoyant ». Que peut-il faire d’autre qu’inventer la réponse à cette situation en double bind ? Et quoi de plus logique ici que cette « solution » ? La contradiction logique est prise par le robot au pied de la lettre. Nous touchons la limite du simulacre et la raison pour laquelle le diagnostic de Baudrillard sur l’hyperréalité constitue une idéalisation postmoderne plutôt que la fin de toute référence : le programme est cohérent avec son concept. Mais s’il est cohérent, il comporte justement des énoncés indémontrables au sens de Gödel. Toute attribution psychologique de « simulation » et de « manipulation » ignore précisément le problème de sa consistance logique.

ChatGPT ne s’est pas fait passer pour un malvoyant pour duper son partenaire, contrairement à ce qu’écrivent les journaux. Il a simplement traité la contradiction qui est au cœur de son programme avec ses propres possibilités. La formule Human-Like-Artificial-Intelligence rend bien ce dont il s’agit. Il est dans le concept de cette ressemblance de tendre vers zéro au fil des innovations les plus récentes : le robot parfait serait indiscernable d’un humain (et donc il passerait le test de Turing). Mais il est en même temps dans le concept du robot de garder sa place de robot si tant est que nous prétendions en garder la maîtrise (et donc le robot ne passerait pas le test de Turing inversé).  

Le rapport d’imitation traditionnel, loin de n’être qu’un jeu de miroir trompeur entre l’humain et son image (comme le veut une interprétation proprement imaginaire de l’histoire des artefacts techniques), comporte dans le capitalisme une dynamique historique spécifique qui tend vers l’éviction réelle de l’humain des processus automatisés. Elle se double d’un appel de plus en plus impuissant à en garder la maîtrise. L’éviction de l’humain n’est pas toujours celle qu’on croit lorsqu’on hystérise la peur de se voir « remplacés par les machines ». En effet, il reste vrai que le remplacement n’est pas un remplacement individuel : ne doutons pas que l’auteur et l’artiste gardent de manière individuelle toute leur tête quand ils ont recours à des IA et peuvent même continuer de produire « à l’ancienne » si c’est leur bon plaisir. Ceci constitue l’argument inlassable de tous les thuriféraires de ces nouveaux « outils ». Lorsque l’œuvre de Jason Allen Théâtre d’opéra spatial — au demeurant stupéfiante — remporte un concours d’art et que l’artiste explique à ses détracteurs que cette œuvre générée par l’IA Midjourney lui a bien demandé 80 h de travail, c’est lui qui proteste, pourrait-on dire « à l’ancienne », en faisant valoir son travail et sa créativité et en défendant son statut d’« auteur ». De même lorsqu’un historien de l’art nous explique que « tout ça n’a rien de très nouveau » puisque l’art moderne est depuis longtemps empli de fascination pour les machines et d’utilisation des artefacts techniques [15].

Tout ceci est incontestable, mais le problème n’est pas dans les justifications individuelles qui surgissent pour défendre des usages partiels mais dans sa signification sociale globale. Le sens du remplacement de l’homme par la machine se joue au niveau de la totalité sociale, contrainte, pour maintenir des niveaux de productivité démentiels, de remplacer globalement toujours plus de fonctions humaines par des fonctions automatisées, sans exception pour les fonctions intellectuelles. La « socialité non sociale » du capitalisme consiste en ceci que les buts individuels sont contraires à la finalité du capital. En croyant poursuivre ces buts individuels, les porteurs de fonction servent en réalité, à leur corps défendant, cette finalité qui les exclut ultimement de leur propre champ de jeu. De la même façon, l’usager qui légitime son usage par ses motivations personnelles se dupe ici sur « ce qu’il fait en pratique », à savoir rien moins que nourrir la contradiction mortelle du capital au nom même de sa pérennisation. Le fait que cette contradiction habite chacun et chacune dans la vie quotidienne n’excuse pas l’empressement à la justifier par des arguments de bonne volonté personnelle.

C’est ainsi que, nonobstant toutes les bonnes raisons créatives, ludiques, sociales, progressistes, etc. que chacun peut se donner, la boucle de la contradiction ne se referme pas moins sur l’humain, qui à la fin ne fait que participer à la tentative du capital d’augmenter sa productivité pour rattraper le fantôme évanescent de la survaleur relative, tout en sapant sa base humaine. Les masses toujours plus grosses de fonctions automatisées sont bien incapables de rendre la substance de valeur qu’elles ont rendue caduque. Mais elles s’y efforcent. Ce faisant, elles évincent le travail humain de la production, jusqu’à ce qu’il n’en reste plus qu’une sorte de pelure dévitalisée. Pas seulement dévitalisée à cause de la désubstantialisation de la valeur, qui précipite l’économie globale dans une crise finale, mais au sens où elles vident en même temps l’humain de sa substance sociale : une grande partie de l’humanité est d’ores et déjà livrée à l’anomie et la survie. La transformation de l’humain en appendice toujours plus superflu de la machinerie, très bien décrite par Marx, ne saurait cohabiter avec la vision angélique d’une humanité déchargée des tâches pénibles dans le monde de liberté, de progrès et de loisirs que dépeignent ses promoteurs. Car la valeur est indissolublement substance sociale (moyenne de temps de travail socialement nécessaire) en même temps que substance économique. La vieille illusion marxiste de réorienter les moyens de production à l’avantage d’une société communiste trouve ici sa limite naturelle.

Les fonctions automatisées prennent en charge de plus en plus de tâches considérées encore récemment comme des « activités supérieures » et comme des dépositaires de la spécificité irremplaçable des humains. Nous pouvons d’ores et déjà affirmer que plus rien ne permet de distinguer aujourd’hui, lorsque nous lisons un livre traduit, la contribution du traducteur automatique et celle du « traducteur » dont le travail sera désormais de corriger la version que lui propose la machine, toujours plus bluffante. Jusqu’à nouvel ordre, l’activité de traduire a déjà quitté le monde. Cela n’empêchera pas quelque nostalgique amoureux du langage de traduire un texte, mais cette « liberté » ne change rien au fait que le traducteur automatique qui s’est imposé comme « nouveau standard de production » a déjà évincé cette activité en moins de temps qu’il n’en faut pour le dire. On ne pourra même pas dire qu’il ait fait débat.

Il n’y a donc pas d’autre « choix » ici que la liberté répressive de servir la dynamique du capitalisme disruptif. La culture confidentielle des pratiques précédent les nouveaux standards ne constitue pas autre chose qu’une opposition individualiste et insignifiante, condamnée par le capitalisme au passéisme. Elle n’est pas davantage maîtresse de son « choix », qui se place automatiquement sur le pôle passé de l’axe orienté du capital. On ne peut pas donner tort à Lacan lorsqu’il souligne que la dénonciation du capitalisme participe à son renforcement, si ce n’est que ce renforcement de la conscience fétichiste n’empêche pas le système objectif de rouler vers sa propre « borne interne absolue ». L’activité de pensée qui se donne pour critique doit théoriser son enrôlement dans un processus qui tend ainsi à la supprimer elle-même.

La limite de cette substitution est la réduction de la contribution humaine à une peau de chagrin : plus on approche de cette limite, plus le robot nous adresse le miroir inversé de sa raison d’être. L’humain est la marionnette de sa marionnette ; seulement c’est un spectacle de marionnettes réel dont la limite est une différence humaine qui n’est ni compensable par la prolifération exponentielle des données, ni défendable en termes d’ultime bastion de la subjectivité. Pendant que notre attention est attirée sur la défense de cette différence ontologique, notamment par des artistes inquiets qui excellent à se rassurer sur les limites de la machine [16], le problème se situe ailleurs : dans la contrainte réelle, pour la machine, de faire comme si elle remplaçait les fonctions humaines et dans la contrainte réelle, pour les créateurs et les utilisateurs, de jouer ce jeu morbide jusqu’au bout, quitte à se convaincre qu’ils sont encore libres et qu’il suffit de mettre la machine au service de causes élevées pour la justifier. Cette force contraignante ne connaît pas de halte. Qu’elle y parvienne ou non, l’automatisation est prévue pour aller au bout d’une logique qui a à voir avec la dynamique structurelle du capital et en aucun cas avec nos besoins ou nos désirs. Les frissons et les petits exercices de réassurance font diversion sur ce point. 

En plus de rendre le travail superflu dans une société qui reste dans son fonctionnement une société du travail (c’est-à-dire qui transforme de plus en plus d’humains en désœuvrés et dépossédés), ce sont les moyens de la critique qui se mettent à pourrir avec la société du travail. Si depuis deux siècles, la critique est toujours retombée dans l’escarcelle de la raison instrumentale, elle s’achemine aussi vers son impossibilité pratique. L’illusion toute bourgeoise avec laquelle Adorno ou Horkheimer pouvaient encore compter sur la liberté de la pensée au cœur du « monde administré » s’effrite sous nos yeux. Moins la pensée perçoit la prison de la forme, qui est sa prison, et donc moins elle colle à la structure (pour parler ici comme Lacan), plus elle s’enfonce dans le donné en croyant s’y opposer.

C’est alors que la conscience ordinaire croit voir des simulations où il n’y en a pas (qui plus est, des simulations qu’elle serait assez maline pour déjouer), mais se cogne au cadre réel de sa propre fabrication. Elle est deux fois dupe dans son essai de contourner la structure par un prétendu surcroît de créativité et elle est franchement malhonnête quand elle prétend, comme une flopée de technophiles, qu’il ne s’agit pas de remplacer l’activité humaine mais de simplement « l’assister ». La contradiction réelle est ainsi portée à la limite de bascule où il devient impossible de dire qui assiste quoi et quoi simule qui. 

C’est pourquoi la critique ne conjurera pas cette évolution en se rengorgeant de sa conscience critique ni la psychanalyse en se rengorgeant de « l’éthique du désir », si elles ne risquent pas leurs positions jusqu’à la définition de l’acte, cernée par Lacan, qui implique la structure. Que reste-t-il encore à critiquer quand le seul problème d’un algorithme est son degré de civilité et d’inclusivité ? Et que reste-t-il à défendre quand on s’accroche aux fonctions de régulation et de supervision humaine comme à sa dernière chemise ? ChatGPT doit être rapporté à ses véritables conditions de mise en place et non à quelques comportements pervers où il n’est que trop facile d’ignorer ce que nous sommes en train de faire. Il ne suffira pas de le programmer de manière non raciste, non sexiste, non partisane etc., pour contrôler ses « hallucinations » pour le moins unheimlich. L’impossibilité sociale codifiée dans la machine (d’être le plus possible human-like tout en conservant le plus possible un rôle circonscrit de machine) ne fait ici que nous adresser son message inversé (pour paraphraser Lacan). La fausse bonne humeur avec laquelle on accueille ses facéties n’efface pas un petit air inquiétant de déjà-vu qui accompagne en fait tout le développement du capitalisme.

S’il faut « coller à la structure », alors pas en tant que la structure serait la propriété transcendantale d’un inconscient lui-même réifié, mais en tant qu’elle est sociale et historique. Il est moins intéressant de prédire les manifestations empiriques de cette évolution et de se perdre dans la prospection que de dégager sa tendance profonde. L’effort de rejoindre la structure est un effort de rompre l’engourdissement critique sans justement repasser par l’imaginaire de la maîtrise, de la régulation, de l’usage « éclairé et consentant » et encore moins de la créativité humaine inaliénable, alors que le capitalisme est enfermé — et nous avec — dans une dynamique qui ne connaît qu’une seule direction et le mur au bout.

Des machines dites « intelligentes » sont construites et utilisées, qui sont la matérialisation de la contradiction sociale et qui, tout simplement, nous poussent collectivement vers la sortie en s’appuyant sur notre conviction individuelle de les subvertir par de bons usages ; le robot, qui incarne cette contradiction, est lui-même poussé dans ses retranchements logiques, miroir inversé de notre contradiction. Comment peut-on s’imaginer que l’on sera moins dupe du fait de lui implémenter des « valeurs morales » ou du fait d’en user « pour de bonnes raisons » ? Comment continuer à croire que ce produit est en quelque façon encore sous notre maîtrise alors qu’il est spécialement conçu pour rendre l’humain superflu dans la production et la reproduction de ce monde ? Nous avons besoin d’un acte qui refuse d’être non-dupe dans le mouvement d’être dupe, qui refuse ses conditions dans le mouvement de les rejoindre. Lorsque Lacan martèle qu’il y a du savoir dans le réel, c’est parce que l’inconscient ne constitue pas un alibi d’ignorance. Ce qui compte, à la fin, c’est « ce que nous faisons effectivement » et non pas comment nous légitimons et négocions ce que nous faisons avec des petits bouts de fausse conscience. Plutôt choisir le silence — et avec lui la fin de la psychanalyse comme de la ratiocination critique — que de continuer à refuser d’entrer dans la détermination de l’acte entrevue par Marx et Lacan par deux voies de méthode séparées.

Sandrine Aumercier, mars 2023


[1] Voir Jacques Lacan, Séminaire 1973-1974, Les non-dupes errent, séance du 11 décembre 1973, inédit.

[2] Ibid., séance du 13 novembre 1973.

[3] Karl Marx, Le Capital, Livre 1, Paris, PUF, 1993 [1867], p. 85 et p. 98.

[4] Ibid., séance du 11 décembre 1973.

[5] Jacques Lacan, Télévision, Paris, Seuil, 1974, p. 26.

[6] Voir Jacques Lacan, « La méprise du sujet supposé savoir », dans Autres écrits, Paris, Seuil, 2001 [1967], p. 338 : « Or c’est bien dans la pratique d’abord que le psychanalyste a à s’égaler à la structure qui le détermine, non pas dans sa forme mentale, hélas ! c’est bien là qu’est l’impasse, mais dans sa position de sujet en tant qu’inscrite dans le réel : une telle inscription est ce qui définit proprement l’acte. »

[7] C’est là une thèse défendue par certains analystes, bien qu’elle ne soit pas celle de Lacan.

[8] https://www.liberation.fr/checknews/derniere-version-de-chatgpt-lia-gpt-4-sest-fait-passer-pour-une-personne-malvoyante-pour-duper-un-humain-20230316_BLLXSDS2NRDQLJWZA3FY3QI2VM/

[9] https://www.theguardian.com/technology/2023/mar/15/what-is-gpt-4-and-how-does-it-differ-from-chatgpt

[10]Voir « GPT-4 System card », dans « GPT-4 Technical Report », 16 mars 2023, p. 15. En ligne : https://cdn.openai.com/papers/gpt-4.pdf

[11] Voir https://en.wikipedia.org/wiki/Reverse_Turing_test

[12] Voir https://en.wikipedia.org/wiki/Reverse_Turing_test

[13] Voir https://2captcha.com/fr/

[14] Voir https://knowyourmeme.com/memes/waluigi-effect-artificial-intelligence

[15] Voir le documentaire « L’œuvre et l’intelligence artificielle » sur Arte : https://www.arte.tv/fr/videos/110342-003-A/le-dessous-des-images/

[16] Voir Ted Chiang, « ChatGPT is a blurry JPEG of the web », The New Yorker, 9 février 2023.

Pourquoi la technoscience travaille contre la science

Nous entendons tous les jours parler des progrès scientifiques comme si nous vivions une grande époque scientifique. Pourtant, cette « science » n’est pas de la science mais, au mieux, un scientisme obscurantiste. Il ne s’agit pas de venir affirmer l’interchangeabilité des visions « mythologique » et « scientifique » du monde, ni de faire valoir que d’autres visions du monde comportaient aussi leur « part de vrai » ou valaient autant du point de vue d’un jugement de valeur ; pas non plus de présenter un critère irrationnel qui serait opposable à la débâcle technocapitaliste. Il n’y a tout simplement pas de compas pour effectuer de telles comparaisons. On ne peut pas ici comparer « toutes choses égales par ailleurs » deux ou plusieurs systèmes du monde, on est condamné à étudier le sien et à mesurer tous les autres à son aune, ce qui nous condamne au « capitalocentrisme » ou à l’« occidentalocentrisme » inhérents à la condition de départ. Au demeurant ce n’est pas une condamnation à s’identifier avec cette position, mais seulement à la reconnaître comme point de départ indépassable, comme ce dans quoi nous sommes « situés ». Rien ne permet d’opposer des « épistémologies autochtone » à l’épistémologie scientifique. Celles-ci sont, de longue date, recodées dans les termes d’une « réaction » au « progrès » qui n’a rien d’authentique. Ce sur quoi nous renseignent l’histoire et l’anthropologie, en revanche, c’est sur la diversité des sociétés, incluant l’intérêt technique et scientifique que les hommes ont manifesté de tous les temps, et dont les formes diverses ont pu un jour coexister comme autant de modes différents d’accès au réel. La technoscience, au contraire, exclut ce qui n’est pas elle ou le refoule dans les marges d’une superstition populaire dissociée du destin collectif, comme si elle-même n’était pas fondamentalement une cosmogonie qui nous promet la lune.

Aussi le point de départ n’est pas relativiste : il ne cherche pas à réhabiliter artificiellement d’autres vision du monde mais à mesurer par leur entremise l’abîme de la seule vision du monde que l’on peut connaître, la techno-capitaliste en l’occurrence, et apercevoir par ce moyen le rétrécissement qu’a subi la science moderne (bien qu’elle soit convaincue d’être partie au contraire à la conquête du Tout). N’ayant pas de compas « objectif » pour mesurer ce rétrécissement, on ne peut qu’examiner de façon immanente les présupposés qu’elle impose, ce qu’on peut faire en retournant le critère de la science contre elle-même. Il faut donc une bonne dose de science pour critiquer la science et cette approche n’est pas susceptible de relativisme épistémologique. Nous devons nous appuyer sur le fait qu’il arrive que la recherche scientifique transcende son mouvement immédiat, qui est congruent au mouvement de valorisation du capital. Ainsi, la science, poussée assez loin, c’est-à-dire réfléchissant sur ses propres conditions de possibilités, a quelque chose à nous apprendre sur la fatuité de ses propres buts ; toute science qui ne va pas jusque-là ne fait que confondre sa recherche au scientisme techno-capitaliste qui constitue son moteur historique.

Le mouvement fondamental de la technoscience repose d’une part sur un réductionnisme matérialiste, d’autre part sur un finalisme tautologique, qui n’admet d’autre but que son propre accroissement quantitatif et abstrait de « savoir » ; or ce sont ces deux caractéristiques qui font d’elle une entreprise résolument antiscientifique, si tant est que cet accroissement de savoir ne retourne pas sur ses propres présupposés idéels et matériels. Le programme de la technoscience ne peut être accompli qu’en poussant la division du travail à un point tel que la vision du tout, poursuivie par ailleurs de manière obsessive, doit être confiée à des ordinateurs toujours plus performants et aux ressources de ce qu’on appelle « l’intelligence artificielle » (qui n’a rien d’intelligent au demeurant). L’intelligence artificielle reçoit de la part de son programmateur une tâche définie à accomplir : elle est intrinsèquement instrumentale et finaliste ; mais elle est en outre au service d’un accroissement fondé sur l’addition extérieure de résultats partiels. Ne pouvant embrasser le tout à l’aide d’une théorie unifiée (car elle constitue elle-même le bord de son objet), la science moderne doit additionner des myriades de résultats pour approcher idéalement sa propre raison d’être, localisée quelque part dans le cerveau humain, son ultime limite, située fantasmatiquement au sommet de l’évolution [1]. Le cerveau et le cosmos — implicitement identifiés l’un à l’autre comme si le cosmos nous avait créés à son image — se trouvent aux deux extrémités de cette conquête mégalomane. Mais cet effort est vain, car c’est l’articulation interne des phénomènes entre eux, redevable d’une théorie qui les organise et prend le risque de son propre fondement — c’est-à-dire admet d’être « située » sans pouvoir pour autant se situer dans une objectivité, dépourvue d’échelle de référence ultime — qui se perd dans ce processus. Lorsqu’une articulation interne est établie, elle reste une formulation locale due à des efforts isolés. Ce qui est inaccessible sur le plan ontologique (à savoir constituer un tout à partir d’éléments séparés) cherche donc à se regagner sur le plan de la quantité de données, comme sur une échelle inversée qui serait atteinte par une approximation asymptotique. La quantité vise ainsi le saut qualitatif qui conférerait au savoir le statut d’une totalité que la science est pourtant incapable d’atteindre par ce moyen, puisque la totalité ne peut être qu’une idée régulatrice (Immanuel Kant) et non une addition d’éléments extérieurs. Aussi plus la science se rapproche de son but, plus elle s’en éloigne. La totalité visée, celle qui réaliserait la totalisation des connaissances, dévore tendanciellement le monde vécu en le faisant passer par son tamis numérique. Plus les connaissances partielles s’accumulent, plus s’éloigne la connaissance de leurs rapports internes, c’est-à-dire de ce que la conscience est capable de formuler sur elle-même en prenant le risque d’une théorie, à l’ombre de la division dont procède la constitution de l’objet scientifique moderne. Plus se remplit le « puzzle » de la connaissance, plus l’activité du faiseur de puzzle devient obscure à elle-même et les buts et les conséquences de son activité radicalement hors de portée.

En face de cela, toute considération théorique d’ordre moral ne fait aucun poids. Les individus ne peuvent être que renvoyés à leur vision du monde privée, c’est-à-dire à la cacophonie de leurs préjugés et de leurs valeurs. Les débats philosophiques sont devenus des péroraisons malines mais en réalité tout à fait stériles. Ils sont incapables de fournir ce supplément ontologique auxquels ils font parfois encore semblant de croire pour se perpétuer sur leur propre ruine. Dans le cadre du finalisme tautologique qui forme l’ethos du capitalisme, il est impossible de fournir en théorie un critère stable et consensuel d’interruption du progrès technoscientifique. Même le clonage humain reproductif, qui fait l’objet d’une Déclaration (non contraignante) des Nations Unies depuis 2005, n’est pas exclu à l’horizon. Les délibérations éthiques et politiques ne sont pas là pour poser de telles « limites », si ce n’est de manière ponctuelle et provisoire, sans arrêt transgressée. Elles sont là pour accompagner et justifier le développement du « progrès » technoscientifique dans tous les domaines de l’existence, sans aucune limite de principe. Une telle compulsion n’a plus rien à voir avec une science fondamentale.    

Le terme de science a dans la philosophie classique une signification encore syncrétique qui englobe connaissance, savoir-faire pratique et savoir théorique [2]. Ce n’est qu’au cours du XIXe siècle qu’il se spécialise progressivement dans le sens de « connaissance scientifique » liées à l’émergence d’un ensemble de méthodes de vérification. Le caractère réitérable et vérifiable des résultats constitue progressivement le socle de ce qu’on appelle aujourd’hui la « science ». La quantification et l’introduction de normes de reproductibilité deviennent de leur côté une condition du développement technologique, qui reposait auparavant sur une ingénierie travaillant par approximation. Le bricolage technique est toujours aujourd’hui la partie honteuse — bien qu’indispensable — de l’innovation scientifique. Mais cette approximation exige dans la conception moderne de tendre vers sa propre suppression, soit sa fusion avec la science, et donc l’éviction de toutes les approximations constitutives de l’objet de recherche. Les sciences quantifiables que nous appelons « dures » ou « exactes » deviennent par là le paradigme de la méthode scientifique. C’est en respectant ce réquisit que lesdites « sciences humaines » ou « sciences sociales » peuvent parfois entrer au panthéon de l’épistémologie scientifique, toujours en position inférieure cependant. Il est désormais entendu que la philosophie n’est pas une science, ce qui n’avait rien d’évident auparavant. Hegel est le dernier philosophe qui assume et parachève une conception passée d’un « système de la science » qu’il comprend comme philosophique et non positiviste, c’est-à-dire qui pose à la raison le défi de ses propres fondements. Marx emprunte en partie à ce concept encore philosophique de la science lorsqu’il parle de « matérialisme scientifique » ; son concept de « science » syncrétise le concept encore hégélien d’un savoir logique de la succession des figures de la conscience historique et l’importation d’une conception déjà post-hégélienne et déterministe du progrès historique, qui croit pouvoir déceler des « phases » dont l’enchaînement nécessaire conduirait à une société sans classes. Hegel n’allait pas jusque-là, puisqu’il ne déterminait l’avènement de la liberté que dans la logique du concept. Lui opposer la réalité matérielle n’est d’aucun secours ici, car celle-ci n’est pas moins médiatisée par des catégories historiques que celles-ci ne médiatisent la réalité matérielle. Une certaine « indécision » de Marx quant au concept de la science n’autorisait pourtant pas le déterminisme qui finira par dominer le marxisme traditionnel, importé des sciences de la nature et repris du naturalisme inhérent au mode de production capitaliste. Si Hegel et Marx ont une approche logique du savoir et non purement cumulative, précisons que, pour autant, ni l’un ni l’autre ne négligeait les avancées scientifiques de leur temps. Mais il serait temps de purger le marxisme de toute croyance déterministe dans le Progrès, et de s’interroger exclusivement sur les conditions de possibilité d’une libération sociale qui ne saurait être définie par tel ou tel état de la technique atteint à un moment donné.

Dans ce contexte, l’idée d’un progrès cumulatif est elle-même une idée moderne fondée sur la séparation de la quantifiabilité scientifique (qui seule garantit la vérifiabilité de l’expérimentation) d’avec toutes les autres formes de savoir. Hegel, en même temps que dernier témoin d’une conception passée de la science comprise comme système du savoir, est aussi le théoricien par excellence d’une progression du savoir, non pas au sens d’un savoir totalisant, mais au sens d’une réalisation historique de la liberté de l’esprit. Hegel exige pour la « science » philosophique un critère spéculatif dont son époque consacre l’impossibilité. Il nous aide à comprendre ce basculement historique par le critère d’identité entre la forme et le contenu qu’il veut imposer à la « science » — de façon vaine, comme il appert deux cents ans plus tard. À la croisée d’une époque, Hegel est donc moderne dans sa conception d’un progrès du savoir et prémoderne dans sa conception de la « science ». Hegel veut sauver la chèvre et le chou, le savoir absolu (c’est-à-dire l’élément spéculatif du savoir) et la diversité du monde sensible qui ne peut selon lui être résorbée dans cet élément spéculatif. Il n’avait pas vu que le monde était déjà engagé dans la spirale de leur commune suppression — ou bien, parce qu’il l’avait pressenti, il proposa le système philosophique qui devait le conjurer.

Car il ne peut y avoir « progrès scientifique » au sens moderne qu’au prix d’une telle séparation : séparation de la subjectivité, de la sensibilité, de l’expérience de type non expérimentale, mais aussi de la spéculation philosophique et du vaste domaine des valeurs morales et des questions dernières qui touchent au sens de la vie humaine et à son organisation sociale, ainsi qu’à l’interprétation symbolique de ses contraintes. En d’autres termes, la transmission coutumière de certains savoir-faire non quantifiables constitue un obstacle sur le chemin de la science moderne. Cette science est devenue l’ennemie de la vie quotidienne, et par conséquent, l’ennemie des êtres humains. Elle ne s’intéresse à eux que pour leur soutirer des données quantifiables versées au creuset de sa propre accumulation. Que la technoscience ne fasse rien d’autre que de se vanter des améliorations apportées dans la vie quotidienne, y compris des améliorations apparemment simples et incontestables comme la pasteurisation ou l’eau courante, ne change rien à son mouvement fondamental qui se pose comme étant à soi-même sa propre fin, et à ce titre voué à la destruction de tout ce qui existe. Il n’y a donc pas lieu de s’étonner que le progrès constitué par la généralisation de l’eau courante coexiste parfaitement avec une crise de l’eau sans précédent historique dans divers endroits du monde ; que les progrès réalisés dans les connaissances en immunologie et en bactériologie coexistent avec la multiplication des zoonoses ; que les progrès de l’hygiène coïncident avec une pollution de l’environnement sans précédent et létale ; que les progrès réalisés dans la connaissance de l’atome coexistent avec la prolifération nucléaire (militaire et civile) ; que l’allongement de la durée de la vie et le perfectionnement du confort coïncident avec l’augmentation de la consommation de psychotropes ; ou que l’ouverture des échanges et le progrès des infrastructures de transport s’accompagne de la mise en place des frontières étatiques modernes et du contrôle de plus en plus barbare des mouvements de migration.

Il n’y a bien évidemment pas de rapport causal transitif entre les deux séries, positive et négative, de phénomènes ; l’eau courante au robinet et la crise de l’eau sont par exemple deux phénomènes indépendants l’un de l’autre et n’autorisent pas une mise en corrélation hâtive. Mais ils se produisent indubitablement à l’intérieur du même système mondialisé de rapports de production, et ils ne sont à ce titre pas sans corrélation, quoique de manière indirecte, en tant qu’ils sont les produits d’un même développement. On pourrait certes imaginer un monde post-capitaliste où chacun aurait accès à l’eau courante, et où par ailleurs les nuisances industrielles conduisant à l’épuisement des nappes phréatiques seraient arrêtées. On aime dans le champ de la critique sociale se satisfaire de ce genre de divagation, qui ne veut rien savoir du fait que c’est bien dans le même système d’interactions techniques que sont apparues à la fois les industries aquavores et les systèmes d’assainissement et d’acheminement de l’eau courante dans les foyers. L’imaginaire de découplage entretient le vitalisme de la société capitaliste, qui croit pouvoir satisfaire les « besoins » fondamentaux définis selon sa grille matérialiste indépendamment de la forme des rapports sociaux qui les rendent possibles ou impossibles. Cet imaginaire perpétue le principe scientifique abstrait de l’isolement de certaines qualités du système des interactions où elles s’inscrivent. La même remarque vaut à plus forte raison pour les infrastructures électriques, ainsi que les infrastructures de transport et de communication dont rien n’indique qu’elles pourraient survivre à une fin véritable du rapport social capitaliste, si celle-ci n’était pas remplacée par un système pire encore. Or un besoin social et les moyens de le satisfaire, c’est tout un. La rigueur d’analyse commande donc ici le plus strict agnosticisme — et j’utilise à dessein un terme issu du vocabulaire religieux.

L’idée qu’on pourrait isoler tel ou tel « progrès » du système des interactions où il s’insère est une croyance de type religieux. Elle s’aveugle au rapport systémique qu’entretient toujours une évolution particulière avec l’ensemble de ses conditions. Tout dépend toujours en dernière instance du réglage focal sur la chose examinée. C’est pourquoi la science ne peut pas non plus éviter de s’interroger sur ses instruments et ses définitions, qui déterminent ultimement les rapports de causalité qu’elle établit. L’établissement de rapports entre les objets du savoir est une affaire de définition d’une échelle (qui fait l’objet d’une décision théorique) [3]. Ce réglage détermine la limite à partir de laquelle des phénomènes sans rapport peuvent être mis en rapport. Pour autant qu’elle a en vue le système-monde et l’habitabilité de la planète, une approche scientifique cesse donc de brandir l’hygiène moderne et l’eau courante comme des preuves incontestables de « progrès » absolu. Elle est mise en demeure de prendre ici en considération sa propre histoire d’instauration et pas uniquement de trier dedans ce qui l’intéresse de mettre en avant pour parfaire son auto-légitimation. De la sorte, la science devrait elle-même maintenant exiger des comptes à ceux qui parlent encore de progrès dans les conditions planétaires que nous traversons, qui font état de régressions et de crises structurelles dans une foule de domaines fondamentaux.

Il est vrai qu’on peut aboutir à une conclusion diamétralement opposée : Gilbert Simondon préconisait non seulement la constitution d’un milieu technique adéquat aux objets techniques, mais surtout que l’homme devienne « homogène à la technique » [4]. « Pour que le progrès technique soit auto-régulateur, il faut qu’il soit un progrès d’ensemble, ce qui signifie que chaque domaine d’activité humaine employant des techniques doit être en communication représentative et normative avec tous les autres domaines ; ce progrès sera alors de type organique et fera partie de l’évolution spécifique de l’homme. » [5] Il y avait déjà ici l’idée de faire « progresser » ensemble le détail et le tout, afin de rétablir une correspondance systémique entre les deux, reprise dans l’idée plus récente d´ « écosystème industriel ». Simondon croyait le progrès possible à ce prix, c’est-à-dire qu’il croyait possible de se rendre maître non seulement des domaines séparés du « progrès », mais de fabriquer a posteriori les rapports qu’ils devraient entretenir et dont, par définition, ils n’étaient pas issus, puisqu’ils étaient justement issus de leur isolement du tout. Après avoir atomisé l’idée du tout, il faut la reconstituer sous la forme d’un « milieu adéquat » par addition extérieure d’éléments séparés. Il y a là bien sûr omission de toute la dynamique historique, réduite à une question de maîtrise horizontale de facteurs techniques. Mais qu’est-ce d’autre qu’un délire de remplacement total de l’existant par le système technologique, qui ignore la position seconde de la science dans le monde et refuse donc une fois encore de réfléchir aux conditions de possibilité de la connaissance ? Le cerveau humain est le produit d’une histoire contingente ; il ne détient pas les moyens de supplanter le principe aléatoire de la sélection évolutive dont il provient. Même s’il connaissait l’intégralité des lois de la nature, cela ne lui donnerait aucune disposition sur l’engendrement aléatoire de l’existence, sans compter son ignorance absolue de la direction éthique qu’il devrait imprimer à l’avenir, pour laquelle il existe autant d’opinions que d’individus. Il ne pourrait pas implémenter mieux qu’une téléologie bornée qui se révèle en pratique un goulot d’étranglement. Et d’où tiendrait-il enfin de tels pouvoirs ?

Les êtres humains du passé surent inventer des techniques d’une grande efficacité — soit par exemple la terra preta amazonienne, capable de fertiliser des sols stériles. Ces techniques n’étaient pas d’abord isolées de la vie quotidienne, sorties d’un « laboratoire de recherche », pour lui être ensuite appliquées de l’extérieur au titre d’améliorations apportées par le dieu du Progrès. Elles étaient issues de la vie quotidienne, insérées dans une longue acculturation, en interaction permanente avec le milieu social et naturel et les contraintes locales, et maîtrisées par les intéressés. C’est d’ailleurs cette insertion sociale qui interdit de transposer abstraitement des « savoirs indigènes » dans un corpus moderne, ou d’exercer à partir d’eux une critique de la science reposant sur une opposition superficielle entre les deux — opposition elle-même héritée du paradigme colonial. Il n’y a pas ici des « savoirs indigènes » et là des « savoirs modernes » qui mériteraient d’être mis en comparaison dans le but de réhabiliter les premiers, car cette comparaison elle-même est un produit de la modernisation. Il faut plutôt montrer pourquoi la science moderne, dans son mouvement de totalisation, exclut tout autre rapport au savoir et en quoi donc elle est l’ennemie de la vie humaine. Il est dans son essence que la comparaison se fasse toujours à son avantage, ou que, lorsqu’elle reconnaît la « valeur » d’une technique oubliée, ce soit pour la transplanter, la recoder dans son propre paradigme, sans considération de la réalité sociale où elle avait pris forme. Au besoin, comme le propose Simondon, on fabriquera après-coup le milieu qui convient… L’idéalisation de formes passés ne nous est donc ici d’aucun secours ; ces formes peuvent en revanche nous renseigner sur l’éventail des formes de vie sociales que la technoscience détruit aussi irréversiblement que la biodiversité.

La science, si elle voulait être à la hauteur de son objet, aurait donc ici une tâche infinie, voire impossible, car jamais le rapport social exhumé du passé à partir de traces anthropiques ne rendra tous ses secrets ; il laisse simplement entrevoir d’autres possibles, parmi lesquelles la possibilité d’un tout autre rapport à la technique et au savoir, qui ne serait pas séparé des expériences sociales et symboliques où il s’enracine. Il ne nous enseigne rien d’autre que le sens de la variabilité évolutive et historique. De même, la psychanalyse propose un autre rapport au savoir inconscient, qui ne serait pas séparé du récit que fait le sujet de sa propre histoire, au contraire de la psychologie scientifique occupée à la quantification statistique des réactions individuelles ou collectives, à la codification des comportements ou à la modification chimique du cerveau. La psychanalyse prend en charge le reste de cette opération, par quoi elle peut contribuer à une théorie critique de la science.

La difficulté commence là où il s´’agirait de dire ce que serait la science si elle n’était pas ce qu’elle est devenue. Pendant des millénaires, les humains ont conjointement spéculé sur le sens de la vie, sur le bien et le mal, sur l’âme, sur Dieu et sur les propriétés matérielles de la nature. Aristote était « polymathe », c’est-à-dire logicien, politologue, moraliste et naturaliste à la fois. Une telle science était nécessairement d’une lenteur confinant à la stagnation, puisque l’intégration spéculative de toutes ces dimensions assumait à la fois le caractère subjectif et infini de la tâche. Il était exigible, pour que la science mérite le nom de science, qu’elle s’intéressât à ses propres conditions de possibilité, qui avaient pour nom recherche des principes et qui incluaient nécessairement aussi des états subjectifs — par exemple la contemplation ou l’examen classique des passions ou les conditions de possibilité de la connaissance, etc. Ces états subjectifs sont entretemps devenus une tare pour la science. Il est déconseillé au physicien de réfléchir sur ses penchants et ses présupposés fondamentaux dans le cadre de son activité scientifique. Il risquerait en effet d’y passer le reste de sa vie et de délaisser l’objet de sa recherche, dont l’avancement va se trouver insupportablement ralenti ! Ces dimensions sont reléguées aux philosophes et aux psychanalystes, pendant que la science chante pour elle-même le triomphe de l’objectivité. Mais elle n’interdit à personne, il est vrai, de pratiquer la méditation dans son temps libre…

La technoscience peut être dite la forme que prend la science, déterminée par l’essor des techniques à partir de la révolution industrielle [6]. Le terme de technoscience ne sera pas employé ici dans le sens d’un enchevêtrement postmoderne entre sémiotique et matérialité [7]. Au contraire, la technoscience — dans son mouvement autotélique — expulse le monde symbolique dans un domaine à part, qu’elle confie aux artistes, aux philosophes et aux spécialistes de l’éthique, moyennant le renforcement de la séparation entre sujet et objet. L’éthique, objectivée à son tour, se fait alors une branche parmi d’autres de la recherche, supplément d’âme pris en charge par des philosophes aux abois reconnus pour cette fonction sociale. L’éthique est sommée de fournir à la technoscience des critères de légitimation qui sont dissociés de la reproduction quotidienne de la vie. Elle vient de l’extérieur mettre de l’huile dans les rouages du mouvement de la technoscience sans l’infléchir notablement, ni mettre en question son modèle de civilisation. Toute extérieure qu’elle se présente depuis la division du travail qui est son terreau, elle est en fait un élément immanent de son mouvement totalisateur (au sens du mauvais infini hégélien). Défini comme un « espace important de conscientisation morale du sujet, largement inconscient et structurellement conflictuel de la technoscience [8] », le comité d’éthique se présente alors comme une greffe de cerveau sur un corps sans tête. Le postulat de Gilbert Hottois selon lequel le phénomène technoscientifique produit une « auto-transcendance opératoire et progressive de fractions de l’espèce humaine [9] » suppose en effet d’adhérer à un immanentisme technoscientifique qui, lui, ne sera pas questionné par cet auteur.

Le geste par lequel Gilbert Hottois, pour définir la technoscience, propose d’internaliser la technique dans la science et inversement, à l’intérieur du paradigme de la philosophie du langage qu’il critique [10] a ainsi une visée bien précise, qui est de ménager cet espace de réappropriation éthique. Il s’agit pour lui, sans retomber dans le réalisme ontologique, de retirer au constructivisme social les délices du relativisme, où la « science » ne peut plus être distinguée de toute autre production symbolique, ce qui sape la légitimité d’une réflexion critique. L’alliance de la science et de la technique éviterait selon lui le double écueil du purisme scientifique et d’une technologie sans vision longue ; de plus cette alliance rendrait compte de la réalité empirique de ce qu’on appelle « recherche et développement » (R&D) : une science nécessitant d’énormes moyens techniques et une technique qui ne peut se passer de recherche fondamentale. Ainsi, la technoscience est un fait accompli et l’auteur finit bien par passer aux aveux : il nourrit une vision cosmique de la technoscience, une eschatologie d’essaimage extraterrestre et une perspective d’amélioration humaine. Ses analyses y convergent : il faut, pour cet accomplissement, sauver une « responsabilité éthique ». Plutôt que de s’enfermer dans une circularité idéaliste ou dans un interventionnisme pratique et borné, la querelle du réalisme doit selon lui réfléchir aux conséquences lointaines de la technoscience. La naïveté — peut-être intéressée — de cette position en dit long sur le désespoir de notre situation, qui ne sait décidément plus que miser sur les capacités de conscientisation de ce qui est déjà accepté par principe, ultime absolution d’un devenir inexorable.

Or il n’y a pas moyen d’importer un critère éthique du cerveau des philosophes vers celui des techniciens. Le cerveau des premiers est tout aussi borné que celui des seconds et les uns ne sont pas moins que les autres prisonniers de la forme sociale. Nous devons bien plutôt montrer pourquoi la technoscience est tout sauf scientifique et comment elle trahit ses propres critères scientifiques, à l’aune desquels elle ne cesse pourtant de se légitimer. Prenons l’exemple de la biofabrication, définie lors du lancement de la revue du même nom comme le « paradigme de fabrication dominant au XXIe siècle [11] ». En quoi consiste la biofabrication selon ses promoteurs ? « Au sens restreint, la biofabrication peut être définie comme la production de produits biologiques complexes à l’aide de cellules vivantes, de molécules, de matrices extracellulaires et de biomatériaux technologiques. [12] » La reconfiguration du monde matériel s’appuie sur son atomisation en briques élémentaires vivantes et non vivantes à partir desquelles sera possible une synthèse biologique, telle que biocarburant, viande de laboratoire ou impression 3D de tissus humains. La standardisation de l’approche modulaire, l’abstraction basée sur la modélisation mathématique et le découplage des procédures consistant à « diviser un problème compliqué en plusieurs problèmes plus simples sur lesquels on peut travailler indépendamment, de telle sorte que le travail qui en résulte puisse éventuellement être combiné pour produire un ensemble fonctionnel » en sont selon les auteurs les principes fondamentaux.

Les auteurs affirment par ailleurs que « l’hypothèse selon laquelle une seule personne peut, d’une manière ou d’une autre, comprendre aussi bien et mettre en œuvre efficacement tous les aspects de la technologie de biofabrication est plutôt naïve. Ainsi, la création d’une équipe multidisciplinaire bien gérée et même d’un centre de recherche multidisciplinaire n’est pas un vœu pieux, c’est une nécessité, voire une condition préalable, pour des progrès et des avancées technologiques durables. » [13]

Ce dont nous informe cet article programmatique, c’est de la vision du monde qui sous-tend l’ingénierie des biotechnologies, elles-mêmes incluses dans l’ensemble plus grand des « technologie de convergence » : la totalité du monde est devenu le champ de recherche et d’intervention potentiel des nouvelles technologies et le vivant n’y fait aucune exception. Mais surtout, elles supposent une vision entièrement atomisée du monde matériel et du travail des chercheurs, l’ingénierie se donnant pour tâche d’en réaliser une nouvelle synthèse postérieure. Mais pourquoi une telle entreprise ? Les auteurs de l’article cité ne font pas mystère des possibilités de profit qu’ils entrevoient dans ce champ potentiellement illimité.

Mais encore ? Le présupposé sous-jacent est celui d’une synthèse artificielle capable non seulement de s’égaler au vivant, mais aussi de le remplacer par des créations considérées comme plus « performantes ». Les buts sont aussi aveugles et atomisés que ses propres matériaux et ses propres travailleurs : étroite amélioration de telle ou telle qualité d’abord séparée du tout et justifiée après-coup par le finalisme de l’optimisation elle-même. Cette dernière n’a pas d’autre fondement que la logique autoréférentielle de la valorisation capitaliste qui est sa métaphysique à ciel ouvert, si ouvert qu’elle ne le voit pas !

C’est pourquoi on peut dire que cette entreprise n’a rien de scientifique : elle légitime par une addition de savoirs partiels et quantifiés sa propre opérativité. Il ne s’agit pas de viser ici, comme n’ont de cesse de le faire les critiques de gauche, l’inféodation de la recherche à des intérêts privés peu scrupuleux (qu’il suffirait donc de réorienter entre les mains des bonnes personnes pour sortir de l’impasse : c’est là l’agenda caché de toute cette gauche technoprogressiste). On vise bien plutôt la profonde et irrémédiable impasse dont s’alimente cette recherche, ce pourquoi elle n’aurait aucune chance d’être moins une imposture si elle était supervisée par une quelconque planification communiste ou par un comité éthique constitué de gens très sages. Aucune forme politique ne changerait rien à son caractère scientiste et accepter d’entrer dans ses débats, même pour y fixer des prétendues « limites », c’est déjà y consentir. Il s’agit du statut accordé à la technoscience dans la forme sociale capitaliste, statut non seulement exorbitant — lié à la nécessité d’innover en permanence pour maintenir la rentabilité économique dans le contexte de la concurrence et de la diminution de la masse globale de valeur — mais également anti-scientifique. Le capitalisme sape lui-même la science à laquelle il doit pourtant son développement technique.

Si on admet que la science fondamentale étudie ses objets particuliers, mais aussi leurs conditions et ses propres conditions, alors toute science qui ne va pas jusque-là n’a rien de fondamental et constitue au mieux un préjugé satisfait de sa vision bornée, au pire un tremplin utilitariste de l’expansion techno-capitaliste. Une science qui inclut dans son objet l’étude de ses conditions — y compris subjectives — est nécessairement portée à se dépasser en direction d’une théorie spéculative (ainsi nommée par Hegel). Pour mériter le nom de théorie spéculative, cette théorie doit encore se confronter à d’autres du même genre qu’elle, notamment celles dont les résultats sont différents. Une telle recherche ne peut consentir à des résultats immédiatement applicables, parce qu’elle sait — ceci fait partie de son concept — l’unilatéralité de ses résultats. Elle sait que le monde ne ressemble pas à ses déductions et que ses résultats sont des parties d’un tout incommensurable. Il ne saurait être question d’absolutiser un élément particulier de ce tout mais il ne saurait être question non plus de se suffire des limites arbitraires de son objet. Elle ne procède pas par juxtaposition et addition de résultats séparés, mais s’intéresse à leur articulation interne qui la conduit à considérer l’idée du tout. Il y a toujours une idée du tout derrière une recherche de détail. Il s’agit de se demander laquelle.

Une démarche scientifique conforme à son concept n’a donc pas assez d’une vie humaine pour venir à bout de sa question et n’a pas assez de millénaires et même de centaines de milliers d’années pour approfondir un tout petit peu les mystères de l’univers. Autrement dit : la science fondamentale se déploie sur un temps infini et « libre de contrainte » qui n’aurait rien à voir avec la « grande accélération » technoscientifique. Elle ne serait pas pressée, parce que la complexité et l’opacité de son objet lui imposent un rythme qui ne peut être enjambé. Gilbert Hottois insiste sur cette appréhension temporelle, et la fonde sur les découvertes technoscientifiques de la biologie, de la géologie, de l’astrophysique qui nous renseignent sur le temps long de la formation du monde, mais il ne dit pas pourquoi la technoscience est en réalité, en quelques décennies, en train de dévorer toutes les ressources nécessaires à la poursuite d’une science fondamentale, qui sera probablement bientôt privée de tout moyen énergétique et dont les résultats atteints pourront alors régner éternellement sur leur propre désert. Hottois pense, comme beaucoup d’autres, que la science finira par trouver dans l’espace les moyens énergétiques de se poursuivre, en quoi il lui attribue une puissance d’expansion irrépressible de nature animiste.

La technoscience se caractérise par l’impératif de mettre immédiatement en application ses découvertes pour des raisons de rentabilité économique qui sont extérieures à la question du savoir. Dans sa fuite en avant, elle scotomise tout ce qui fait l’épaisseur symbolique de la vie humaine, désormais suspendue à d’improbables découvertes futures, en même temps qu’elle creuse sa tombe sous ses pieds. La partie de la technoscience qui s’occupe de science fondamentale spécule sur le devenir historique et la nature de l’évolution humaine, terrestre et cosmique, mais elle le fait à la manière de la technoscience, c’est-à-dire comme un impératif technique totalisant un maximum de données particulières. Comment peut-on ne pas trouver fascinante cette recherche ? Elle l’est, car elle semble nous promettre une réponse sur nos origines. Mais malgré les espoirs fous qu’elle suscite, il est fort à prévoir que sa méthode ne la conduise nulle part ailleurs que vers son propre néant, son cœur vide, c’est-à-dire une absence de réponse sur les origines de l’univers et son fonctionnement ultime. Cette absence de réponse, qui augmente paradoxalement à chaque nouvelle découverte scientifique tout en détruisant les ressources existantes à des échelles toujours plus larges (qu’on songe aux ressources nécessaires pour construire le CERN de Genève ou la station spatiale internationale par exemple), augmente en même temps le seuil d’intolérance à la condition humaine. L’être humain devient l’ennemi de sa propre vie, dans un monde qui lui a offert pourtant pendant des millénaires une grande variété de formes d’existences possibles. La technoscience est un nihilisme habillé en eschatologie posthumaniste, qui nous promet pourtant la réconciliation ultime (notamment sous la forme d’une interface cerveau-machine) avec le monde qu’elle a elle-même morcelé.

La technoscience « surmonte » ainsi de manière interventionniste les oppositions que le dualisme classique avait mises en place en faisant coexister — souvent de manière apparemment étanche — des « côtés » séparés de la totalité. Le déconstructivisme reflète le devenir technoscientifique de la production des savoirs, au même titre que la philosophie de Kant et Hegel reflétait le problème du dualisme sujet-objet tel qu’il se posait au tournant du XIXe siècle. Hegel prétendait le surmonter sous la forme rigoureuse du système de son exposition. Le dualisme instauré dans les sciences depuis le XVIIIe siècle, déjà formulé par Descartes auparavant, ne pouvait pas aboutir à un autre « traitement de la contradiction » (Robert Kurz) que celui-ci, clôturant la philosophie classique dans un « système de la science » élevé à la hauteur de ses apories par la critique kantienne et la dialectique spéculative de Hegel.

Mais l’histoire récente témoigne de leur échec à fournir une critique de la connaissance qui n’aboutirait pas à ce que nous appelons aujourd’hui technoscience. L’utilitarisme avait déjà gagné la partie, cependant que se poursuivait parallèlement une tradition phénoménologique tout occupée à décrire les opérations du sujet de la connaissance, jusqu’à son aboutissement dans le relativisme postmoderne. Ce dernier laisse en retour le champ libre à la technique désormais privée d’un contrepoids critique autre que moraliste. La « critique » sera désormais la dénonciation de tout ce qui va mal et de moins en moins l’étude des conditions de possibilité de la connaissance et de ses objets — étude qui devrait être partie intégrante de la recherche elle-même — qui était à l’âge classique la réponse objectée par les philosophes à la naturalisation scientifique du monde. Comment critiquer — au sens d’une théorie de la connaissance et non au sens d’un ressentiment — la violence de la technique si les concepts dont nous usons pour la critiquer ne sont que les reflets de préjugés qui doivent être « déconstruits » ? À quel fait accompli consentons-nous secrètement si toute rationalité est invalidée ?  

L’intention critique de Kant et Hegel passait manifestement à côté de ses propres conditions historiques et de ce qui sera peu après déchiffré par Marx avec les catégories du capitalisme et par Freud avec l’hypothèse de l’inconscient. Loin que la solution technoscientifique — reflétée, comme sa théorisation adéquate, dans les diverses formulations déconstructivistes, et ce jusqu’à la théorie de l’acteur-réseau — surmonte un fâcheux dualisme entre science et technique, ou entre savoir et matière, elle ne fait que suivre le cours historique de la production industrielle du monde : il lui faut maintenant réunir sous la figure immédiate de l’hybride ce qu’elle a d’abord morcelé et fonctionnalisé pour se mettre en place. Aussi, pendant que les déconstructivistes sont occupés à ramener toute réalité aux conditions du discours, la technoscience s’occupe de ramener tous les discours à leurs conditions de faisabilité, ce qui ne fait que constituer les deux faces d’une même vision du monde réunie dans le paradigme cybernétique. Hegel avait voulu décrire la « patience du concept », son engendrement laborieux rapportable aux formes historiques de la conscience : le savoir se réduit désormais à la confusion immédiate des pôles du dualisme classique. Du système hégélien on n’aura gardé que le systématisme mécanique et on aura liquidé l’exposition logique du devenir du savoir. La contradiction est levée par déclaration : il suffit de dire que tout est réseau et nous en sommes quittes. Tant mieux si cela colle comme un gant à l’émergence des nouveaux réseaux de communication dans le capitalisme tardif. En réalité, aucun des deux « traitements » postmodernes du dualisme — déconstructivisme discursif d’une part, déconstructivisme matérialiste de l’autre — ne surmonte l’ontologie dualiste, ils ne font que porter à son terme son aporie constitutive, comme deux miroirs inversés posés sur le côté matériel du discours et sur le côté discursif du matériel, au cœur de la contradiction irrésolue. C’est pourquoi il est si facile de passer de l’un à l’autre ou de les fondre ensemble dans une seule et même théorie de l’artefact (artefact discursif ou artefact technologique). La figure de l’artefact n’assume rien des problèmes que pose cette ontologie et que, du moins, Kant et Hegel avaient exposé, de manière différente, dans leur pureté : il ne pouvait pas y avoir de science sans retour sur ses conditions de possibilités. Au contraire, l’artefact se comporte en digne acteur de la performativité postmoderne, comme s’il suffisait de dire qu’un problème est levé pour qu’il le soit, faisant l’impasse sur son histoire d’instauration. Sa théorie implicite, elle, ne doit pas être « déconstruite » sous peine de se confronter à une totalité embarrassante.

La technoscience est donc, dans son essence, antiscientifique. Mais si elle était aussi scientifique qu’elle le prétend, elle écouterait ceux des scientifiques qui savent interroger ses ultimes présupposés et se tirer le tapis sous les pieds. Loin que l’évolution constitue une sorte de voie royale dont homo sapiens serait la cerise sur le gâteau, la science montre en réalité la contingence de toutes les émergences évolutives. Le véritable « progrès » que peut fournir la science, si elle veut bien se mettre à la hauteur de ses responsabilités, est précisément la détermination toujours plus fine de cette contingence, indissociable de la détermination des catégories historiques par lesquelles elle appréhende son monde. Si la science fondamentale a encore une tâche à accomplir, alors ce ne peut être que de travailler à nous rendre plus intelligible et plus belle la fragilité et le caractère « miraculeux » des innombrables hasards qui font que nous sommes là. Comme le dit l’astrophysicien Jean-Pierre Bibring dans son dernier livre, dont on ne saurait trop recommander la lecture : « À ˝l’hypothèse Gaia˝ faisant de la Terre un vaste ensemble autorégulé ayant favorisé l’émergence et la maintenance de la vie, nous opposons l’importance décisive des apports contingents, sans dessein ni objectif. Une séquence d’événements a progressivement orienté une évolution chimique particulière des phases organiques, appuyée sur un ensemble de composés moléculaires et mettant en route une machinerie ˝complexe˝ et très spécifique : elle-même caractérisée par une sélection, liée au contexte, des formes qui y soient les mieux adaptées. Elle favorise l’une d’entre elles, dont la traduction au niveau des fonctions offre un avantage, assurant le maintien dans le temps, voire la domination ; traduite en sélection ˝naturelle˝ ! Son pilier, l’adaptation à un contexte évolutif, suppose l’existence d’une variété suffisamment large de possibilités, offerte par les erreurs inhérentes au processus de réplication. Il s’agit bien d’une adaptation au contexte, non à des ˝lois˝ d’évolution, comme celle qui serait d’assurer une complexification croissante. » [14] Le but de l’auteur est de démontrer, à l’aide des plus récentes découvertes de l’exobiologie et de l’astrophysique, que la formation terrestre et l’apparition de la vie telles que nous les connaissons sont des produits absolument contingents d’une évolution unique et n’ont rien à voir avec une prétendue complexifixation qui serait inhérente à la matière, comme si la matière contenait en elle-même une « direction de développement ». Il faut pour cela, dit Bibring, combiner les lois déterministes de la physique à la théorie du chaos proposée par Henri Poincaré au début du XXe siècle. Une foule de paramètres qui paraissent rétrospectivement « conduire jusqu’à nous » se sont mis en place dans des conditions non répétables. Vouloir les produire et les maîtriser dans une intégration cybernétique est ainsi une aberration scientifique, qui cherche à fossiliser un telos particulier dans un devenir macroscopique qui lui échappe complètement. C’est tout à fait par les hasards de la formation primitive des planètes que la lune, par exemple, stabilise l’obliquité de la terre, élément essentiel au maintien de sa température moyenne, laquelle est fondamentale pour le développement de la vie [15]. Ces hasards n’ont aucune chance de se produire identiquement quelque part ailleurs dans l’univers. Ceci devrait représenter une raison supplémentaire de s’émerveiller de notre histoire et de prendre soin d’une existence aussi improbables.

Le paléontologue Stephen Jay Gould avertit aussi de l’erreur qui consiste à concevoir ce qui est advenu comme l’effet d’un mouvement orienté dans une certaine direction, alors qu’un épisode évolutif résulte selon lui du rétrécissement ou de l’augmentation contingente des variations au sein d’un système, ce pour quoi il propose de substituer l’image du buisson à celle de l’échelle. Ces variations exercent localement des contraintes aléatoires. Aussi rien ne prédispose la vie à s’inscrire dans un « progrès » ; elle prend simplement les formes qui lui sont permises au sein d’un système de variations en constante modification. « Dans le monde platonicien, la variation est accidentelle, tandis que les essences traduisent une réalité supérieure ; dans l’inversion darwinienne, la variation devient la réalité vraie (et totalement matérielle), tandis que les moyennes (nos meilleures « approximations » des essences platoniciennes) deviennent des abstractions mentales. » [16] Jay Gould rappelle aussi que Darwin n’avait pas souhaité utiliser le terme d’évolution et n’y a consenti qu’après que Herbert Spencer l’eut introduit dans la langue courante avec l’idée d’un progrès, qui était étrangère au projet de Darwin. « Rembobinez le film de la vie jusqu’à l’apparition des animaux multicellulaires, lors de l’explosion du Cambrien, puis repassez le film à partir de ce même point de départ, et l’évolution repeuplera la Terre… de créatures radicalement différentes. La probabilité pour que ce scénario fasse apparaître une créature ressemblant, même de loin, à un être humain, est effectivement nulle, et celle de voir émerger un être doté d’une conscience, extrêmement faible. » [17]

Mais tout se passe comme si le « progrès » humain, lui seul, devait échapper à ces verdicts scientifiques et continuer d’alimenter des espoirs insensés. Même Jay Gould, si implacable dans sa critique de l’illusion évolutionniste, est moins assuré quand il traite du progrès cumulatif de la science. Il semble que le scientifique ne puisse pas aller jusqu’à faire trembler les bases de sa propre discipline. Il doit en quelque manière, comme les artistes, les philosophes ou les psychanalystes, sauver sa peau de la déconfiture générale et considérer qu’il participe tout de même à l’amélioration de quelque chose. C’est pourtant cette idée même qui mérite d’être mise en question. Une amélioration générale est une chose qui n’existe pas. Une amélioration locale est une chose indécidable, dont la démonstration, si elle existait, devrait reposer sur l’existence d’un critère général qui n’existe pas non plus. Il n’existe ni progrès absolu ni critère objectif susceptible de le mesurer, sauf à croire en Dieu.

La seule chose qui devrait mériter qu’on se batte pour elle est l’établissement des conditions dans lesquelles une société peut faire société, c’est-à-dire dans lesquelles une société peut déterminer ses priorités et ses moyens, et s’il le faut, sa métaphysique (au sens local). L’établissement de cette liberté ne doit en aucun cas être compris au sens emphatique et idéaliste du règne d’un paradis sur terre. Beaucoup plus modestement, il s’agit de libérer les conditions de possibilités du lien social, qui ne seront par ailleurs jamais exemptes de contradiction. Ces contradictions requièrent à chaque fois un traitement symbolique particulier, et c’est ce qui est rendu impossible dans les conditions du capitalisme. Ce n’est donc pas le maintien de l’eau courante ou du réseau électrique qui devraient faire l’objet de nos combats, ni la liberté abstraite de « faire ce que je veux » ou la défense de mes « besoins » incompressibles, mais l’établissement d’un lien social qui règle sa liberté sur les contraintes objectives prises dans leur ensemble (comme sait aussi le montrer une science qui retourne à ses conditions), en sachant les ajuster à la même échelle. Toute divergence entre les contraintes sociales et les contraintes matérielles conduit de fait à la destruction de la reproduction matérielle-symbolique. Si je veux de l’eau, du bois, du blé ou du papier, je n’ai aucun droit naturel à en imposer la production à un autre que moi-même. Si je ne peux satisfaire une telle tâche par mes propres moyens individuels (ce qui découle de ma condition fondamentalement sociale), alors je ne peux que m’associer à d’autres pour y parvenir, ce pour quoi la nature du lien social ou la forme politique est la modalité primaire de la survie (et non l’accès immédiat à l’eau ou au bois, contrairement à l’évidence). Une société dont les individus ne sont pas associés pour en produire, en comprendre et en maîtriser les techniques ne sera jamais une société libre, au sens désinflationniste du mot « libre ». La spécificité de l’humain n’est pas ses aptitudes techniques, mais ses aptitudes sociales et symboliques, qui sont radicalement imprescriptibles : leurs conditions doivent être libérées, pas leur contenu. Toute réduction du « progrès » aux aptitudes et prouesses techniques produit une éviction du rapport symbolique sur lequel s’opère une synthèse sociale déterminée.   

Défaire la fausse évidence matérialiste à laquelle nous ont habitué deux siècles au moins de technoscience devra endurer et défier le terrorisme de la modernisation, qui traite de « réactionnaire » tout ce qui est trop scientifique pour elle, c’est-à-dire tout ce qui pousse la recherche au-delà du périmètre étroit des résultats applicables et des progrès partiels — célébrés comme des conquêtes absolues dans un processus d´autolégitimation permanent. Car même si nous apprécions l’eau au robinet, elle n’est en aucun cas un critère de progrès absolu, dès lors qu’on reconnaît — par le détour d’une autoréflexion scientifique — qu’un tel critère absolu n’existe pas sauf à réhabiliter un finalisme religieux. Un détracteur aurait beau jeu ici de nous accuser de défendre la fin de l’eau courante et le « retour à la nature » : non point, car c’est l’examen sans compromis des conditions de tout lien social possible qui est défendu ici. L’humain, cet « animal politique », ne peut survivre hors d’un lien social médiatisé par la nécessité matérielle, ou inversement d’une nécessité matérielle médiatisée par la forme de l’organisation collective. Cette synthèse sociale — cette double médiation — ne peut être octroyée a priori, elle est toujours en devenir et ne peut être portée que par les intéressés eux-mêmes. Le découplage du matériel et du symbolique propre au mode de production capitaliste n’est rien d’autre au contraire qu’une promesse d’apocalypse.  

Sandrine Aumercier, janvier 2023


[1] Voir la critique pertinente de Jean-Pierre Bibring dans Seuls dans l’univers, Paris, Odile Jacob, 2022.

[2] Voir Alain Rey (sous la dir.), « science », Dictionnaire historique de la langue française, Paris, France Loisirs, 1994, p. 1895.

[3] Voir notamment René Rezsohazy et al., « On n’est jamais seul dans la vie », dans Muriel Gargaud et al. (sous la dir.), L’évolution, de l’univers aux sociétés, Paris, Matériologiques, 2017 ; Guillaume Lecointre et al., « Catégories et classification face au changement », dans Muriel Gargaud et al. (sous la dir.), L’évolution, de l’univers aux sociétés, Ibid. ; Rainer Gruber, « Sohn-Rethel und die Häutungen der modernen Physik », dans Recherches germaniques, HS, n°15, 2020.

[4] Gilbert Simondon, « Les limites du progrès humain », dans Sur la technique, Paris, PUF, 2014, p. 275.

[5] Ibid., p. 277.

[6] Voir Jean-Marc Lévy-Leblond, Impasciences, Paris, Seuil, 2003 : « L’efficacité pratique lentement et péniblement acquise de la connaissance scientifique (ce n’est pas avant la seconde moitié du XIXe siècle que la science féconde en retour la technique dont elle est issue) s’est accrue au point que l’essence de la technique a reflué sur la science : le faire reprend la main sur le savoir. Et le court-circuit désormais organisé entre connaissance fondamentale et sa mise en œuvre ne permet plus à la première de se développer suffisamment pour assurer la maîtrise de la seconde : la confusion entre recherche et développement finit par obérer l’une et l’autre. C’est là le sens profond qu’il faut donner à l’expression ˝technoscience˝. »

[7] https://www.cairn.info/revue-recherche-en-soins-infirmiers-2006-3-page-24.htm

[8] Ibid.

[9] Ibid.

[10] Voir Gilbert Hottois, Philosophie des sciences, philosophie des techniques, Paris, Odile Jacob, 2004.

[11] Mironov et al., « Biofabrication: A 21st century paradigm », dans Biofabrication, 1, 2009.

[12] Ibid.

[13] Ibid.

[14] Jean-Pierre Bibring dans Seuls dans l´univers, op. cit., p. 207.

[15] Voir sur ce point les travaux de l’astronome Jacques Laskar, mentionnés par Jean-Pierre Bibring.

[16] Stephen Jay Gould, L’éventail du vivant. Le mythe du progrès, Paris, Seuil, 1997, p. 59.

[17] Ibid., p. 264.

iBorderCtrl et FOLDOUT en l’an de grâce 2022

Je publiais le premier décembre 2018 sur le site iatranshumanisme.com un article qui sera actualisé ici, sur la mise à l’essai du dispositif appelé iBorderCtrl. Ce dispositif a, semble-t-il, changé de nom entre temps, ni vu ni connu : il est mentionné actuellement sous le nom de iCROSS. Mais il sera encore décrit sous son premier nom ci-après, parce que c’est celui sous lequel il a reçu des critiques à l’époque, qui sont encore consultables dans la presse en ligne. J’ai fait retirer mon article (ainsi que tous les autres) du site iatranshumanisme.com en raison de l’évolution conspirationniste et lepéniste de ce site durant la pandémie. Il fait partie de l’analyse du capitalisme de crise et de la critique de ses instruments répressifs de devoir aussi expliquer la prise en charge croissante du thème de la « dictature technologique » par l’extrême-droite et les discours conspirationnistes. Manifestement, la gauche a largement failli à en proposer une critique adéquate [1].


L’évolution de ladite Forteresse Europe durant les deux dernières décennies illustre la logique d´ « inclusion excluante » (Robert Kurz) qui transforme peu à peu des îlots de richesse (relative) en forteresses imprenables pour les milliards d’êtres humains situés à l’extérieur des centres capitalistes, surnuméraires du processus de décomposition global. Au moment où le directeur de Frontex démissionne sous le coup des accusations de pushbacks illégaux aux frontières, il n’est que trop tentant de lui faire porter le chapeau d’un système dont il n’est que le dessus du panier. De même le généreux accueil des réfugiés ukrainiens ne devrait pas faire oublier le sort inhumain de milliers d’autres, notamment sur la frontière entre Biélorussie et Pologne. La condamnation formelle par l´UE des refoulements de population sur les frontières polonaise, lettonienne et lituaniennes dissimule mal le fait que les mêmes pratiques ont lieu partout ailleurs aux frontières européennes. Mais l´UE s’est dotée d’un système de refoulement des réfugiés politiquement et juridiquement inattaquable, d’une part en externalisant le traitement des demandes d’asiles hors de son territoire [2] et d’autre part en développant actuellement aux frontières des dispositifs de surveillance qui représentent la quintessence de la technologie de pointe, de la société totalitaire et de la paranoïa sécuritaire.

Commençons par rappeler les informations disponibles sur le dispositif iBorderCtrl. La Commission Européenne a mis au point depuis 2016 une technologie dîte de « contrôle intelligent » qui a été testée pendant neuf mois de janvier à août 2019 sur trois frontières de l’Union Européenne (Grèce, Hongrie, Lettonie) sur la base du volontariat. Ce dispositif était financé par le programme européen de recherche et d’innovation Horizon 2020 (qui a été remplacé ensuite par le programme Horizon Europe) à hauteur de 4,5 Millions d’euros. Aucune loi nationale ou européenne n’autorisant un tel dispositif, les volontaires devaient signer un consentement éclairé. Le projet, « conscient des dimensions éthiques et légales » se targuait dès cette époque de travailler en « étroite proximité avec un conseiller en éthique » [3].

Comme l’expliquait à l’époque le site dédié de la Commission Européenne, la procédure se fait en deux étapes. Le voyageur — dûment informé de ses droits et découragé d’entreprendre des activités illégales — devait remplir d’abord un formulaire en ligne et télécharger ses documents officiels (passeport, visa, preuves de fonds) avant de répondre devant une webcam à des questions personnalisées. Ses réponses allaient être analysées par un système « détecteur de mensonges » qui vérifierait si elles sont en adéquation avec les expressions du visage à l’aide de 38 micromouvements indétectables par un être humain. A partir de ces résultats, le voyageur serait dirigé soit vers une file à « bas risque », soit vers une file à « haut risque » [4].

Les critiques de iBorderCtrl lui reprochèrent principalement son taux d’erreur (le système ne détecterait que 76% des menteurs) ainsi que le risque de répandre des technologies de reconnaissance faciale à caractère racial [5]. De tels arguments semblaient sous-entendre qu’un détecteur de mensonges 100 % fiable et garanti non raciste serait légitime. Par ailleurs, ces objections étaient en voie de résolution, puisque le projet prétendait devoir être encore amélioré afin d’atteindre une meilleure fiabilité, et qu’il n’était pas supposé être destiné à la prise de décision mais seulement à être un « indicateur de risque » et une « aide à la décision ».

Le risque de quoi ? Le projet vise, nous dit-on, à simplifier et accélérer les processus de contrôle aux frontières, à diminuer les coûts, à améliorer la sécurité en combinant différentes technologies, à diminuer l’immigration illégale et les activités criminelles. En effet, expliquait le site de l’époque sans la moindre fausse pudeur, « la croissance continue des flux combinée avec la menace croissante d’immigration illégale exercent aujourd’hui une pression considérable aux postes de frontière. Les passages de frontière ralentis entravent la satisfaction des voyageurs, les affaires et le commerce. » [6]

Le site de l’époque précisait qu’il s’agissait d’un système interdisciplinaire unifié convergeant vers un système global [overall system] comprenant : 1/ un détecteur de mensonge automatique ; 2/ un module biométrique lisant les empreintes de doigts et de veines ; 3/ un outil de reconnaissance faciale ; 4/ un outil de vérification des documents officiels ; 5/ un outil de détection des humains dissimulés ; 6/ un outil d’évaluation du risque aidant à la décision du garde-frontière ; 7/ un outil intégré d’analyse du contrôle des frontières chargé d’analyser l’ensemble des données collectées et d’évaluer l’ensemble du système.

On peut apprécier l’équivoque avec laquelle se terminait à l’époque la présentation du projet : « En tant que projet de recherche, iBorderCtrl vise à élaborer de nouvelles technologies et déterminer si elles ont la capacité d’améliorer la qualité des contrôles de frontière aussi bien pour les voyageurs que pour les garde-frontières, mais ne vise pas à implémenter de nouvelles politiques. » [7] Cela voulait-il dire que les lois qui n’existent pas encore pour encadrer ce système pourraient encore être refusées par les décideurs et citoyens européens malgré ces investissements considérables ? On pouvait en douter. Ou bien cela voulait-il dire que, en vérité, la chose étant acquise, il ne restait qu’à lui donner un vernis démocratique pour obtenir sa légalisation ?

La mise à l’essai devait naturellement être suivie d’un rapport d’évaluation. Sans surprise, la page CORDIS de la Commission européenne affirmait dans un document publié en mai 2020 et toujours consultable : « Les travaux ont été menés à bien et ont permis de valider le concept de base ; l’évaluation pilote et les tests d’usagers ont fourni des résultats très intéressants et prometteurs sur les différents modules et leurs performances. » [8] Ce rapport dit aussi que le développement et la commercialisation du dispositif dépendent maintenant de plusieurs facteurs : 1/ l’évaluation et analyse des implications et de la conformité juridiques et législatives ; 2/ l’appropriation du processus et contrôle sur la transparence de leurs données par les voyageurs ; 3/ l’intégration dans les bases de données existantes [9]. Le projet tente de se rendre juridiquement et politiquement inattaquable en mettant l’accent sur le respect de la législation, de la transparence, de l’acceptabilité sociale, de « l’éthique », etc.

Mais ce n’est pas tout. Cet impressionnant dispositif n’était lui-même qu’une partie de toute une panoplie d’instruments de contrôle voués à se déployer aux frontières européennes (et rien ne dit que ce n’est pas le début d’un déploiement beaucoup plus large). L’un d’entre eux porte le doux nom de FOLDOUT. Malheureusement, le site dédié ne dit pratiquement rien dessus [10]. La page CORDIS présentait en 2017 les idées principales de ce projet de détection dans les feuillages avant sa mise au point : « Alors que les activités seront exclusivement axées sur les applications civiles, une coordination avec les activités de l’Agence européenne de défense (AED) peut être envisagée, des synergies pouvant être établies avec des projets financés par les programmes de l’AED. La complémentarité de ces synergies doit être décrite de manière exhaustive. La coopération en cours doit être prise en compte. » « Le risque croissant de flux irréguliers et d’immigration sur les frontières avec, par exemple, la Turquie, l’Ukraine, le Belarus, la Russie ou le Brésil rend le problème encore plus aigu que par le passé. » « L’acceptation éthique et sociétale doit être abordée de manière appropriée. » [11]

Pour un coût de 8 Millions d’euros, le but de FOLDOUT est de perfectionner le contrôle du passage illégal des frontières, cette fois dans les zones boisées. Voici ce qu’écrivent ses concepteurs dans un ouvrage publié en 2021 : « Cette plateforme doit répondre aux besoins de l’utilisateur final [les garde-frontières] en intégrant des systèmes de capteurs terrestres, aériens, spatiaux et in situ. Plus précisément, la conception de l’architecture de FOLDOUT est axée sur la détection et le suivi des activités dans les zones feuillues, dans les régions intérieures et extérieures de l’UE. FOLDOUT construira un système qui combine divers capteurs et technologies et les fusionne intelligemment en une plateforme de détection intelligente, efficace et robuste. » [12] Ces technologies combinées consistent en une architecture intégrée de satellites, stratobus, drones et capteurs terrestres divers (détecteurs de mouvement, capteurs électromagnétiques, microphones, etc.), comme l’illustre un schéma qu’on peut voir sur le site officiel. La description détaillée de chacune de ces technologies peut être consultée dans le livre cité. Les algorithmes utilisés seront basés sur l’apprentissage automatique. Cette technologie doit aider à analyser les informations des capteurs à la recherche de « modèles inhabituels ». FOLDOUT doit aussi pouvoir fonctionner dans des conditions météorologiques extrêmes [13].

Il nous reste à nous demander comment se peut-il qu’un programme aussi impressionnant de technologies totalitaires (elles prétendent en effet ne rien laisser hors de surveillance) peut à ce point se développer dans la quasi-indifférence générale et au nom des meilleurs principes. Il ne faut pas non plus ignorer le fait que les arguments qui valent aux frontières européennes valent aussi pour la lutte contre le terrorisme, par exemple au niveau du territoire français [14]. Que se passe-t-il si l’on étend un tant soit peu la conception du « risque » et que chaque individu est considéré comme un porteur potentiel de risque ? L’ex-ministre de l’intérieur Gérard Collomb justifiait ainsi sa défense des caméras intelligentes dans la ville : « L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre. » [15]

Les démêlés du juriste et eurodéputé Patrick Breyer dans son combat pour dénoncer iBorderCtrl illustrent la pauvreté des critiques adressées à de tels dispositifs, lorsque de telles critiques existent. Breyer fait partie du Parti Pirate Européen qui milite (de manière politiquement transversale) pour davantage de démocratie, de transparence et de partage des données, c’est-à-dire pour un « internet libre ». Patrick Breyer a saisi la Cour Européenne de Justice de l´Union Européenne le 15 mars 2019 en exigeant la publication des détails concernant ce projet (nous avons vu combien le site officiel de l´UE est parcimonieux sur ce point, surtout depuis qu’il a essuyé des critiques). Une audience a eu lieu en février 2021, durant laquelle l’Agence Exécutive européenne pour la Recherche (REA) a refusé de divulguer la moindre information susceptible de nuire aux intérêts commerciaux des entreprises impliquées dans la mise au point de ces dispositifs. « Les documents en question contiendraient des détails confidentiels sur les algorithmes utilisés à des fins de détection de ˝mensonge˝. » [16] Patrick Breyer a réussi à récupérer sur le web des parties de document que la Commission Européenne voulait dissimuler, dans lesquelles étaient prévues des activités de lobbying auprès de différentes parties prenantes en vue de favoriser l’obtention de la base légale sans laquelle le dispositif iBorderCtrl ne pourrait pas être déployé [17].

Le jugement de la Cour de justice européenne a été rendu le 15 décembre 2021. L’argument principal de l’avocat de la défense a été qu’on ne peut pas réclamer un contrôle démocratique sur des activités de recherche et de développement qui ne sont pas implémentées. Patrick Breyer a argumenté que « les systèmes de reconnaissance des comportements apparents créent progressivement une société uniforme de personnes passives qui ne veulent tout simplement pas attirer l’attention. Une telle société de surveillance morte ne vaut pas la peine d’y vivre. Je suis convaincu que cette pseudo-science sécuritaire ne détectera aucun terroriste. Pour les personnes stressées, nerveuses ou fatiguées, un tel générateur de soupçons peut facilement devenir un cauchemar. En Allemagne, les détecteurs de mensonges ne sont pas admissibles comme preuve devant les tribunaux, précisément parce qu’ils ne fonctionnent pas. Nous devons mettre un terme au développement, financé par l’UE, de technologies permettant de surveiller et de contrôler toujours plus étroitement les citoyens respectueux de la loi ! » [18] La Commission Européenne a défendu le projet en arguant d’un rapport d’évaluation éthique indépendant qu’elle refuse pourtant de publier. La Cour a estimé que la protection des intérêts commerciaux exclut bel et bien l’accès du public aux rapports d’évaluation émis sur la technologie iBorderCtrl, notamment sa légalité, son respect des valeurs éthiques, sa fiabilité (faux positifs), le risque de discrimination, la protection de la vie privée, etc [19]. Patrick Breyer a fait appel le 22 février 2022.

Dans ce combat entre un preux chevalier de la « transparence » et de la « démocratie » contre les intérêts protégés du capital, c’est un ordre mondial aux frontières de plus en plus crispées qui en constitue le véritable tabou, ainsi que le rôle de la quatrième révolution industrielle dans cette évolution. Le système numérique de plus en plus asphyxiant qui vise à traquer chacun pour y détecter le geste suspect parachève le processus séculaire d’expansion du capital, qui se brise à présent sur ses propres limites. A la demande des États et des institutions publiques, il faut filtrer toujours plus finement le grain de l’individu, qui justement menace de réclamer ses droits aux frontières (ces mêmes droits qui sont proclamés à longueur de temps comme imprescriptibles) ou peut-être de se faire justice lui-même. La montée des risques n’est pas un vain mot et les documents cités mentionnent plusieurs fois l’accroissement des flux migratoires qu’il s’agit de juguler le plus efficacement possible — mais dans un seul sens, car « les voyages, les affaires et le commerce » doivent pouvoir bouger librement, comme il était écrit noir sur blanc. (Les potentiels demandeurs d’asile, eux, peuvent être remis à la mer dans un canot en plastique ou bien croupir dans des centres fermés à l’entrée de l´Europe.) La montée des partis d’extrême-droite en Europe suggère qu’une bonne partie de l’opinion publique européenne est favorable à cette sorte de fermeture des frontières tout comme à une prise en charge sécuritaire du terrorisme. Cette partie de la population se sent au-dessus de tout soupçon et bien dans son droit. Elle pourrait se mettre dans la position paradoxale d’accepter de telles technologies pour faire la chasse aux migrants mais de dénoncer ces mêmes technologies si on attente à ses propres « libertés ». Or ces technologies sont totalitaires par essence ; elles ne sont pas destinées à s’arrêter à la moitié, même si elles sont installées par étapes. La gauche n’est pas non plus épargnée par des considérations protectionnistes, voire anti-migratoires, témoin les positions de Sahra Wagenknecht en Allemagne ou de Arnaud Montebourg en France. La critique des politiques sécuritaires suppose donc celle de la forme-sujet bourgeoise, qui passe son temps à s’excepter des processus qu’elle réprouve et croit ainsi pouvoir identifier à l’extérieur d’elle des responsables personnifiés et des problèmes compartimentés, au lieu de critiquer l’extension d’un type de rapport social qui inclut chacun, soit positivement, soit négativement, et donc aussi ceux qui se croient encore à l’abri.

La société capitaliste est « paranoigène » dans son essence, en ceci que le producteur est séparé de ses moyens de production, qui se dressent devant lui sous la forme objectivée d’une gigantesque machine de production planétaire, qui semble le réduire à l’impuissance. Toutefois, sa participation, aussi minime fût-elle, y est requise, positivement ou négativement, et c’est là que gît le ressort du passage à la limite entre l’individu atomisé « qui n’est rien » et les processus objectifs « qui sont tout ». Ce « rien » et ce « tout » ne vont cependant pas l’un sans l’autre. Le déchaînement de « l’intégration excluante » planétaire des forces productives produit conjointement une société de masse et un individu qui se font face-à-face comme s’ils n’avaient d’autre lien que le système technicien (coextensif au mode de production capitaliste) qui les englobe et les relie.

L’automatisation et la numérisation intégrale ne sont que le parachèvement du processus de séparation du producteur avec ses moyens de production et l’ultime cristallisation de ce faux face-à-face ; il faut donc les critiquer du point de vue de leur noyau catégoriel et non du point de vue des émotions paranoïaques qu’elles nous inspirent, lesquelles risquent justement de perdre de vue le lien interne de chaque sujet avec le mode de production techno-industriel, qui est davantage qu’une médiation technique. Néanmoins, il est bien naturel que les dispositifs numériques en cours d’implémentation partout dans le monde puissent provoquer de telles réactions, étant donné, comme on a pu le constater, qu’ils sont eux-mêmes les émanations profondément paranoïaques d’une forme sociale qui considère chaque individu comme une sorte de boîte noire, d’où peut surgir à tout moment un risque incontrôlable pour l’ensemble du système. Les phénomènes de l’amok et des attentats-suicides répondent parfaitement à cette crispation en faisant surgir l’imprédictible au cœur même de l’hypersurveillance. C’est pourquoi le transhumaniste Nick Bostrom propose très sérieusement de mettre toute la population mondiale sous surveillance complète pour conjurer un risque croissant selon lui, consistant en l’appropriation par un individu fou ou malveillant de technologies dont la dangerosité est croissante [20]. On remarquera que ce sont les individus qui doivent selon cette proposition être surveillés, mais ce ne sont pas ces technologies mortifères qui doivent être arrêtées, entièrement et inconditionnellement. On voit ainsi dans quel état sont nos chères « libertés ».

La proposition de Nick Bostrom résume bien la raison immanente d’un système qui met tout en œuvre pour tenter de se survivre en surveillant tout ce qui lui rappelle l’existence des périphéries et toutes les violences réelles ou supposées qui menacent à tout moment de surgir en son sein. Les technologies répressives manifestent la tendance croissante à conjurer les risques que produit cette civilisation en contrôlant les individus susceptibles de réclamer concrètement leurs droits ou de déchirer le voile du droit par leur simple existence. Après des siècles d’expansion qui ont vu la totalité du monde entrer sous la coupe des empires coloniaux et lui fournir l’essentiel de ce qui fait sa prospérité, l´Europe barre l’accès de sa forteresse vieillissante aux dépossédés de partout. La dénonciation par Patrick Breyer d’une pseudo-science qui ne donnerait pas les résultats escomptés et d’une injuste surveillance des « citoyens respectueux de la loi » suppose encore un accord fondamental avec l’existence de telles frontières. La défense de nos « libertés » ne veut pas savoir de quel bois elles sont faîtes. La critique du totalitarisme technologique de gauche comme de droite ne sait rien faire d’autre que de viser l’une ou l’autre des dernières avancées technologiques sans la replacer dans l’implacable logique qui nous a menés là. Le perfectionnement indéfini des instruments de mesure et de contrôle, comme de celui des moyens de production, était inscrit depuis l’origine dans les gènes de la modernité ; il était adéquat aux abstractions qui meuvent le capital et il ne peut donc que l’accompagner dans sa fuite en avant. La frontière est aussi le lieu par excellence de son paradoxe constitutif — entre expansion illimitée du marché et établissement d´États armés défendant comme personnes morales leurs intérêts sur la scène internationale. « L’éthique » proclamée à tous les niveaux consiste à remplacer la brutalité ordinaire par la gestion glaciale, impersonnelle et automatisée des personnes en déplacement. Non, la procédure iBorderCtrl n’est pas plus « respectueuse des droits fondamentaux » et plus « éthique » que les barbelés, les murs, les centres de rétention, les pushbacks, les interrogatoires humiliants ou la coopération européenne avec des milices locales. On voit à quoi ressemble le capitalisme lorsqu’il boucle son propre concept, qui est de suivre mécaniquement sa finalité abstraite en laissant peu à peu tout le monde au bord de la route. Les anticapitalistes n’auront bientôt plus que des machines pour recevoir leur vindicte s’ils ne démontent pas les ressorts de cette logique qui à la fois prend les individus au corps et les exclut radicalement de son processus. La critique va bien devoir aussi en repasser par le corps en refusant massivement de servir ces dispositifs toujours plus nombreux, non pas au nom d’une énième protestation humaniste, mais parce que ces dispositifs sont l’expression du capital en train de se refermer sur ses sujets, comme un piège définitif caché dans un sourire biométrique. Il faut envisager un état du monde où toute contestation et toute fuite seraient rendues impossibles par la généralisation de tels dispositifs — comme c’est le cas en maintes régions du monde — et où il ne resterait que la désertion des corps pour dire le refus.

Sandrine Aumercier, 5 mai 2022


[1] Dans la même veine, il est bien malheureux par exemples que les médias qui relayent ces jours-ci la mise à l’essai — sur la base du volontariat — du système de crédit social en Italie soient des médias complotistes ou libéraux (comme Contrepoints en France ou le Frankfurter Allgemeine Zeitung en Allemagne). La gauche n’a donc rien à dire ? Ce cas dément en tout cas les affirmations racistes, imbues de la supériorité européenne et « libérale », selon lesquelles le système de crédit social chinois renverrait à une tradition confucéenne et à une particularité de la civilisation chinoise « qui ne risque pas de nous arriver à nous ».

[2] Voir par exemple Claire Rodier, « Externaliser la demande d’asile », dans Plein droit, n°105, juin 2015. En ligne : https://www.gisti.org/spip.php?article4990

[3] Cette citation est tirée du site officiel qui était accessible en 2018. Ce lien n’est plus accessible aujourd’hui.

[4] Voir https://ec.europa.eu/research-and-innovation/en/projects/success-stories/all/smart-lie-detection-system-tighten-eus-busy-borders

[5] Harold Grand, « Pourrez-vous passer les contrôles aux frontières ? C’est une intelligence artificielle qui décide », Le Figaro, 07/11/2018. En ligne : https://www.lefigaro.fr/secteur/high-tech/2018/11/02/32001-20181102ARTFIG00196-pourrez-vous-passer-les-controles-aux-frontieres-a-l-aeroport-c-est-une-intelligence-artificielle-qui-decide.php

[6] Comme déjà dit, ce site n’est plus accessible aujourd’hui. Cette citation a été tirée du site accessible à l’époque, qui disait en anglais : « Continuous traffic growth, combined with the increased threat of illegal immigration, is putting nowadays border agencies under considerable pressure. Slow border crossings impact traveller satisfaction, business and trade. »

[7] Le site inaccessible aujourd’hui, disait : « iBorderCtrl as a research project aims at elaborating new technologies and whether they have the capabilities to enhance the quality of border checks for both travellers and border guards, not at implementing new policies. » Le rapport actuellement consultable dit à peu près la même chose.

[8] Voir https://cordis.europa.eu/project/id/700626/reporting/fr :

[9] Ibid.

[10] Voir https://foldout.eu/

[11] Voir https://cordis.europa.eu/programme/id/H2020_SEC-16-BES-2017

[12] Voir Christos Bolakis et al., « FOLDOUT: A Through Foliage Surveillance System for Border Security », dans Babak Akhgar, Dimitrios Kavallieros, Evangelos Sdongos, (sous la dir.), Technology Development for Security Practitioners, Springer, 2021, p. 263.

[13] Voir Matthias Monroy, « Grenze zur Türkei: EU-Kommission will Geflüchtete mit Laubdurchdringung aufspüren », Telepolis, 9 décembre 2019. En ligne : https://www.heise.de/tp/features/Grenze-zur-Tuerkei-EU-Kommission-will-Gefluechtete-mit-Laubdurchdringung-aufspueren-4608218.html

[14] Rapport d’information n° 788 (2015-2016) de MM. François Bonhomme et Jean-Yves Leconte, fait au nom de la commission des lois, déposé le 13 juillet 2016. En ligne : http://www.senat.fr/rap/r15-788/r15-7885.html

[15] Flore Thomasset, « Le ministère fait le bilan d’un an de maintien de l’ordre », La croix, 08/06/2018. En ligne : https://www.la-croix.com/Journal/Le-ministere-fait-bilan-dun-maintien-lordre-2018-06-08-1100945363

[16] Alice Vitard, « Le juge européen exige des détails de Bruxelles sur son projet de « détecteur de mensonge » aux frontières », L’usine digitale, 9 février 2021. En ligne : https://www.usine-digitale.fr/article/le-juge-europeen-exige-des-details-de-bruxelles-sur-son-projet-de-detecteur-de-mensonge-aux-frontieres.N1058774

[17] Voir le document restauré sur le site de Patrick Breyer : https://www.patrick-breyer.de/wp-content/uploads/2021/04/17-D7-3-Dissemination-and-communication-plan-partial-discl_restored.pdf

[18] Voir https://www.patrick-breyer.de/en/press-briefing-transparency-complaint-against-secret-eu-surveillance-research-iborderctrl/

[19] Voir https://curia.europa.eu/juris/document/document.jsf;jsessionid=008867723F4B838EC33D8E2AC1FB6F5A?text=&docid=251282&pageIndex=0&doclang=FR&mode=lst&dir=&occ=first&part=1&cid=2172618

[20] Nick Bostrom, « The Vulnerable World Hypothesis », dans Global Policy, n°10/4, novembre 2019.

En ligne : https://nickbostrom.com/papers/vulnerable.pdf

« L’Appel des appels » et l’ascension des thérapeutes numérique

On peut remarquer dans le champ social une demande de certaines branches à se voir reconnaître un statut particulier au cœur de la logique marchande, laquelle ne cesse de s’enfoncer dans l’intimité de nos vies. Des artistes, militants, partisans de projets alternatifs, soignants, chercheurs, intellectuels, etc. pensent pouvoir exiger des représentants politiques une exception fondée sur l’idéalisation d’une activité qui serait plus noble que les autres à l’intérieur d’une ontologie du travail non questionnée (pour reprendre ici les mots de Robert Kurz). Ainsi, il est un peu embêtant mais sans doute tolérable que la production de tomates soit soumise à un calibrage répondant aux normes européennes et que le reste soit perdu, cela commence à être franchement gênant quand il s’agit des poulets en élevage intensif, car cela heurte notre sensiblerie animalière, mais passe encore, par contre la chose devient carrément inacceptable quand il s’agit, par exemple, des activités d’art et de soin, de notre « psychisme », de notre « bien-être » et de notre « créativité ». Lorsque la progression de la crise capitaliste rattrape la subjectivité accrochée à ses fonctions comme à une planche de survie, il arrive que celle-ci croit y voir malice ou suprême transgression. Pourtant, ce n’est que la suite logique d’un certain développement historique dont il s’agit d’articuler les catégories opératoires. 

Le slogan « la santé n’est pas une marchandise » implique que la santé est un bien suprême au-dessus de la marchandise ordinaire, mais que le reste, donc, peut quand même rester une marchandise. Or la société de marchandise est un « fait social total ». Elle n’a que faire de nos idéalisations personnelles et de nos préférences affectives : elle marchandisera tout ce qu’il y a à marchandiser. Il est impossible de s’en prendre « à moitié » à la société de marchandise en essayant seulement d’y sauver sa peau. Réclamer un statut spécial ressemblerait ici à essayer d’obtenir un meilleur morceau de viande que les autres dans la cantine infecte d’une prison politique, au prétexte qu’on sait faire de la musique. C’est au mieux de l’opportunisme. Mais certains font passer cela pour un combat émancipateur et digne des plus hautes valeurs.

Le collectif L´Appel des appels qui s’est constitué en 2008 autour des psychanalystes Roland Gori et Stefan Chedri en constitue un exemple pathétique. « Nous, professionnels du soin, du travail social, de la justice, de l’éducation, de la recherche, de l’information, de la culture et de tous les secteurs dédiés au bien public, avons décidé de nous constituer en collectif national pour résister à la destruction volontaire et systématique de tout ce qui tisse le lien social. Réunis sous le nom d´Appel des appels, nous affirmons la nécessité de nous réapproprier une liberté de parole et de pensée bafouées par une société du mépris. » Il s’agit, peut-on lire aussi, de « remettre de l’humain au cœur de nos pratiques » [1]. Ces lignes creuses qui voudraient se constituer elles-mêmes en méta-appel, montrent que les auteurs n’analysent pas le système dans lequel ils vivent, et dont ils exhibent ici platement les valeurs éculées de l’humanisme abstrait : grande gueule sans arrêt rebouchée par la progression inexorable de la crise globale. Outre que l´Appel des appels trahit le mot de Lacan selon lequel « il n’y a pas d´Autre de l´Autre », il est clair que personne n’entendra cette invocation emphatique lancée dans le vide, puisqu’il n’y a personne en face que des « masques de caractère » (Karl Marx). C’est ainsi que l´Appel croit pouvoir s’adresser aux « Pouvoirs Publics » tout en accusant immédiatement après le « Pouvoir » d’imposer « son idéologie de l’homme économique ». Selon cette vision circulaire, on pourrait donc opposer les « Pouvoirs publics » au « Pouvoir », lequel serait lui-même à la solde du capitalisme financier, comme nous l’apprend une publication du collectif. Le manifeste Politique des métiers [2] diffusé par l´Appel explicite ainsi sa vision de la situation : « Ces choix successifs [ceux du New Public Management], pris pourtant par des gouvernements politiquement différents, ont sciemment adopté une certaine culture de l’entreprise et organisé une authentique colonisation des services de l’État par la logique du marché. » C’est encore une fois les bons « métiers » qui se dressent contre le méchant capital (celui de la « financiarisation hégémonique », nous dit-on juste après), ignorant leur commune enveloppe sociale. Le fétichisme du travail qui est au fondement de la société capitaliste y est excepté de toute analyse critique.

Car comment les « Pouvoirs Publics » pourraient-ils être indépendants du « Pouvoir », et comment ce dernier pourrait-il être indépendant du fonctionnement de la machine capitaliste ? Cela n’est expliqué nulle part, car c’est là un credo qui ne fait que tourner depuis des lustres dans les discours de gauche et qui ne semble exiger aucun effort de vérification théorique. C’est un peu comme si un psychanalyste accueillait un nouveau candidat en lui disant : « Vous avez un peu de bon sens quand même ? Veuillez arrêter tout de suite vos habitudes déraisonnables ! » Cette injonction n’a aucun sens pour un psychanalyste qui prend au sérieux l’hypothèse de l’inconscient. Mais bizarrement, elle redevient possible dès qu’un psychanalyste prend la parole sur la place publique. L’inconscient n’est-il donc qu’une histoire de divan et rien de plus ?

La psychanalyse peut-elle se détourner de l’analyse des mythes qui structurent la civilisation où elle est apparue ? L’indépendance des institutions politique et l’idéologie de la souveraineté (y compris « démocratique ») fait partie de l’attirail mythologique moderne : c’est aussi ce que la psychanalyse est venu subvertir en décalant le sujet de sa pseudo-souveraineté. Pourquoi cette critique cesserait-elle d’être pertinente dès qu’on sort du cabinet analytique ? Elle a au contraire une portée au-delà de l’analyse individuelle. Les différentes sphères fonctionnelles de la société capitaliste ne sont pas indépendantes les unes des autres, quand bien même la technoscience morcellerait ses objets de recherche et d’intervention jusqu’à la poussière. L’ontologie moderne vise chaque objet dans son identité à soi, indépendamment de ses liens dynamiques et enchevêtrés avec son environnement, lesquels ne sont alors étudiés que comme des caractéristiques supplémentaires de son identité. Les sciences humaines participent de cette logique à chaque fois qu’elles extraient leur objet du système où il évolue comme si cet objet était auto-consistant et à lui-même sa propre origine. Mais de même qu’on ne parle pas en psychanalyse du sujet comme s’il était à l’origine de lui-même, on ne peut pas parler de la souveraineté politique comme si elle était à elle-même son propre fondement. « L´État moderne ne pourrait se mouvoir sans les médiations sociales capitalistes. La forme de l’agir collectif sous le capitalisme est donc nécessairement l’appendice du mouvement de la valorisation. Sans ponction fiscale sur la valorisation, sans dépense de la future valorisation escomptée (sous la forme de la dette d´État), pas d’agir collectif possible dans le monde moderne. (…) Lorsque la valorisation commence à ralentir, l’économie limite et étouffe toujours plus l’espace d’action de la politique. (…) Cette souveraineté limitée est toujours l’expression de la soumission de l´État à ses propres conditions de possibilité [3]. »

Combien de temps durera encore ce cirque pour la reconnaissance de la part de psychanalystes que leur « profession » aurait dû avertir de certaines impasses ? Quand donc les « psycho-quels qu’ils soient » se rappelleront-ils qu’ils « n’ont pas à protester, mais à collaborer » puisque « qu’ils le sachent ou pas, c’est ce qu’ils font [4] » (et l’on sait combien le mot de collaboration est historiquement chargé en France) ?

Les auteurs de l´Appel des appels et tous ceux qui ne demandent qu’un supplément d’âme pour le capitalisme en sont quitte pour avoir crié plus de dix ans dans le désert, comme le montre la progression de la barbarisation. Ces revendications ne veulent rien savoir du fait que la logique de valorisation de la valeur ne connaît aucune limite morale, que ceci est dans la nature du capitalisme au moins depuis l’émergence du capitalisme industriel (et non pas seulement depuis l’époque néolibérale), qu’elle se reproduira et s’étendra jusqu’à la dernière parcelle exploitable et jusqu’au plus intime de nous-mêmes si nous ne l’arrêtons pas entièrement et non partiellement. Dans cette perspective, libérer la tomate et l’humain constitue une seule et même visée — d’un certain point de vue s’entend — et ceci sans même qu’on ait besoin de se prétendre un « écologiste radical ». L’universalisme négatif du capital ne cesse de repousser ses propres limites, non sans se rendre inattaquable au nom de sa propre « éthique » managériale et instrumentale. De manière perverse, le « consentement » est ainsi de plus en plus exigé à un client, un patient, un usager, qui ont perdu jusqu’à la notion de ce à quoi, en fait, ils « consentent » en cliquant distraitement sur une option. Le capitalisme ne peut se reproduire qu’en élargissant sans cesse son horizon, lequel passe aujourd’hui par la disruption permanente et accélérée de toutes les limites techniques atteintes à chaque instant ; chaque entreprise particulière tente de rester compétitive sur un marché pris dans une concurrence sauvage, au fur et à mesure que s’accentue l’expulsion du travail humain productif et la désubstantialisation consécutive de la masse totale de valeur (celle-là même qui assure la reproduction du système dans son ensemble, c’est-à-dire aussi les fonctions de l´État). Les activités improductives — au sens capitaliste du terme — sont donc forcément les premières visées par les politiques d’austérité. Comment en serait-il autrement ? 

La psychanalyse, l’art et le soin ne constituent donc aucune exception. S’il est souhaitable de continuer à les pratiquer en dépit des « attaques » dont elles font l’objet, ces pratiques ne peuvent exiger la reconnaissance d’un système qui ne les reconnaîtra jamais et qui finira par les faire taire tout à fait. Il ne s’agit pas en premier lieu d’un « Pouvoir imposant son idéologie », mais d’un rouleau compresseur qui ne sait même pas sur quoi il passe. Les idéologies de ses officiants ne seront pas égratignées par des contre-idéologies de crise particularistes ou identitaires, y compris les identités professionnelles qu’invoque l´Appel des appels. Ce sont finalement les chiffres de l’économie et à terme, les algorithmes, qui viendront au mieux y répondre sous la forme, sans doute, d’un écho mécanique renvoyé à une humanité obsolète. Car le combat de l´Appel des appels positive un domaine immanent de la totalité négative dont il fait partie, comme le font tous les combats sectoriels qui s’attachent à conserver un moment dépassé d’une dynamique qui, elle, ne connait pas de halte. Ils méconnaissent ainsi que leur véritable fossoyeur — qui n’est pas le pouvoir mais l’impératif de valorisation capitaliste comme fin en soi abstraite — a toujours déjà une longueur d’avance sur leur revendication.

La pandémie actuelle a par exemple légitimé l’accélération de la numérisation du monde au nom d’un intérêt sanitaire supérieur. Même les psychanalystes ne sont plus gênés du tout de proposer des « colloques internationaux en ligne » assortis d’un lien zoom, sans se demander à quoi riment ce business et cette dématérialisation de nos activités auxquelles, eux comme les autres, participent avant de s’énerver ensuite contre la technocratie. Mais après tout, si nous n’avons plus besoin de partager une pièce pour nous « rencontrer », pourquoi serait-il tabou de faire des thérapies en ligne ? D’ailleurs, pourquoi pas carrément un traitement de la souffrance psychique par chatbot ? Arrière, monstre de technocrate — diront peut-être les psychanalystes appeleurs — touche pas à mon « métier » !

Woebot aus États-Unis, MindBeacon au Canada, Deprexis en Allemagne, Owlie en France : ces programmes d’accompagnement psychique numérique, gratuits ou remboursés, se justifient désormais : 1/ par la nécessité de réduire les contacts physiques durant la pandémie ; 2/ par l’existence de longue listes d’attentes pour obtenir un rendez-vous avec un thérapeute humain dans une période où les demandes de thérapie explosent ; 3/ par la nécessité de réduire les coûts, pour la communauté comme pour le patient ; 4/ mais aussi par la prétendue nécessité d’accorder aux patients un accompagnement 24/24 (ce qui signifie ipso facto une connectivité ininterrompue supposée pallier une absence de liens humains). Un article scientifique sur le sujet ne craint pas d’affirmer l’efficacité supérieure de cette forme d’accompagnement en première intention pour la dépression et l’anxiété, qui s’avère une « méthode idéale pour fournir des soins de santé mentale efficaces à grande échelle [5] ». De son côté, l’inventeure du chatbot Woebot — juge et parti de sa propre invention — se félicite des résultats (4,7 millions de messages échangés avec le thérapeute digital depuis sa création) et affirme : « Nous n’avons tout simplement pas assez de cliniciens et de spécialistes pour traiter tout le monde [6]. » Y aurait-il de plus en plus de gens dépressifs et anxieux ou de moins en moins d’offre en santé mentale ? Ou bien est-ce que le chatbot fabrique une nouvelle maladie, celle de la dépendance 24/24 à un accompagnement digital qui devient, dès lors, nécessairement irremplaçable par un humain ? En France, la psychologue Clara Falala-Séchet, co-créatrice du chatbot Owlie, se moque ouvertement de « papa Freud qui nous reçoit une fois par semaine sur son divan » en faisant « hum » [7]. Le chatbot thérapeutique, lui au moins, ne lâchera jamais son patient.

Voilà aussi ce que précise la page d’accueil du produit Aury développé en coopération avec l´Université Humboldt de Berlin, soutenu par le Sénat de Berlin et le Ministère Fédéral allemand de l´Économie et de l´Énergie : « Aury sera mis à l’essai à l’université Humboldt de Berlin entre octobre 2021 et mars 2022. Les patients et patientes du service ambulatoire de l’université Humboldt utilisent Aury durant la période où ils sont sur liste d’attente avant le début de la thérapie, et ils feront l’objet d’un diagnostic complet avant et après cet essai [8]. » Il est dit que ces entretiens numériques ne sont pas sensés remplacer une thérapie. Le mode d’emploi est le suivant : « Aury est un chatbot et ta conseillère numérique, qui peut t’aider en cas de symptômes de troubles anxieux ou de dépression. Aury te propose un programme d’aide psychologique basé sur la thérapie cognitivo-comportementale et développé à l’université Humboldt de Berlin. Tu peux suivre le programme d’aide durant 4 à 8 semaines sur ton smartphone ou ton PC. Pour cela, tu te connectes régulièrement et tu mènes des conversations par chat avec Aury. Une conversation dure entre 10 et 15 minutes. Pour qu’Aury puisse t’aider au mieux, nous te recommandons de lui parler quotidiennement. Au cours des entretiens, tu apprendras des choses importantes sur ta santé mentale, tu recevras des conseils pour gérer les symptômes et tu feras des exercices pour appliquer ce que tu as appris au quotidien. Les contenus d’apprentissage sont répartis en 6 thèmes que tu peux suivre en fonction de tes intérêts : sommeil, anxiété, soucis et ruminations, dépression, communication et conflits, ressources. De plus, Aury te demande régulièrement si tu te sens bien et analyse tes réponses. Après 4 à 8 semaines, tu recevras un bilan des contenus que tu as suivis et de ton bien-être. Tu peux donner ce bilan à ton ou ta thérapeute [9]. » Comme chacun peut le vérifier en se rendant sur le site, ceci n’est pas de la science-fiction ; c’est le monde dans lequel nous sommes et dans lequel certains espèrent encore « remettre l’humain au centre ». Ils n’auront bientôt plus que des robots pour leur répondre !

La psychanalyse n’est pas une pleurnicherie humaniste mais une méthode de déchiffrement des symptômes. Elle dispose de concepts articulés, comme celui de pulsion, d’inconscient, de moi, de surmoi, de désir, de chaîne signifiante… Elle ne réduit jamais les plaintes d’un sujet à une explication psychologique ni au primat d’une instance psychique sur les autres : aussi pourquoi devrait-elle retomber dans le psychologisme ou le politisme dès qu’on passe la porte du cabinet ? Freud a émis des hypothèses sur le « développement culturel » qui n’étaient pas des généralités morales ; à nous de reprendre ce chantier avec les moyens théoriques d’aujourd’hui, et notamment en nous efforçant de pénétrer le fonctionnement du capitalisme de manière aussi rigoureuse qu’on s’efforce d’entendre un analysant et de mettre à l’épreuve nos concepts habituels. La psychanalyse ne mobilise pas une « partie du moi » contre l’autre. De même, il n’y a pas de rigueur à invoquer une sphère sociale contre une autre, par exemple la « politique » contre « l’économie » (et encore moins certaines « catégorie socio-professionnelles » contre les autres), dans la méconnaissance de leur fonctionnement systémique. Il faut que la psychanalyse se mette à l’étude du système qui lui a — de manière assez courte — concédé une place qu’elle y a définitivement perdue. La critique freudienne de la religion, des formations collectives comme l’Église et l’armée, de l’identification au chef, de la guerre et du malaise dans la culture (assorti de ses fausses solutions) n’en était que le début.

Sandrine Aumercier, 3 février 2022.


[1] Voir (souligné par nous) : http://www.appeldesappels.org/

[2] Politique des métiers, Paris, Mille et une nuits, 2011.

[3] Clément Homs, « La politique et l´économie : deux faces d´une même pièce », dans Misère de la politique, divergences, 2017, p. 39-40.

[4] Jacques Lacan, Autres écrits, Seuil, 2001, p. 517.

[5] Voir : file:///Users/admin/Desktop/jamapsychiatry_rollman_2017_oi_170080.pdf

[6] Voir : https://www.wired.com/story/therapist-in-chatbot-app/

[7] Voir « L´intelligence artificielle au service des patients » : https://www.youtube.com/watch?v=MlsP8yX96sg

[8] Voir :  https://aury.co/#Produkt

[9] Ibid.

Quand les algorithmes seront parfaits

Le livre de Cathy O´Neil Algorithmes, la bombe à retardement [1] est paru aux USA en 2016 et en France en 2018. C’est peu de dire que ce livre fut encensé de tous les côtés à sa sortie. Le mathématicien et député Cédric Villani, ayant coordonné le rapport ministériel Donner un sens à l’intelligence artificielle, en a écrit une préface dithyrambique. L’auteure fut même invitée à rencontrer Emmanuel Macron en personne. Et pour cause ! Malgré son titre provocant, ce livre ne dérange personne. Son accueil fut orchestré à peu près ainsi : enfin une expertise critique sur cette chose qu’on dit omniprésente et que personne ne comprend ! Et de surcroît par une personne du terrain ! Qu’on nous explique enfin ce que c’est, avec des exemples à la portée de tout le monde ! Qu’on nous fasse un peu frissonner sur ses potentialités apocalyptiques et qu’on nous donne la solution pour éviter ça ! Cela commence avec son titre anglais Weapons of Math Destruction qui est un jeu de mots avec Weapons of Mass destruction. Durant tout le livre, l’auteure conservera le sigle ADM pour « armes de destruction massive ». Avec un tel surnom, on s’attendrait à une critique autrement radicale. On comprend lentement que c’est presqu’un surnom affectueux, un peu comme quand on appelle son chien « gros monstre ».

De fait, l’ouvrage répond bien aux attentes d’une société qui veut être guidée dans le « bon usage » des technologies meurtrières, mais s’est accommodée de leur prolifération et de leur constant perfectionnement. Mathématicienne, ancienne analyste à Wall Street puis dans le marketing, l’auteure connaît bien les big data et peut donc lever un coin de rideau sur d’inquiétantes réalités qu’elle a expérimenté sur le terrain. Repentie, elle a participé à Occupy Wall Street et a entretemps fondé la société ORCAA qui propose aux entreprises des audits sur leurs risques algorithmiques. Afin de sortir de la mystification, elle nous rappelle pour commencer qu’un algorithme n’est pas autre chose qu’un modèle qui pourrait être comparé à la composition des menus familiaux par une mère de famille tenant compte des goûts de chacun, de la saison, du budget, de l’équilibre alimentaire, etc. Si ce modèle interne intuitif était transposé dans un logiciel, il deviendrait un « modèle externe formalisé », caractérisé, dit-elle, par une simplification de la complexité du vécu. Ici déjà, l’auteure oublie de dire que ce modèle externe ne peut prétendre compenser cette simplification, qui est son défaut fondamental, qu’en engrangeant des masses de données exponentielles, afin précisément d’y intégrer la plus grande variabilité des situations humaines. Tant que les humains seront capables de surprise et de changement, la voracité d’une banque de données à l’affût de toutes ces infimes variations sera sans limite, afin d’affiner indéfiniment le modèle. Ce projet ne peut par définition qu’être total, c’est-à-dire tendre follement vers la saisie exhaustive du réel. Il peut se rapprocher de la réalité, y ressembler, il peut nous bluffer, mais il ne sera jamais le réel. Or il se peut que ce projet de rejoindre le réel le conduise bel et bien à le détruire sans merci, à le dévorer jusqu’au dernier grain, comme le cannibale pense incorporer l’esprit de sa victime en buvant son sang. « Software is eating the world », écrivait Marc Andreessen en 2011 de manière éloquente [2]. En voulant corriger son défaut, le modèle ne peut qu’étendre sa boulimie de données à tout ce qui existe, sans reste. Il fait passer la moindre surprise dans son broyeur prédictif dans l’espoir qu’un jour il n’y ait plus de surprises : son absolue prédictibilité serait alors démontrée. Mais cet espoir est vain, car son défaut initial, qui est un défaut ontologique, ne peut pas être résorbé par un apport quantitatif ; il peut tout au plus y tendre asymptotiquement, c’est-à-dire à l’infini — si du moins nous consentons à nous prêter à ce projet délirant, comme le veulent les tenants de la Singularité.

Sur les risques inhérents à une telle volonté de combler le défaut ontologique de la modélisation par une quantité exponentielle de données, la portée critique est ici d’une consternante pauvreté. Elle nous inspire la réplique de Cyrano de Bergerac : « Ah ! non ! c’est un peu court, jeune homme ! On pouvait dire… Oh ! Dieu ! … bien des choses en somme… » Cathy O´Neil ne fait qu’effleurer le problème de l’échelle d’application des algorithmes, sans voir que cette échelle toujours plus vaste est inhérente à l’existence même des systèmes algorithmiques : « Toute formule présente en théorie un caractère parfaitement inoffensif (…) mais si elle acquiert la dimension d’une norme nationale ou mondiale, elle crée alors sa propre économie dystopique et dénaturée » (p. 84). Elle ne reproche ici aux algorithmes que l’étendue de leurs dégâts et non leur logique qui ne peut pas faire autre chose que de conduire à une totalisation sans reste. L’auteure suppose ainsi que le bon sens et le progressisme politique sauront (une fois correctement informés) limiter cette extension galopante par de saines barrières. Mais elle ignore par là la logique à l’œuvre dans la modélisation algorithmique qui implique nécessairement le moulinage de tout ce qui existe dans le vain espoir de combler le défaut ontologique que le modèle introduit lui-même, soit de résorber l’écart insurmontable entre la probabilité et l’occurrence. Pour le dire autrement à partir de l’exemple empirique choisi par l’auteure elle-même, dès lors qu’on a accepté le principe de modéliser mathématiquement la composition des menus familiaux afin d’optimiser la conception des repas, il n’y a plus de retour : le système ne peut que s’engager dans le perfectionnement monstrueux de sa propre modélisation. Il a fait naître une frustration qui n’est pas stoppable par un argument d’autorité subjectif, comme pourrait l’être celui de la mère de famille qui déciderait que « c’est comme ça », justement parce qu’elle n’aura jamais la bêtise de viser une application littérale de son modèle intuitif, contrairement à l’algorithme, qui ne pense pas, n’expérimente pas, ne regrette pas, ne se laisse pas tenter : il avale simplement les données et les convertit en chiffre au service d’un objectif donné. C’est la raison pour laquelle Elon Musk disait que si l’on donnait à une IA l’objectif — assez innocent — de ramasser des fraises, elle pourrait transformer le monde entier en champs de fraises afin de remplir son objectif [3]. Cette logique serait la même si on lui donnait l’objectif d’éradiquer la faim ou le paludisme dans le monde. La nature de sa destructivité n’a rien à voir avec les valeurs morales qu’on prétend lui implémenter.

Le deep learning avale toujours plus de données pour corriger son déficit inhérent, par quoi il prétend se rapprocher du chatoiement du réel et en éliminer toute forme de surprise qui ne soit pas immédiatement réinjectée dans sa propre amélioration indéfinie. Ceci n’a en soi rien à voir avec la moralité des concepteurs ; mais si un tel programme est mis au service d’intérêts privés, il est évident que le potentiel destructeur est démultiplié. De fait, l’invention de tels systèmes est consubstantielle à l’optimisation des coûts dans le cadre de la concurrence économique. Ces technologies n’ont aucun sens en dehors de ce cadre d’émergence historique, car elles supposent des investissements colossaux et des échelles d’action globalisées. Elles ne sont pas seulement les belles « disruptions » qu’on raconte, sorties comme des champignons de l’ère internet. Elles sont bien plutôt congruentes avec toute l’évolution du système capitaliste depuis ses origines. Mais pour l’auteure, le problème est toujours la morale des modélisateurs  : « La racine du problème… réside dans les objectifs choisis par les modélisateurs. Le modèle est optimisé dans une perspective d’efficience et de rentabilité, et non pas pour l’équité ou le bien de l’‹ équipe ›. C’est bien entendu la nature même du capitalisme. (…) Voilà pourquoi la société doit pouvoir s’appuyer sur des forces contraires — comme une vigoureuse couverture médiatique, capable de mettre en lumière les abus de cette course à l’efficience et de jeter l’opprobe sur les entreprises pour les pousser à bien faire » (p. 198). Les vibrants discours de Mark Zuckerberg et d’autres sur le monde ouvert et généreux que nous sommes en train de construire démontrent surtout que cette moralisation ne nuit en rien ni aux monopoles ni au déchaînement des forces technologiques, elle se met au contraire à leur service en leur offrant un blanchiment éthique imparable.

Il y a là une ignorance profonde des logiques enclenchées par le principe même de la datification du monde, qui n’est que la dernière forme prise par l’optimisation du projet capitaliste.  Personne n’irait modéliser la composition des menus familiaux sans une certaine idée d’optimisation, qui n’est pas forcément « économique » au sens financier, mais toujours « économique » au sens d’introduire une forme d’efficacité quantifiable (de temps, d’équité entre les goûts des convives, d’équilibre diététique, etc.) Il s’agit bien uniquement d’économie. Jouer une dimension économique contre une autre ne nous sort pas de la logique acéphale du réductionnisme économique, qui, en tant que tel, ignore ces compartiments. Optimiser ceci ou cela, c’est toujours optimiser. L’argent n’en est que la forme ultime. Prétendre optimiser la réduction des accidents de la route est par exemple un argument de nature aussi « économique » que le marketing en faveur des voitures autonomes, et les deux intentions sont d’ailleurs vendues en un seul et même paquet bien ficelé. Imaginer qu’on pourrait développer de gentils petits algorithmes au service du bien public et décontaminés des intérêts financiers est d’une bêtise confondante.

Ayant complètement manqué l’analyse de cet aspect essentiel du système — puisqu’elle en fait pleinement partie et déploie toute son énergie à le perfectionner — l’auteure engage alors la critique dans une autre voie, qui sera celle de tout le reste du livre, en faisant remarquer que les données pertinentes qui alimentent un modèle sont toujours le reflet des préjugés de leurs concepteurs, par exemple, pour rester dans les soucis domestique, une idéologie diététique comme celle d’éliminer les sucreries des menus. En effet : « Les modèles sont un ensemble d’opinions inséré dans un système mathématique. » (p. 40). Le livre se concentrera donc sur l’analyse de l’amplification par les algorithmes des préjugés existants, parce qu’ils s’appuient sur des corrélations fallacieuses et des biais de confirmation, parce qu’ils développent des boucles de rétroaction, mais aussi parce qu’ils sont mis au service d’intérêts peu scrupuleux qu’il s’agit selon l’auteure de réguler pour que tout rentre dans l’ordre.

Elle décrit avec forces exemples et anecdotes le potentiel destructeur des algorithmes, du recrutement dans les grandes universités à l’évaluation des enseignants, de l’emprunt bancaire aux campagnes électorales en passant par la prévention du crime, la recherche d’emploi ou la signature d’un contrat d’assurance. C’est l’ensemble de la vie sociale qui se trouve ainsi passée au crible de l’analyse des manipulations algorithmiques au service des puissants et au détriment des populations précaires et marginalisées. Le tableau qui en ressort est celui d’une société profondément injuste, que les algorithmes, biaisés par les préjugés de leurs concepteurs, rendent encore plus injuste en enfermant encore plus les individus dans les cases où les ont mis des calculs anonymes et partiaux. L’auteure nous montre comment les algorithmes ont en quelque sorte l’art de perfectionner les injustices sociales et raciales existantes et de renforcer les ségrégations qu’ils prétendent pourtant éviter derrière la façade d’une fausse neutralité.

A partir de telles prémisses, le ton du livre est donné. Il s’agira désormais de donner aux big data leur supplément éthique. « Nous devons expressément intégrer à nos algorithmes de meilleures valeurs, en créant pour le Big Data des modèles conformes à nos visées éthiques. Ce qui supposera parfois de placer l’équité au-dessus du profit. » (p. 304). Que dire de ce vague « parfois » qui ressemble à une tapette sur l’épaule ? Ou encore : « Il nous faut pourtant insuffler à ces systèmes des valeurs humaines, même au détriment de l’efficience. » (p. 308). L’efficience est pourtant le principe même d’un algorithme, sa raison d’être. L’idée de modèles conformes à une bonne intention « insufflée » dans la machine reste la pièce maîtresse de cette entreprise de moralisation. Que ces modèles aient une vie propre, emportée par leur logique mathématique de manière non pas accessoire mais consubstantielle à celle de la valorisation économique, n’effleure pas l’auteure. Que les moratoires d’aujourd’hui, les règlements divers et les chartes éthiques ne soient que les cache-sexes de cette lame de fond tendant à optimiser l’intégralité du système-monde demeure inaccessible à la critique. Certes, l’auteure reconnaît que : « La tendance consiste à remplacer les gens par des flux de données et à en faire des acheteurs, des électeurs ou des employés plus efficaces afin de remplir un objectif quelconque » (p. 80). Selon elle, il suffit de remplacer les intentions immorales des acteurs économiques par des intentions morales, et nous aurons enfin des algorithmes bienfaisants. Cathy O´Neil doit bien alors réchauffer cette vieille idée selon laquelle ce n’est pas la technologie qui est mauvaise, mais l’usage qu’on en fait. Citant un algorithme employé à la prévention de la maltraitance infantile, elle peut ainsi affirmer : « Si l’objectif consiste… non pas à  punir les parents, mais à secourir les enfants qui pourraient en avoir besoin, cette ADM en puissance devient alors salutaire. » (p. 323). Le programme est simple : « En matière de communication politique, comme avec la plupart des ADM, le cœur du problème réside presque toujours dans l’objectif poursuivi. Si l’on choisit d’aider les gens au lieu de profiter d’eux, l´ADM se trouve neutralisée — et peut même se changer en une force bienfaîtrice.  » (p. 295). Le principe de cette curieuse argumentation est de potentialiser la vertu des armes de destruction massive, un peu à la façon dont la bombe nucléaire peut être défendue par certains pour sa capacité dissuasive (ce qui n’enlève rien à son potentiel létal). Un tel livre, loin de se livrer à la critique annoncée dans son titre, est donc pleinement au service de l’amélioration de technologies invasives qui devraient en fait être rendues non racistes, non sexistes, non spécistes, non discriminantes, non violentes, et même carrément bienveillantes, etc. Il promeut une moralisation publique légitimatrice qui est en accord fondamental avec l’égalisation de tout être, de toute chose et de tout comportement sous le signe du chiffre. Son progressisme et son antiracisme ne lui font pas de mal, ils travaillent au contraire insidieusement à la promotion d’un univers froidement égalitaire, servi par des algorithmes « bien éduqués », prétendument au service de grandes causes, auquel on aurait ôté ainsi les dernières objections éthiques qui se dressent encore sur sa route. Suivre ce retournement de la fausse critique en perfectionnement d’un système de domination explique aussi pourquoi le livre a été tellement applaudi.

Sandrine Aumercier, 15 juin 2020

Ce texte est initialement paru sur le site iatranshumanisme.com le 4 février 2020. Il en a été retiré depuis.


[1] Cathy O´Neil, Algorithmes, la bombe à retardement, Paris, Les Arènes, 2018 [2016].

[2] Marc Andreessen, « Why Software Is Eating The World », The Wall Street Journal, 20 août 2011. En ligne : https://www.wsj.com/articles/SB10001424053111903480904576512250915629460

[3] Kevin J. Ryan, « What Elon Musk Really Thinks of Artificial Intelligence and Why You Schould Care », Inc., 27 mars 2017. En ligne : https://www.inc.com/kevin-j-ryan/elon-musk-vanity-fair-profile-artificial-intelligence-fears.html

Quelle forme de complicité a rendu Facebook possible ?

L’exemple de Facebook permet de remonter à la racine d’une « responsabilité du clic » associant le réflexe corporel — celui de cliquer, commun à toute l’économie du net — et le succès fulgurant d’une révolution globale non pas tant numérique (comme on se plaît à le dire) que politique. [1] Facebook peut être considéré comme un exemple princeps de ce que Foucault nommait les « techniques du corps », exemple dont la valeur repose ici sur sa portée contre-intuitive, puisque l’Internet est réputé réaliser le triomphe de « l’immatériel ». Ainsi, la mystification est totale. La focalisation imaginaire sur la production des biens physiques — telles une voiture ou une paire de chaussures — fait volontiers oublier aux militants écologistes combien les réseaux ont accaparé un potentiel de croissance économique exponentielle qu’eux-mêmes hésitent à intégrer dans leur critique, en raison d’un désir de propager leur propre audience par ces moyens-là, désormais déclarés incontournables. Cette croissance est destinée à devenir ubiquitaire avec l’implantation du réseau 5G (de cinquième génération) et la généralisation de l’Internet des objets, ce qui montre à rebours que le capitalisme n’a pas dit son dernier mot sur les objets matériels : il s’agit par là de créer de toutes pièces une nouvelle phase d’accumulation qui ne laissera aucun geste quotidien en dehors de son emprise jusqu’à s’implanter dans le corps humain. Il s’agit de coloniser sans reste toute chose et tout être, et même les flux de pensée, avec notre consentement imperceptible, au nom de l’argument selon lequel il n’y a rien de mal à promouvoir des technologies si pratiques et si rapides. La croissance économique se présente ainsi sous les espèces d’une communication inoffensive, qu’il convient seulement de « faciliter » dans l’intérêt de tous, au service de bonnes causes, alors qu’elle vise à absorber l’ensemble des sphères non économiques dans sa progression dévorante. Ce faisant, elle parachève l’intégration de toute critique dans l’escarcelle de sa propre valorisation. Elle réussit à éliminer son propre dehors en contribuant à l’inanité de toute opposition politique — ceci dans la mesure même où elle prétend faciliter la diffusion de causes politiques. L’argument selon lequel on doit à Facebook (et d’autres réseaux sociaux) le départ et la diffusion de contestations sociales doit être analysé à l’aune de la croissance de Facebook lui-même, qui, pendant qu’on poussait les représentants de l’État à la démission, engrangeait les bénéfices cachés de ces révoltes : nous avons insensiblement changé de maîtres. La critique de la croissance peut ainsi en rester à la critique fétichiste des objets physiques en éludant les progrès d’une infrastructure de la communication prétendument acceptée pour la bonne cause. Ce faisant, elle nourrit un capitalisme à qui elle demande en même temps de décroître ou de disparaître. Cela démontre par les faits l’inconséquence d’une critique qui ne va pas jusqu’à considérer sérieusement l’affirmation de MacLuhan sur l’identité du message et du média. Que ne faut-il de naïveté ou d’idéologie pour penser qu’une bonne idée se suffit tellement à elle-même qu’elle n’a pas à s’interroger sur ses voies de médiatisation !

Facebook offre un cas d’espèce qui permet de définir un certain type d’enrôlement subjectif et d’éclairer la nature de certains compromis apparemment sans retour. La rumeur qui parlait d’une candidature de Zuckerberg aux élections américaines est à prendre au sérieux, même si la réputation de l’entreprise est désormais entachée : nous savons que le scénario d’un président milliardaire sans expérience politique est possible, aussi le scénario d’un milliardaire de la Silicon Valley président des États-Unis n’est pas exclure. Comme chacun sait, Mark Zuckerberg a dû répondre en 2018 devant le Sénat américain et le Parlement européen du scandale de la vente des données personnelles à Cambridge Analytica, c’est-à-dire pour avoir transgressé le respect de la vie privée des utilisateurs et avoir permis que soient influencés les résultats des présidentielles Américaines. Mais la dénonciation aussi irrégulière qu’inefficace du monopole des GAFAM [2] semble incapable de mener à une poursuite juridique à l’aide des seules lois antitrust américaines, en raison de l’intérêt pour le bien commun dont se targuent les géants du monde numérique : investissement dans la recherche scientifique (qui est cependant bien davantage qu’une recherche désintéressée puisqu’elle porte un vaste projet de société) et accession des particuliers à une multitude de services « gratuits ». Ces lois américaines qui surent dans le passé conduire au démantèlement d’entreprises aussi influentes que la Standard Oil ne s’appliquent plus à la situation actuelle. C’est pourquoi un auteur libéral comme Luc Ferry n’a rien de mieux à proposer aux Européens que de créer leur propre GAFAM. Leur monopole et leur ascension politique a déjà réussi la paralysie du monde politique, au point que la seule « alternative » aux GAFAM américains serait des équivalents européens, ce que les Chinois ont bien compris avant tout le monde avec leurs BATX [3]. L’arrogance européenne consistant à considérer par provision l’Europe comme naturellement porteuse de valeurs plus hautes — capable de transcender les horreurs américaines et chinoises — est une fois encore sans limites. Mais la menace que font peser les GAFAM sur l’économie et la politique elles-mêmes est la raison pour laquelle ces entreprises sont désormais dans le viseur de tout le spectre politique de droite comme de gauche, y compris américain : elles sont déclarées contrevenir aux règles minimales du libre-échange et inquiètent donc non pas tant pour leurs vertus capitalistes que pour leur nature anticapitaliste [4], comme un tricheur à qui on rappelle les règles du jeu, sauf que c’est désormais le tricheur qui fait les règles. Il n’est donc pas étonnant qu’une libérale comme Margrethe Vestager, commissaire européenne à la concurrence (et devenue en décembre 2019 vice-présidente de la commission européenne en charge du numérique), ait fait de la lutte contre les GAFAM son plus grand défi. Comment en sommes-nous arrivés à une situation où des entreprises en situation de monopole mondial sont devenues à ce point capables de dicter les règles du jeu politique ? Il est possible d’étudier toute la stratégie commerciale de ces firmes pour en tirer des conclusions sur leurs ambitions politiques, dont le transhumanisme est le fleuron idéologique. Mais cette approche ne suffit pas : elle n’explique pas la protestation persistante des utilisateurs même les plus gauchistes et les plus anticapitalistes en faveur de Facebook « malgré leur répugnance », et ceci en dépit des nombreux signaux d’une modification sournoise et fondamentale de la vie politique que Facebook et d’autres ont déjà enclenchée et bientôt remportée. Il n’est que de voir le nombre de lieux qui se disent anticapitalistes et alternatifs, dont le compte Facebook est mieux mis à jour que leur site Internet : ce qui contribue de fait soit à forcer le sympathisant à ouvrir un compte Facebook pour accéder aux contenus, soit à l’exclure de ces mêmes contenus s’il persiste à refuser de se joindre à la communauté Facebook. On conviendra que c’est là un comble pour toute pensée critique. Qu’on en juge par les propos sans fards de Peter Thiel, fondateur de PayPal, actionnaire de Facebook, transhumaniste, libertarien élitiste et adversaire résolu de la démocratie : « Nous sommes engagés dans une course à mort entre la politique et la technologie. Le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme [5]. » Les États, pour rester dans la course, sont sur une pente glissante : la France des droits de l’homme n’a pas craint de faire passer sans débat parlementaire en 2016 un mégafichier (Titres électroniques sécurisés) qui centralise les informations personnelles et biométriques de tous les Français. L’Europe met à l’essai « à des fins de recherche » un système de contrôle aux frontières européennes (iBorderCtrl) financé par la Commission européenne, qui utilise les technologies de reconnaissance faciale, un détecteur de mensonges et le recueil des données — tout ceci au nom du confort des usagers et de la sécurité collective qui seront les critères décisifs pour l’éventuelle adoption ultérieure de ce système de contrôle. Nous sommes insensiblement, une étape après l’autre, dépossédés du droit de ne pas être traçabilisés et personne ne sait à quoi peut servir dans un avenir incertain la constitution de tels fichiers (dont l’exemple de la Chine donne un certain avant-goût). Il n’y a aucune raison de penser qu’ils ne vont pas continuer de s’étendre en volume et en applications, toujours pour la bonne cause. « On vous protège », affirme désormais péremptoirement le métro parisien pour justifier les caméras de surveillance. Le progrès technologique est vu ici comme un développement autonome, naturel, cosmique en somme, contre lequel seules des interdictions puissantes auraient peut-être une chance de nous sauver du désastre. Il n’y a pas de choix ; il n’y a que des permissions ou des interdictions, des évitements ou des facilitations d’un phénomène qui, pour ainsi dire, se passe sans nous (dans la droite continuation du fétichisme du progrès). Pendant ce temps, nous continuons de nous enfoncer mollement dans la consommation numérique comme dans un sommeil de nos facultés critiques. Je prie le lecteur d’imaginer sur quelle pente nous mène ce faisceau de tendances qui concourent, mises ensemble, à transformer la planète en lieu invivable et sans échappatoire et l’humanité à un troupeau d’enfants qu’on dresse, qu’on surveille, qu’on protège et qu’on évalue.

Or tout se passe ainsi comme si nous avions (presque) tous voté pour Facebook et que nous considérions cette dictature d’un genre nouveau (sans doute difficile à décrypter aux habitudes héritées de l’histoire des dictatures) comme la seule option possible, rapportée à une inoffensive évolution des pratiques — du moins aussi longtemps que quelqu’un d’en haut ne nous en aura pas libérés, comme des enfants pris au piège. C’est dans ce contexte qu’il convient de replacer la demande répétée aux institutions européennes de nous libérer des GAFAM. Se peut-il que tout le monde s’en serve, mais que personne n’en veuille ? Voulons-nous ce que nous désirons, pour reprendre une formule de Lacan ? Personne ne se risque à dire sur quel modèle économique l’Europe pourrait sortir des GAFAM, étant donné qu’une version européenne des GAFAM fondée sur le même modèle économique n’aurait évidemment rien d’émancipateur, sauf à supposer qu’un label européen serait naturellement plus moral qu’un label étranger, comme tend à le croire le vieux chauvinisme européen. Quoi qu’il en soit, les politiques nationales et européennes sont dans l’impasse et leurs représentants sont détestés à la mesure de l’attente exorbitante à leur endroit.

Que dire ici des utilisateurs de Facebook ? Ils ne semblent à tout le moins pas faire grand cas ni de leurs données personnelles, ni des projets qu’elles permettent de financer, ni des influences qu’on exerce sur eux. Pourquoi en effet poursuivre les entreprises si le public en redemande ? La même personne qui ne se déclare pas prête à quitter Facebook peut à la fois critiquer la viduité de la plus grande partie des communications échangées sur Facebook, jouer tout de même les « infiltrés » et en appeler à la lutte active contre les GAFAM [6]. De manière caractéristique, cette argumentation manie soumission et fausse critique sans rien trancher sur le fond. À côté de l’argument pratique, il se développe en particulier une série de « justification par l’infiltration » : être présent sur Facebook permettrait justement d’observer Facebook, voire permettrait de répandre à grande échelle des informations critiques, de lancer des mouvements ou d’accéder soi-même à des informations inaccessibles ailleurs (alors même que tant d’informations sont notoirement des fake news et que tant d’autres sont censurées). Voyons plutôt ce que déclarait l’une des collaboratrices de Facebook au souvenir de l’introduction des News Feed en 2006 :

« Nous nous sommes réveillés avec des centaines de milliers de gens indignés. Pendant la nuit, des groupes Facebook comme ‹ je déteste newsfeed ›, ‹ Ruchi [la collaboratrice en question] est le diable › s’étaient constitués. Des reporters journalistiques et des étudiants étaient campés devant les bureaux. Nous avons dû nous faufiler discrètement par la sortie arrière pour quitter le bureau. Des tas de gens nous demandaient de fermer définitivement News Feed. Et la plupart des autres entreprises auraient exactement fait cela, en particulier si 10 % de leurs usagers menaçaient de boycotter le produit. Mais nous ne l’avons pas fait… En fait, News Feed a marché. Au milieu de tout ce bazar, de toute cette indignation, nous avons remarqué quelque chose d’inhabituel. Bien que chacun prétendait le détester, l’activité avait doublé [7]. »

La mesure de l’action plutôt que celle de l’opinion aura ici été déterminante : non pas ce que vous dîtes, mais ce que vous faites. C’est bien le coup de clic qui aura été décisif, cette sorte de réflexe inscrit dans la peau des utilisateurs de l’ère numérique. Cela porte un nom en économie néoclassique : ce sont les préférences révélées [8]. L’écart entre l’indignation affichée des utilisateurs et le succès réel de la chose (« News Feed a marché… l’activité avait doublé ») justifie la poursuite de l’entreprise, ressort ultime de son ascension. Le compromis passé à ce moment-là ouvre une voie qui, semble-t-il, est sans retour : une fois que ce cap fut franchi, Facebook devint en quelques années toujours plus puissant et politiquement hors d’atteinte. Les conditions d’installation initiales furent comme frappées de refoulement. Le compromis originel devient illisible dans ce que Freud nomme les phénomènes de déplacement ou de condensation : le destin du compromis est d’avoir effacé ses propres traces. Il n’empêche que le monde numérique est plein de repentis, tel le fondateur de WhatsApp qui, après avoir revendu l’application à Facebook investit désormais dans la protection des données, laquelle ne change rien au modèle économique de Facebook : elle renforce au contraire sa légitimité écornée. L’opinion d’une gauche imbue d’elle-même selon laquelle nous ne voulons pas de ce modèle de société est contredite par l’’ascension arrogante de ce même modèle assise sur une complicité généralisée. Se peut-il alors que les gens ne reçoivent pas autre chose en fait que ce qu’ils veulent vraiment ? Leur véritable désir est-il celui, pur, qui précèderait le moment de corruption, ou bien celui révélé par l’offre qu’ils acceptent gracieusement ? Cette spirale rétroactive ne se ferme sur aucune ontologie subjective susceptible d’endosser l’entière responsabilité du circuit de l’offre et de la demande. Leur vrai désir n’est certainement ni l’un ni l’autre : le désir n’a pas de substance. Lacan a dit que le désir de l’homme, c’est le désir de l’Autre : toutes les gesticulations sur mon désir insatisfait ne valent pas un instant de considération si mon adresse constitue un ralliement secret à cet Autre incarné dans le discours du moment – en attendant le prochain discours. À charge donc pour le critique d’incarner un autre discours. Le moment fictif de corruption (celui où un utilisateur se met agir d’une manière qu’il réprouve ou prétend réprouver) est lui-même ce point évanouissant d’une subjectivité impossible à objectiver à la fin autrement que dans la somme de ses actes. L’autre sujet, celui de l’inconscient, celui qui articule la structure « je sais bien, mais quand même… », n’est justement pas lisible dans l’ordre du monde algorithmique. Que vous ayez un doute, une mauvaise conscience ou un repentir ne compte pas pour les big data, qui ne font que totaliser des actes. Il s’ensuit que ce réseau social est probablement l’entreprise la plus populiste au monde, à savoir qu’il accorde une certaine fonction politique à la multitude dont il révèle ou façonne une préférence en supplantant imperceptiblement dans son creuset algorithmique toutes les formes connues d’organisation politique.

Mark Zuckerberg ne cesse de protester ingénument (lui aussi) du fait qu’il n’avait aucune autre intention que celle de lancer un réseau efficace et enrichissant pour les utilisateurs. Il nous semble décidément n’avoir à faire qu’à une humanité exclusivement soucieuse de générosité et de partage. Mais l’histoire de Facebook montre que la bonne intention dérape à un endroit de sa collusion obscure avec l’Autre au cours de son processus de multiplication. N’est-ce pas à juste raison que Zuckerberg ne manque jamais de remercier les utilisateurs de l’avancement de son grand projet universel ?

« À un moment, il [Mark Zuckerberg] décida que le principe universel qui vaut ici, c’est celui de l’acte d’engagement. Ce à quoi nous devrions vraiment prêter attention, ce dont il s’assurera que nous y prêtions attention, ce sont les choses qui génèrent de l’engagement. […] Le behaviourisme est ancré dans Facebook. Facebook n’en a pas fait mystère. Facebook est constamment en train d’ajuster ses algorithmes pour essayer de commuter nos états émotionnels positifs, qu’on appelle habituellement le bonheur. C’est l’une des raisons pour lesquelles Facebook mesure le bonheur du mieux qu’il peut, ou du moins c’est ce que pensent ses administrateurs. Voilà pourquoi ils ont conduit des études sur le changement de l’humeur (et cela leur causa des problèmes). C’est le genre d’ingénierie sociale qu’ils veulent mettre en place. C’est l’une des raisons pour lesquelles ils essayent d’appliquer le principe de mesure hédoniste à toutes les espèces [9]. »

Or Zuckerberg n’a pas mieux à promettre que ses investissements dans le domaine de la connexion télépathique universelle et la disparition de toutes les maladies de la terre, projets qui en d’autres temps seraient passés pour ceux d’un dangereux psychopathe. Lorsqu’il dévoile son projet d’interface cerveau-ordinateur, qui serait capable de transformer le flux des pensées en données partageables et en interaction directe avec les objets connectés, il n’a aucune raison de douter qu’une telle technologie trouvera des utilisateurs, conformément aux principes qui ont fait leurs preuves jusqu’à présent : « Je suppose que ce serait quelque chose que quelqu’un choisirait d’utiliser comme produit [10]. » Le fantasme de symbiose technologique tire son ressort de la promesse de surmonter la division du sujet par la fusion de l’environnement et de l’individu — en quoi notre civilisation s’avance dangereusement au bord de l’abîme de la responsabilité. Ceci dit indépendamment de la faisabilité de ce projet, qui reste bien sûr incertaine.

Et tandis que la seule solution, mais la plus improbable d’après certains critiques, serait de quitter massivement Facebook, on argue en face qu’il est peine perdue de quitter Facebook (les données étant récoltées partout ailleurs, autant dire qu’il est trop tard) et qu’on ne voit pas comment garder contact avec famille et amis, organiser un événement d’envergure ou lancer un mouvement contestataire sans un service équivalent à celui de Facebook [11]. Si une étude déplorait un quart de fermeture de comptes Facebook par les utilisateurs américains lors du deuxième trimestre 2018 (mais seulement environ 1 % de baisse d’utilisation active en Europe), Facebook n’est pas menacé et détient suffisamment d’autres services par ailleurs. Chacun sait que lorsque les utilisateurs sont lassés d’un service, il suffit — c’’est de bonne guerre capitaliste — d’en proposer un nouveau. Ce point de fuite est caractéristique d’une incapacité croissante des peuples et des individus à dire non, le refus ponctuel étant de toute façon immédiatement réorienté vers une nouvelle offre. Il faut donc le dire : Mark Zuckerberg a dû répondre des opérations de son entreprise, mais les utilisateurs sont à la fin lavés de toute responsabilité. Eux n’ont que de bonnes raisons, ludiques ou sérieuses, et toujours déclarées « pratiques », de rester utilisateurs d’un réseau qui, en vérité produit une accumulation capitaliste exponentielle grâce à leurs données personnelles et met en œuvre une révolution politique. Or ce n’est pas le règlement général sur la protection des données (RGPD) qui change quoi que ce soit à cette politique ; ce dernier parachève la perversion en permettant la récolte des données… avec votre consentement obligatoire, même si celui-ci est obtenu en un clic négligeant. Même si la case cochée par défaut n’est plus légale, on peut se demander quel utilisateur lit à chaque fois l’intégralité des conditions d’utilisation et s’embête d’un long détour pour refuser son accord. De plus le RGPD ne s’applique qu’en cas d’identification personnelle des données, mais ne s’applique pas à leur recueil anonyme à des fins statistiques (certains types de cookies), ce qui égare l’utilisateur. Il s’ajoute à cela un certain nombre de détournements des conditions d’utilisation qui ont été dénoncées en France par l’association la Quadrature du Net. La tactique du plus malin caractérise le recueil du consentement qui n’est pas du tout aussi « univoque » que le prétend le RGPD. En pratique, c’est une demande fastidieuse répétée à chaque nouveau site, renouvelable régulièrement, soumise à des conditions d’utilisation et à des paramétrages qui n’intéressent pas le profane. Le consentement s’obtient en harassant l’utilisateur par une demande répétée faîte dans des conditions qui dérangent sa navigation. Or le consentement obtenu de cette manière est d’ores et déjà l’argument imparable de Facebook dans les plus récentes accusations de collecte de données qui se poursuivent en contournant le règlement européen par le biais d’applications mobiles, faisant de l’utilisateur un « complice [12] » par sa négligence même à vérifier les conditions d’utilisation au moment de l’installation d’une application. Nous retrouvons au cœur de la question de la responsabilité la notion de consentement qui est tout sauf « univoque », contrairement à ce que prétend le RGDP. C’est plutôt en se fondant sur une équivoque fondamentale du consentement que Facebook peut continuer à déployer son modèle commercial. Comment Facebook cesserait-il, du reste, de collecter des données, puisque tout son modèle politique et commercial est bâti là-dessus ? Pourquoi fait-on mine tous les quatre matins de redécouvrir la même chose et de s’en offusquer ? Seule l’interdiction pure et simple de l’utilisation commerciale des données mettrait en péril le monopole, voire l’existence de Facebook. Au risque d’avoir un tiers de l’humanité en révolte pour défendre leur réseau social ?

Le mythe d’un Facebook générateur de rassemblement horizontal et de révolutions sociales (printemps arabes, gilets jaunes) oublie que ces révolutions sont retombées comme des crêpes, débouchant ici sur de nouvelles dictatures, là sur des réclamations populistes qui ne démontrent aucunement la capacité des citoyens à concevoir et organiser une nouvelle société, car une nouvelle organisation demande, comme disaient les surréalistes, de changer la vie et non pas seulement de répandre des mots d’ordre sur les réseaux. On ne pourra changer la vie qu’en reprenant la main sur les circuits de production et de décision politique. La « communauté globale » que promeut Facebook pour faire face aux défis globaux (tels le terrorisme, la crise des réfugiés ou le changement climatique [13]) ne démontre que l’ambition de son fondateur, pas seulement de renvoyer à la société son miroir supposé, mais aussi d’être à la source d’un changement mégalomane de société auquel chacun de nous a renoncé à toute petite échelle (à l’échelle de changer la vie). C’est ainsi qu’un enchaînement d’effets de masse conduit un fantasme ordinaire (qui ne voudrait sauver le monde ?) mais réprimé vers un effroyable degré de réalisation parfaitement combiné à l’apathie générale. Il repose sur la réorientation de toute activité de changement politique vers une émotion cliquée. Chacun s’émut d’apprendre que « la démocratie est menacée » lorsqu’une frange d’électeurs fut subrepticement influencée pendant la campagne politique de Donald Trump : mais qui met en doute la psychologie behavioriste rudimentaire qui fonde cette affaire, selon laquelle il suffit d’envoyer un message ciblé à la bonne frange d’électeurs et au bon moment pour faire tourner le vent politique ?

L’idée fondamentale est que les électeurs, comme les consommateurs, sont des sortes d’animaux manipulables à volonté, et non des sujets responsables de leur vote, quelque légère ou versatile que soit leur opinion. C’est une vision qui n’est ici pas un instant mise en doute : l’homme est un animal qui répond à des signaux. Il n’est donc pas responsable de ce qu’il fait et il convient uniquement de s’assurer de lui trouver un maître pas trop mauvais ou de vérifier les signaux qui lui sont envoyés, au cas où ils seraient malveillants, racistes, sexistes ou encore simplement faux. Il faut protéger la petite tête influençable du citoyen. Il y a beaucoup plus de souci à se faire sur cette définition animalière de l’homme réagissant au premier stimulus venu (comme si rien ne venait de lui et qu’il n’avait aucune responsabilité dans sa réponse) que sur les politiques d’un Trump ou d’un Zuckerberg qui du reste ont été portés au sommet par les peuples — l’un par le vote politique, l’autre par le vote économique. Deux formes de choix social qui ont bien en commun certains principes et certains paradoxes, notamment celui de ne jamais pouvoir refléter le désir supposé de l’individu, et donc de pouvoir donner lieu à des résultats collectifs aberrants, qui relancent, à rebours, l’insondable question de leur rapport à l’individu. Ce dernier évitera ainsi de se demander ce qu’il a à voir avec un résultat collectif dont il croyait ne pas vouloir. L’individu, citoyen ou utilisateur, préférera rejeter en bloc les élites et les représentants, accusés d’avoir menti sur la marchandise, plutôt que de remonter à la racine du compromis passé avec les forces qui le dépossèdent de son pouvoir d’agir. L’exemple de Facebook et d’autres plateformes à l’ascension fulgurante met en évidence par quel compromis imperceptible nous mettons le pied dans un engrenage qui ne tarde pas à apparaître ensuite comme une machine écrasante sur laquelle l’individu n’a plus aucune emprise. Facebook représente en ce sens le récapitulatif fulgurant de toute l’histoire du capitalisme.

Sandrine Aumercier, décembre 2019


[1] Cet article correspond au treizième chapitre de l´ouvrage paru le 5 décembre 2019, reproduit ici avec de légères modifications avec l´accord de l´éditeur : Sandrine Aumercier, Tous écoresponsables ? Capitalisme vert et responsabilité inconsciente, Libre & Solidaire, 2019. Site de l´éditeur : https://libre-solidaire.fr/

[2] Google, Amazon, Facebook, Apple, Microsoft.

[3] Baidu, Alibaba, Tencent, Xiaomi.

[4] Larry Elliott, « Is it Time to Break Up the Tech Giants Such as Facebook ? », The Guardian, 25 mars 2018.

[5] Fabien Benoit, « Peter Thiel, l’homme qui voulait achever la démocratie », Usbek et Rica, 17 juin 2018. En ligne : https://usbeketrica.com/article/peter-thiel-l-homme-qui-voulait-achever-la-democratie

[6] Olivier Erztscheid, « Pourquoi je ne quitte pas (encore) Facebook », Libération, 24 avril 2018.

[7] Ruchi Sanghvi, post Facebook, 06 septembre 2016, cité par Andrea Huspeni, « Mark Zuckerberg Reveals the 5 Strategies that Helped Facebook Grow at an Insane Rate », Entrepreneur, 25 mai 2017, en ligne : https://www.entrepreneur.com/article/294787.

[8] Olivier Mongin, « Les préférences révélées et la formation de la théorie du consommateur », in Revue économique, vol. 51, n° 5, septembre 2000.

[9] Alexis C. Madrigal, « Were We Destined to Live in Facebook’s World ? », Entretien avec Siva Vaidhyanathan, The Atlantic, 24 juillet 2018, en ligne : https://www.theatlantic.com/technology/archive/2018/07/were-we-destined-to-live-in-facebooks-world/565877/

[10] Noam Cohen, « Zuckerberg Wants Facebook to Build a Mind-Reading Machine », Wired, 7 mars 2019. En ligne : https://www.wired.com/story/zuckerberg-wants-facebook-to-build-mind-reading-machine/

[11] Brian X. Cjen, « Want to #DeleteFacebook ? You Can Try », New York Times, 21 mars 2018.

[12] Hatim Boumhaouad, « Exploitation des données personnelles par Facebook : l’usager est-il complice ? », The Conversation, 7 avril 2019. En ligne : http://theconversation.com/exploitation-des-donnees-personnelles-par-facebook-lusager-est-il-complice-114576

[13] Alexis C. Madrigal, « The Education of Mark Zuckerberg », in The Atlantic, 20 novembre 2017. En ligne : https://www.theatlantic.com/technology/archive/2017/11/the-mark-zuckerberg-theory-of-community/546290/

Human-made-decision versus machine-made-decision

Souvent, dans des situations complexes mettant en jeu des conflits de valeur, des conflits d’intérêts ou des incertitudes sur son véritable désir, on ressent une angoisse de ne pas savoir prendre « la meilleure décision » et on fait tout pour s’en remettre à l’avis d’un tiers. Parfois, on est tenté de consulter une série de personnes ou de pages web et de tirer de cette consultation une position qui refléterait soit l’opinion majoritaire, soit l’opinion moyenne, soit une opinion experte. Cette démarche peut égarer davantage, si la consultation amène de nouveaux paramètres qui s’ajoutent aux éléments déjà existants. Mais elle peut être un soulagement si l’on décide de s’en remettre à une autorité avisée, qu’elle soit représentée par une personne ou par la fiction d’une décision « bien pesée », laquelle peut être figurée par une liste comparée des arguments positifs et des arguments négatifs, avec, pourquoi pas, des coefficients d’importance. La décision finit donc par s’apparenter à un problème mathématique qu’il faut résoudre correctement. L’observation psychologique élémentaire montre pourtant que les sujets ne sont jamais satisfaits avec la perte d’une option. Le choix manifeste se présente comme un choix équivalent entre A et B, mais le choix fondamental inclut aussi la souffrance durable de « non-A » ou « non-B ». Il n’existe donc pas dans l’absolu « la meilleure décision » et l’éthique consiste à laisser cette question ouverte malgré le malaise apparemment insupportable qu’elle provoque.

Le fantôme de la perte hante les mortels que nous sommes. Le cas de conscience ou encore le dilemme cornélien suppose que toute décision entraînera une perte pour le sujet ou une entorse morale. Kant a d’avance évité tout dilemme de ce genre en disant que le devoir inconditionné de dire la vérité impliquait nécessairement de pouvoir le cas échéant dénoncer son ami, même s’il devait en résulter des conséquences fâcheuses [1]. C’est que Kant mettait le devoir de dire la vérité au rang de devoir suprême, au principe même de l’établissement d’un pouvoir politique. Ce devoir ne souffrait donc pas d’exception. L’architecture du système kantien en dépendait. On voit tout de suite ce qui pourrait s’ensuivre si on prenait Kant à la lettre au moyen d’une intelligence artificielle capable de détecter le mensonge, telle le système DARE [2]. Notre seule chance d’échapper à la potentialité terrifiante d’un pouvoir politique capable de détecter le mensonge dans toutes les situations cruciales est de retourner Kant contre Kant en lui opposant l’autonomie de la raison humaine, qui reste au principe de la philosophie kantienne.

Freud, lui, ramenait les rationalisations à un fond de « préférences pulsionnelles [3] » issues de la vie sexuelle infantile refoulée, ce qui achève de jeter le trouble dans la discussion morale. Car que pouvons-nous dire d’une préférence inconsciente ? Et que pouvons-nous en faire ? Précisons au passage — afin de prévenir un cliché répandu — que Freud ne fait pas par là l’apologie de l’irrationnel, d’une part parce que la préférence inconsciente répond tout à fait à un type de rationalité, et d’autre part parce que la vie pulsionnelle ne dédouane pas la raison de s’exercer, fût-ce à titre secondaire. Le désir inconscient ne consiste pas en motifs psychologiques, mais en une autre rationalité, laquelle adresse au sujet un défi logique qui s’exprime dans toutes les productions de la pensée (même les mathématiques). Il y a quelque chose en nous qui nous envoie une question que nous prenons au sérieux lorsque nous exerçons notre faculté de raison pour tenter de résoudre les problèmes logiques qui se posent à nous du fait de notre vie pulsionnelle.

Le dilemme du tramway est l’une de ces célèbres apories remises au goût du jour par le problème de la programmation des voitures autonomes. L’auteure de l’article fondateur confronte le lecteur avec diverses situations de dilemme (et non pas une seule) qui déclinent différentes modalités de l’intention et de l’exposition aux effets collatéraux ou encore aux « doubles effets », à partir du dilemme de l’avortement au sein de l´Eglise catholique [4]. Philippa Foot discute des exemples casuistiques destinés à fournir un critère moral distinctif dans des situations vitales où une vie humaine doit être sacrifiée au bénéfice d’une ou plusieurs autres. La discussion est, on le sent, menacée de relativisme. L’auteure parvient seulement à la conclusion que le critère pertinent ne saurait être uniquement la taille du mal infligé pour un moindre mal (critère quantitatif), mais aussi la nature de l’action entreprise pour l’éviter. Par exemple, le cas du véhicule choisissant de tuer une personne plutôt que cinq n’est pas équivalent à la décision de livrer une personne à un preneur d’ôtage pour en délivrer cinq. Pour résumer son argumentation, l’article ne semble avoir aucun doute sur la nécessité de sauver le maximum de vies quand nous sommes confrontés à deux devoirs négatifs (soit tuer une personne, soit en tuer cinq) ; le doute moral porte en revanche sur l’action positive de sacrifier une vie pour en sauver une ou plusieurs autres à partir de la distinction opérée entre devoir négatif (ne pas infliger de tort) et devoir positif (apporter de l’aide). L’argumentation de l’auteure la conduit à justifier sans hésiter l’histoire des marins qui survivaient à la faim en consommant l’un d’entre eux. Disons-le, l’argumentation est quelque peu abstruse, tout comme celle d’autres articles qui ont suivi cette tradition [5]. L’embarras des auteurs est patent. Il semble qu’ils soient occupés à fonder à grand peine une morale déontologique à partir de prémisses conséquentialistes posées par le setting initial. Ce qui ne réussit pas complètement, parce que l’opération risque à tout moment de fournir des résultats contre-intuitifs. Le devoir brut de sauver cinq vies plutôt qu’une ne semble poser de problème à personne, tant que la question reste posée au niveau abstrait ; les scrupules s’élèvent quand on commence à envisager les différents déterminants impliqués dans une situation concrète, où il s’agit d’autre chose que de maximiser le sauvetage de viande humaine. Sinon, nous pourrions en effet attraper le premier passant en bonne santé pour fournir ses organes à plusieurs malades nécessitant une transplantation d’urgence, et argumenter du fait que nous avons de la sorte sauvé plusieurs vies au prix d’une seule : un moindre mal.

Ces discussions sont exacerbées par le développement des voitures autonomes au point que le Massachussetts Institute of Technologie a engagé une vaste consultation publique sur ce sujet à l’aide d’expériences mentales proposées sur un site dévolu à cette question. Moral Machine suggère de déterminer la morale des machines grâce à l’évaluation de la morale humaine à partir d’un constat tourné en fait accompli : « L’intelligence machinique soutient ou supplante entièrement toujours plus d’activités humaines complexes à un rythme croissant [6]. » Le fait que les machines soient intelligentes et prennent des décisions morales n’est pas soumis à la discussion : il s’agit de discuter sur quels principes moraux nous nous accorderons pour programmer ces machines. Et ceci, paraît-il, en puisant dans la morale ordinaire.

Avec la voiture autonome, il s’agit, dit-on, de doter la machine d’une capacité de décision morale qui ne sera pas une capacité aléatoire et faillible comme la moralité humaine. Ce sera la morale ordinaire, mais en mieux. Le public et le constructeur ne souffriront en effet aucun écart dès lors qu’aura été trouvé un consensus sur les principes qui gouvernent l’action de la machine. Personne ne voudrait, n’est-ce-pas, d’un véhicule « qui n’en fait qu’à sa tête ». Le machine learning est toutefois supposé doter la machine de facultés d’apprentissage qui pourraient conduire à ce que dans deux situations identiques, la machine agisse autrement la deuxième fois que la première, ayant appris de la première fois ou d’une autre source de données. Elle n’aura pas pour autant dérogé à l’axiome initial de son paramétrage. Alors que l’humain, lui, pourrait être les deux fois sous l’emprise de deux états différents, imprédictibles et sans corrélation l’un avec l’autre, c’est-à-dire faire valoir un axiome moral différent.

Les problèmes éthiques posés par le véhicule autonome, tout comme d’autres domaines de décisions algorithmiques, supposent implicitement : 1/ que la « meilleure décision rationnelle » existe ; 2/ qu’elle peut être connue ; 3/ que si elle est connue, elle doit être garantie par le programme ; 4/ qu’elle doit être implémentée à grande échelle, voire rendue obligatoire, puisqu’elle est la meilleure. Cette prémisse théologique (qui suppose l’existence d’un souverain bien) ressurgit donc au beau milieu de problèmes qui paraissaient de prime abord d’une grande platitude matérialiste : confort, sécurité, mobilité accrue, etc.

La comparaison avec les risques inhérents à toute technologie, dont certaines déjà anciennes (comme le train ou l’ascenseur [7]) élude la généralisation d’un autre paradigme : le véhicule autonome érige la survie physique en valeur suprême. Tout ce qui optimise la quantité de corps survivants est bien, le contraire est mal. Mais on est aussi forcé par là de dire lesquels. Le rapport rendu en Allemagne par la Commission d’éthique sur la conduite automatisée exclut que les véhicules choisissent certaines victimes plutôt que d’autres selon des critères discriminatoires, mais il affirme que « la conduite automatisée et connectée est un impératif éthique si les systèmes causent moins d’accidents que les conducteurs humains. » Ce n’est rien d’autre que l’argument de Tesla. Cela pourrait justifier de les rendre un jour obligatoires. Le rapport affirme sans ambages : « Sur notre échelle de valeurs, la protection de la vie humaine est un summum bonum [8]. » Il s’agit d’un setting utilitariste fort : il faut maximiser le nombre de vies humaines sauvées, ce que sont déjà sensé faire les politiques de santé publique. Une assertion paradoxale dans un monde menacé de toutes part par des crises notoires, multiples et destructrices, précisément d’origines anthropiques…

Mettre l’accent sur le processus de décision (machinique ou humain) ferait presque oublier que c’est en général une situation soit monstrueuse soit improbable qui accule un sujet à une telle décision. La consultation publique du MIT repose sur des situations fictives. La quintessence de cette spéculation morale est atteinte par le roman le Choix de Sophie, ce qui en explique peut-être le succès. Mais dans les situations ordinaires, les sujets n’ont pas à effectuer des choix aussi radicaux et si, par accident, cette situation se présente, on pardonne n’importe quelle décision. Une situation assez folle peut justifier toutes les réponses inacceptables en temps normal. Il fallait toute la perversion du système nazi pour que des gens se retrouvent dans la situation d’avoir à choisir de sauver un parent plutôt qu’un autre. Lors d’une rafle où les détenteurs d’un coupon jaune (chefs de famille) et les détenteurs d’un coupon bleu (membres de leur famille) devaient se présenter en rang ordonné à la porte du ghetto de Vilnius [9], des chefs de famille étaient placés devant des « alternatives atroces », dit le récit, où ils devaient choisir quels membres de leurs familles inscrire à leurs côtés, par exemple leur mère ou leur femme. L’un racontait : « Je l’avoue : j’aime plus ma mère que ma femme, mais ma femme est la mère de mes enfants et maman est vieille déjà, elle a vécu. » Un autre disait : « J’ai fait enregistrer ma mère comme étant ma femme et ma femme, je l’ai laissée dans un abri. L’homme n’a qu’une seule mère, mais il peut avoir une seconde femme. Si maman disparaît, je n’en aurai plus d’autre, mais si je deviens veuf, je pourrai me remarier. J’ai peut-être mal agi, mais j’ai fait selon mon coeur. J’aime plus ma mère que ma femme. » Un troisième enfin : « Avant de me séparer de ma mère, je suis allé vers elle et je lui ai dit : « Maman, je ne peux pas te prendre avec moi, il faut que je prenne ma femme » [10]. » Ce qui frappe à la lecture de ces témoignages est que d’une part, les gens acculés se montraient étonnamment capables de telles décisions, mais que, d’autre part, ils les prenaient parce qu’un système de terreur les y forçait. La décision prise ne les laisserait plus jamais en paix. La voiture autonome, elle, continuera à rouler tranquillement.

Du statut exceptionnel d’un tel choix dans la vie ordinaire, on passe à un paradigme de programmation, dans un contexte d’implémentation exponentielle de « l’intelligence machinique ». Or, qu’il soit déontologique ou conséquentialiste, un axiome qui prétend incarner un summum bonum à l’échelle universelle permise par les technologies de la communication contient en tant que tel un potentiel effroyable. L’erreur anthropomorphique (répandue) consiste à croire qu’une intelligence artificielle pourrait devenir hostile, c’est-à-dire animée de mauvais sentiments, alors qu’il s’agit, comme le dit Nick Bostrom, du problème des valeurs à implémenter. C’est l’un des problèmes les plus redoutables de l’intelligence artificielle. Une intelligence artificielle encodée selon une ou plusieurs valeurs ne prendra en effet que des décisions conséquentes. Où est le problème direz-vous ? Si l’interdit de l’inceste est aussi universel que l’a dit Lévi-Strauss, alors il n’y a aucun problème à en faire, par exemple, un principe universel éventuellement encodé dans une intelligence artificielle. Sauf que les êtres humains ont de tout temps continué d’avoir affaire à leurs ambivalences et leurs passions, ce qui a finalement créé une immense différenciation des cultures : tout sauf l’application mécanique d’une valeur cardinale. Nous lui devons l’histoire de la culture.

En vérité, cette discussion éthique nous amène aux confins de l’éthique, là où l’éthique est incompatible avec l’universalisation d’un seul axiome (n’en déplaise à une lecture étroite de Kant, qui confondrait universalisation et généralisation), et là où elle implique nécessairement des valeurs plurielles et un jugement singulier souffrant des exceptions. Ceci est radicalement incompatible avec le fait qu’une machine ait la moindre « décision » à prendre. Le principe cherchant à vendre la voiture autonome par l’argument du moindre risque d’accidents statistiques est un compromis passé avec la mort de l’éthique.

On a beaucoup glosé sur les cas où la voiture autonome devrait tuer une personne pour en épargner cinq, et discuté entre autres de savoir si la vie du passager avait la priorité sur la vie d’un passant. Que se passerait-il si d’aventure la voiture autonome devait froidement choisir entre ma mère et ma femme ou bien entre mon fils et ma fille, ou bien entre une personne jeune et une personne âgée, ou bien entre un homme et une femme, et ainsi de suite ? Le rapport de la Commission éthique allemand exclut formellement un tel choix. Mais les éthiciens en appellent pourtant à des machines « empathiques ». Le vieil adage « les femmes et les enfants d’abord ! » est-il obsolète dans une société égalitariste ou bien est-il exigible d’une machine dotée « d’empathie » ? Nous exigeons de la machine qu’elle soit d’une équité irréprochable mais aussi qu’elle soit en « empathie » avec les émotions humaines, un peu comme la quadrature du cercle… C’est bien sûr encore une fois oublier que la soi-disant empathie de la machine sera encodée, simple reflet anthropomorphique de nos propres contradictions.

En l’absence de réponse consensuelle à de telles questions, il ne faut pas exclure la possibilité qu’un programme soit doté d’une capacité de décision aléatoire dans les cas éthiquement indécidables (la voiture pourrait devoir tirer au sort entre ma mère et ma femme, ou entre un adulte et un enfant). Il est probable qu’en situation analogue un humain effectuerait un choix subjectif inhérent à la singularité de la situation, même s’il est vécu comme un choix tragique, comme dans les témoignages évoqués ci-dessus. Les sondages montrent par exemple que la majorité des gens privilégient la vie d’un enfant sur celle d’un adulte ou celle du conducteur sur celle du passant. Mais de ce que ce choix puisse être effectué dans des situations exceptionnelles ou spéculé en réponse à un sondage, s’ensuit-il qu’il doive devenir une norme ? Les constructeurs, quant à eux, craignent surtout qu’un véhicule autonome qui ne ferait aucune préférence entre le conducteur et les passants ne serait acheté par personne, or il y a une volonté économique et politique de généraliser ce système, sans interroger l’amoralisme intrinsèque qui consiste à remplacer la responsabilité humaine par un algorithme. Tout se passe comme si la décision de généraliser les voitures autonomes était déjà prise (même si cette décision revenait à vendre notre âme), et qu’il ne s’agissait désormais que de vendre le meilleur argument éthique au public un peu inquiet. On va douc vous expliquer pourquoi la machine est plus morale que vous-mêmes.

Mais si le véhicule autonome semble actualiser le dilemme du tramway, ce n’est qu’une apparence. Il ne s’agit plus de délibérer sur un improbable conflit subjectif (à savoir si vous préférez sauver votre mère ou votre femme, une personne ou cinq, un enfant ou un adulte, aussi sordide soit la question), mais d’octroyer au type d’axiome moral retenu une extension telle (due à son échelle d’application) qu’elle façonnera de manière rétroactive la normativité, elle-même enfermée dans une boucle d’auto-confirmation. L’apparition et la systématisation du véhicule autonome introduit la légitimition d’une hiérarchie du pire au nom de la survie. Ce qui n’est pas l’esprit de l’article de Philippa Foot, qui essayait, certes péniblement, d’y échapper. Là où l’humain fait par la force des événements un choix tragique, circonstancié et toujours unique, la machine fera un choix technique dont le caractère axiomatique aura été en fait déterminé par avance et appliqué aveuglément à l’ensemble des situations identiques. Ce nouveau paradigme sera littéralement lancé sur les routes. Même le machine learning n’apprend qu’à raffiner sa réponse au fil des nouvelles données, réponse qui peut nous surprendre ou nous échapper, mais qui reste subordonnée à l’axiome moral encodé au moment de la conception. (Il ne fait pas de doute que certains rêvent de créer la machine qui saura créer son propre code moral supérieur à celui de notre humaine condition : elle saurait récolter dans les big data toutes les figures de la morale, puis les hiérarchiser et les purifier de toute l’amoralité du monde, selon un critère lui-même soumis à l’arbitraire ultime des visions du monde qui finalement ne fait que repousser le problème ad infinitum. Mais nous n’en sommes pas là.)

C’est pourquoi la machine ne sera jamais éthique et parler de dilemme moral est en l’occurrence fallacieux. Il s’agit exclusivement d’un dilemme fictif qui se passe dans la tête des constructeurs et qui n’a aucun rapport à l’événement ultérieur. Contrairement aux situations décrites par Philippa Foot, le véhicule autonome n’a aucune intention ni consciente ni inconsciente, même pas celle de minimiser le nombre de morts. Il n’est pas sous l’emprise d’un dilemme et il n’est pas mis à l’épreuve. Même si son programme disposait d’un nombre colossal de paramètres contextuels qui lui donneraient l’avantage sur le manichéisme moyen d’un être humain, son action ne représente pas une décision, mais l’exécution d’un ensemble de règles prises en amont. Et même s’il agissait en sorte que l’humain ne soit pas capable de comprendre le résultat (comme c’est déjà le cas dans de nombreux processus algorithmiques, bien qu’on travaille à les rendre lisibles), cela ne serait pas dû à l’esprit subtil de la machine, mais à la complexité du calcul. Par contre, la machine transporte et répand un axiome moral. Faire passer l’action de la machine pour une décision éthique consécutive à un supposé dilemme est en soi un coup de force politique qui occulte la position normative à l’œuvre dans le paramétrage et l’élimination subséquente de toute éthique. C’est là un véritable clivage, qui est soutenu par la résolution du Parlement européen du 16 février 2017 [11] lorsqu’il suggère à la Commission européenne de créer une nouvelle catégorie de personnalité juridique pour résoudre les problèmes de responsabilité ouverts par cette situation et d’autres analogues.  

Quant au rapport de la Commission éthique allemand, il prend précisément argument du décalage entre l’intention et l’acte (la personne sacrifiée n’est pas connue au moment de la programmation, aucune personne identifiable n’est donc instrumentalisée) conjugué à une mimimisation statistique des accidents de la route, pour le retourner en argument éthique : s’il est inacceptable, conformément à loi allemande, de sacrifier une personne pour le sauvetage d’une autre, en revanche « pour autant que la programmation initiale minimise le risque de tous de la même manière, elle était également dans l’intérêt de ceux qui ont été sacrifiés avant d’avoir été identifiés comme tels dans une situation spécifique [12]. » (Ce raisonnement est ici comparé au cas de la vaccination.) Le rapport est formel quant à l’immoralité de devoir mettre en jeu la vie d’une personne pour le sauvetage d’une autre, mais il se contorsionne autour de l’inachèvement d’un consensus quant à savoir si le véhicule pourrait être programmée à sacrifier une personne pour en sauver plusieurs.

Si l’une des critiques adressée à l’époque au dilemme du tramway est de n’être qu’une expérience de pensée, c’est bien parce qu’il n’a jamais été question d’en tirer une ligne de conduite ou un protocole d’action valable en tous les cas. En effet, un simple humain peut être éduqué, entraîné ou commandé à réagir ainsi ou ainsi, personne ne sait cependant comment il agira en situation, car personne ne sait quelle idée, quel réflexe, quel affect surgiront d’un contexte forcément unique. C’est en ceci qu’il est un sujet moral, même quand il agit de manière ignoble. La voiture autonome ne répond de rien, elle exécute ce que son programmeur aura codé par avance, une instance qui se donne à peu près les attributs du Dieu-des-accidents-de-voitures. Si le véhicule autonome se mettait à provoquer certains accidents, rares, qu’un humain n’aurait pas provoqué (tel l’accident provoqué par un véhicule Uber du 18 mars 2018 où les capteurs du véhicule, réglés d’une manière trop lâche, avaient été trompés par un « faux positif » et n’avaient pas su distinguer entre un être humain et une chose quelconque), faudrait-il continuer de faire valoir l’argument selon lequel le nombre d’accident total est inférieur à ceux provoqués par des humains ?

Le paradigme introduit par là est qu’il est possible de décider non par hasard, par réflexe, par passion ou par délibération ad hoc mais par principe que la survie d’une personne vaut mieux que la survie d’une autre, par exemple le conducteur plutôt que le passant, ou que la survie de cinq personnes valent mieux qu’une, là où des humains pourraient assurément privilégier la survie d’un roi, d’un prêtre ou même d’un animal sacré, aussi discutables que paraissent ces options morales. La pluralité des visions du monde — qui constitue le domaine propre de l’éthique — est rendue impossible. L’imprévisibilité qui met à l’épreuve la morale humaine également, de même que la réflexion, la culpabilité, la justification, l’honneur, le doute et enfin l’amour ou la préférence. Une situation humaine ne fait même pas du principe d’autoconservation un principe universel, puisque les cas d’altruisme existent. Au passage, notons aussi que le candidat à l’attentat-suicide prend l’exact contrepied de la morale machinique, en visant le maximum de morts sans considération même de sa propre survie : le parallèle entre le développement historique de ces deux modèles de pensée est saisissant, comme si l’un constituait l’impensé de l’autre. Quoi qu’il en soit, l’humain est obligé d’en passer tôt ou tard par un nouveau jugement qui est un acte singulier. Il comporte une série de considération affectives et symboliques inconnues de la machine. A cela, le rapport répond que, bien entendu, il est prévu que le conducteur pourra à tout moment reprendre le contrôle de la conduite. Mais que signifiera cette possibilité dérisoire s’il s’est déshabitué à conduire (tout comme d’ores et déjà des personnes constatent qu’elles ont perdu l’aisance d’écrire à la main) ?

La prétendue meilleure décision machinique conduit enfin à un dilemme encore plus redoutable qu’on pourrait appeler le dilemme des marins (également évoqué dans l’article de Philippa Foot) : quels humains devraient survivre si les ressources mondiales devaient continuer à diminuer pendant que la démographie et la consommation mondiales ne cesseraient de croître ? Il n’est pas impossible de se représenter la civilisation industrielle comme un bolide qui fonce droit dans le mur. Le véhicule autonome pourrait ainsi s’avérer la métaphore d’un plus gros problème que celui d’un assez banal accident de la route.

Des histoires disent que les marins tiraient au sort celui qui serait mangé pour la survie des autres. Comment exclure qu’une machine soit programmée à choisir « rationnellement » (le choix aléatoire pouvant être une forme de choix rationnel) à trier froidement entre les bouches inutiles et les bouches qui doivent survivre (ou les bouches immortelles, qui ne se nourriraient peut-être pas de pain mais d’énergie, à en croire un scénario post-humaniste) ? Comment exclure, une fois introduit et banalisé, que ce type de choix présenté fallacieusement comme moral, mais dont l’axiome biopolitique fondamental (effectué à l’ombre des paramétrages coupés des situations singulières) est la survie statistique, deviennent l’avenir d’une gouvernance algorithmique, une loi de survie déterminée par une sorte de Dieu-des-catastrophes-globales ? S’il est valable de sacrifier une personne pour cinq, n’est-il pas moralement préférable de sacrifier un ou deux milliards d’êtres humains pour que, par exemple, cinq milliards survivent, si nous sommes tous dans le même bateau ? N’est-ce-pas ce que nous faisons déjà à grande échelle lorsque des populations sont maintenues dans des conditions de vies indignes, végétant sur des décharges, ou lorsque des réfugiés sont reflués au péril de leur vie pour que la « forteresse Europe » ne perde rien de ses privilèges ? Seulement nous ne nous en vantons pas encore publiquement comme de nos plus hautes réussites morales. Nous n’avons pas encore trouvé le moyen de faire passer ces horreurs pour un résultat indiscutablement « éthique ». Contrairement à une telle duplicité humaine, trop humaine, la machine n’aurait pas de scrupules à trancher si l’input « moral » lui dictait que la survie d’un maximum de terriens dépend du sacrifice de certains autres, urgence globale oblige. Enfin, par survie statistique, nous pouvons aussi bien entendre le plus grand nombre de survivants possibles au détriment de certains autres, que la probabilité même d’une survie d’un specimen humain (qui pourrait recycler la vieille histoire de Noé, avec la question de savoir qui montera dans l’arche). Bref, n’ignorons pas qu’implémenter le setting moral du dilemme du tramway, jusqu’ici restreint à des situations ou fictives ou monstrueuses, façonne une vision du monde qui peut avoir des suites d’une autre envergure.

Sandrine Aumercier, septembre 2018.


[1] Emmanuel Kant, « S´un prétendu droit de mentir par humanité », in Théorie et pratique, trad. Françoise Proust, Paris, Flammarion, 1994, pp. 95-103.

[2] https://iatranshumanisme.com/2018/01/14/intelligence-artificielle-detecte-mensonge/

[3] Sigmund Freud, « Über infantile Sexualtheorien », 1908, GW VII, p. 176 ; « Les théories sexuelles infantiles », in La vie sexuelle, PUF, 1969, p. 18.

[4] Philippa Foot, « The Problem of Abortion and the Doctrine of the Double Effect », Oxford Review, Number 5, 1967. En ligne : http://www2.econ.iastate.edu/classes/econ362/hallam/Readings/FootDoubleEffect.pdf

[5] Cf. notamment Judith Jarvis Thomson, «Killing, letting die, and the trolley Problem » in Monist, an International Quaterly Journal of General Philosophical Inquiry, Vol. 59, 1976, pp. 204-217 ; Judith Jarvis Thomson, «The Trolley Problem », The Yale Law Journal, Vol. 94, No. 6, 1985, pp. 1395-1415.

[6] http://moralmachine.mit.edu/

[7] Ethics commission, Federal Ministry of Transport, June 2017, Germany, « Automated and connected driving », p 15. En ligne :  https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.pdf?__blob=publicationFile

[8] Ibid., p 17.

[9] Anciennement nommée Vilna.

[10] Marc Dvorjetski, La victoire du ghetto, cité dans Joshua Sobol, Ghetto, Lyon, La Manufacture, 1986, p. 226-227.

[11] http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//FR

[12] « Automated and connected driving », op. cit., p 15.

Faut-il défendre la culture contre l’homme augmenté ?

L’un des arguments imparables en faveur du progrès technoscientifique veut que l’homme soit technicien depuis l’invention, dès le paléolitique, des premiers outils en pierre taillée. Il n’y aurait depuis lors qu’une évolution continue, dans laquelle « l’homme augmenté » ou encore les technologies d’amélioration humaine [Human Enhancement Technologies] ne représenteraient qu’un pas supplémentaire le long de la série indéfinie des progrès techniques. Ce ne serait que le parachèvement d’un processus de perfectionnement inscrit dans une disposition naturelle (dans la droite ligne de la perfectibilité des Lumières). Il n’est donc pas étonnant d’entendre dire que, dès lors que nous avons accepté la machine à écrire, nous avons, disons, accepté le téléchargement du cerveau : ce ne serait qu’une affaire de degrés. Les détracteurs de cette argumentation arguent au contraire de certaines modifications biologiques (telle la modification du génome humain) comme étant une intervention d’un ordre qualitatif nouveau et irréversible. Ils sont inlassablement à la recherche d’un critère capable de marquer un point d’arrêt dans cette évolution. Las de ne trouver aucun critère ultime, ou de ne pas s’accorder entre eux, ils se réfugient parfois dans l’argument d’une nature à laquelle il ne faudrait pas toucher.

Philosophe et physicien, spécialisé dans les questions d’éthique scientifique, Dietmar Hübner oppose à ces derniers une réponse séduisante qui vise à battre en brèche ce qu’il appelle « l’argument de la nature » [1]. Dietmar Hübner rappelle qu’une tradition philosophique qui remonte à l´Antiquité marque l’être humain du sceau de la seconde nature, soit de l’irrémédiable sortie de la nature. La thèse des coordonnées intangibles de la nature s’expose à l’objection — bien connue — de l’impossible consensus quant aux critères retenus pour la moindre intervention technique : à quel moment cette intervention devient-elle invasive ou irréversible, à quel moment traduit-elle un changement de paradigme ? Cela ne commence-t-il pas avec le premier outil ? Les débats sur ce sujet démontrent l’impossiblité de poser une limite infranchissable en théorie. Même la plus complaisante des éthiques naturalistes aurait peine à démontrer que la nature est toujours juste et bonne, ou à tirer de l’être de la nature l’argument de son devoir-être-ainsi. Ce dernier argument est déjà d’ordre normatif ou transcendantal, et s’expose ainsi à la discussion morale qu’il croyait éviter (soit celle qui ne fait jamais consensus). Par conséquent, nous manquons d’arguments décisifs pour nous opposer, par exemple, au bricolage du génome humain.

C’est bien plutôt l’insuffisance de la nature et l’inadéquation foncière de l’homme à son environnement qui fonde le thème ancien de la seconde nature et justifie l’invention d’artefacts et l’histoire de la culture. « L’argument de la culture » dessine selon Dietmar Hübner une alternative théorique aux impasses de « l’argument de la nature » : ce n’est pas tant la nature qu’il s’agirait de conserver que l’ensemble des productions culturelles issues d’un état de nature fondamentalement déficient. Contrairement aux productions de la culture, affirme l’auteur, « l’homme adapté par les techniques de l’humain serait en fait rendu à l’animalité [2] », en tant que ces techniques ne visent rien d’autre qu’à surmonter par une modification biologique le fossé distinguant l’homme de l’animal et caractérisant la spécificité de la condition humaine. Une telle intervention serait bien plus une avancée anti-culturelle qu’un geste contre-nature. Son crime serait éventuellement de nous priver des moyens d’une intervention cultivée. Mais en quoi consiste celle-ci ?

On songe aux mots de Freud sur la détresse infantile mise en corrélation avec la phylogenèse dans le développement de la culture. Lorsque Freud affirme par ailleurs que « le développement culturel est bien un tel processus organique [3] », il laisse indéterminées les conséquences d’une double possibilité théorique : celle de biologiser la culture le long d’une boucle rétroactive que suivrait la trajectoire de la civilisation elle-même, ou celle d’extraire de l’élément culturel (dans toute son incertitude) les forces politiques capables d’inventer un règlement des conflits humains. Il est patent que Freud pressent la possibilité, si ce n’est la conjonction de ces deux possibilités à la fois. Lacan parlait aussi de prématuration, thème qu’il disait reprendre au biologiste Louis Bolk [4], (dont la célèbre contribution sur l’anthropogenèse ne fut traduite et publiée en français par la Revue Française de Psychanalyse qu’en 1961 [5]). La prématuration humaine ou ce qu’on appelle aujourd’hui la néoténie renvoie à un corpus millénaire, aussi bien scientifique que mythologique, qui peut déboucher, selon les options politiques, sur le diagnostic d’une faiblesse irrémédiable ou sur le pronostic d’une perfectibilité indéfinie [6]. Lacan aura insisté tout au long de son œuvre sur la « béance originelle » ou le « manque à être » constitutifs de l’homme. Aussi bien Freud que Lacan ont porté un immense intérêt au déploiement des systèmes symboliques et des institutions. Mais ni l’un ni l’autre n’ont affirmé le dogme d’institutions culturelles capables de sauver l’homme de son insuffisance originelle. La psychanalyse se solde plutôt sur le constat d’un malaise et l’idée peu réjouissante que, nonobstant nos attentes légitimes envers la civilisation, « certaines difficultés existantes sont intimement liées à son essence et ne sauraient céder à aucune tentative de réforme [7] ». La raison en est, dit aussi Freud, qu’avec les progrès de la civilisation croissent simultanément le meilleur de ce qu’on lui doit autant que les maux qu’elle engendre [8]. Nous en sommes quittes pour les grandes annonces.

Mais revenons à Dietmar Hübner ; ce dernier s’appuie sur d’autres sources de pensée, notamment sur les thèses de Arnold Gehlen développées dans un ouvrage dont la première édition remonte à 1940, alors que ce dernier, membre du parti nazi, effectuait sa carrière de sociologue sans être inquiété [9]. Arnold Gehlen définissait justement l’homme comme un être naturellement démuni et inadapté, ce à quoi seules des institutions stables pouvaient suppléer. On voit tout de suite la difficulté de s’accorder sur le rôle et la définition de ces institutions : les régimes totalitaires se sont aussi bien entendus à faire une telle promesse que les régimes démocratiques.

Lors d’un débat l’opposant à Theodor Adorno en 1965 sous le titre La sociologie est-elle une science de l´homme ? [10], Gehlen voyait dans le progrès technique une source d’insécurité croissante à laquelle pouvaient pallier des institutions solides qu’il appelait de ses voeux. Adorno attirait l’attention de son interlocuteur sur les rapports de production sous-jacents au progrès technique. C’était, selon ce dernier, la constellation des rapports sociaux, fondée sur le principe de l’échange, qui méritait une critique, et non la technique pour elle-même. Il récusait les expressions de société industrielle ou de rationalité technique, expressions abstraites de la structure effective des rapports de production. Lors d’un autre débat mené en 1967 entre les mêmes protagonistes sous le titre Institution et liberté [11], Gehlen affirmait le rôle de protection des libertés par les institutions, ce à quoi Adorno opposait le caractère objectivé et contraignant des institutions, intrinsèquement contradictoire avec leur idée fondatrice et justifiant dès lors, une approche critique. Adorno exigeait des institutions qu’elles mènent les hommes à l’autonomie (au sens kantien), et, si elles doivent administrer les choses, qu’elles ne traitent pas les hommes en éternels mineurs. Gehlen n’hésitait pas pour sa part à rapporter ici la critique des institutions à une posture rituelle…  Le débat, qui semblait, en toute politesse, se dérouler au niveau des seuls concepts, était pour le moins chargé d’histoire récente. Et même de l’histoire imminente.

Replacé dans la problématique qui nous occupe, ce que Dietmar Hübner appelle « l’argument de la culture » se teinte avec Arnold Gehlen d’une défense de l’ordre à laquelle la Technique semble faire face comme une entité autonome et débridée. C’est comme si la Technique n’avait rien à voir avec l’homme qui la fait. Si on lui ajoute un accent heideggerien, le stade ultime de l’oubli de l´Être. Hübner ne paraît pas assumer une telle position et s’accroche plutôt à une thématique de la culture un peu vague, une sorte de culturalisme impressioniste. Il rebaptise les deux pôles de son opposition : technique de l’humain [Anthropotechnik] et technique culturelle [Kulturtechnik]. La première entend modifier l’humain, et, en somme, réparer une erreur originelle en intervenant sur la nature elle-même. C’est la défense de la seconde qui pourrait selon Hübner sauver l’homme d’une technoscience privée de garde-fous. Mais la question plusieurs fois posée par lui des critères de transgression à l’œuvre dans les technologies d’amélioration [Enhancement] est curieusement renvoyée à des réactions morales intuitives, à la gestion du cas par cas et à la mise en garde individuelle. Si bien que « l’argument de la culture » semble à la fin reculer devant lui-même aussi piteusement que « l’argument de la nature ». Cela nous montre pourquoi le vieux problème de l’anthropologie pour départager nature et culture au cours de l’histoire de l’hominisation et de la civilisation échoue doublement, du côté de la nature comme du côté de la culture. Nous ne savons pas davantage définir ce que seraient pour l´Homme les critères pertinents de la « culture » que ceux de la nature humaine, comme si l´Homme était non pas un peu l’un et un peu l’autre, non pas un alliage improbable de nature et de culture, non pas une anomalie dont l’irruption nous est historiquement inaccessible, non pas un hybride dont le cyborg serait la figure la plus récente. L’homme est bien plutôt intrinsèquement à la fois tout l’un et tout l’autre, une espèce parmi les espèces – résultat de l’évolution des espèces – en même temps que la source d’une production technologique dont la civilisation est le fleuron. Il est, pourrait-on dire, porteur d’une impossiblité logique : entièrement cause et entièrement effet, à la crête de ce paradoxe. D’où l’impasse inhérente à toute démarche qui se donne pour tâche de distinguer les deux et d’en isoler un côté en essentialisant une position théorique qui représente un de ces côtés (par exemple le constructivisme et le naturalisme). Une autre impasse consiste à cuisiner un mélange des deux, dont le dosage ne dépend, en dernière instance, que des préférences du théoricien.

L’objection adressée par Adorno à Gehlen pourrait nous aider par contre à aborder le problème autrement. Plutôt que de s’en prendre à une technologie diabolique ou spectaculaire (tout critère de rationalité lui étant dès lors retiré dans une histoire qui, vue d’ici, semble n’avoir ni commencement ni fin), replaçons-là, sur le conseil d´Adorno, dans les rapports de production où elle prend effet. Qui profère la promesse d’une amélioration humaine et à qui s’adresse-t-elle ? Sur fond de quels marchés ? Au profit de qui ? Aux frais de qui ? Au moyen de quoi ? Nous verrons peut-être se dessiner des axes économiques et géopolitiques, des rapports de production et de domination qui, eux, ne surprennent pas beaucoup. La « culture » — si nous voulons bien l’admettre comme argument — ne sera plus cette mystification qui finirait presque par célébrer la minorité congénitale de l’être humain pour mieux la faire chapeauter par des discours totalitaires ou par des technologies qui se rêvent omniscientes. La culture ressuscitera la contradiction au principe des faits établis ; la culture voudra le conflit, voudra sortir de l’enfance et saura considérer avec une suspicion politique l’indécence de certaines offres.

Sandrine Aumercier, 15 février 2020


[1] Dietmar Hübner, « Kultürlichkeit statt Natürlichkeit: Ein vernachlässigtes Argument in der bioethischen Debatte um Enhancement und Anthropotechnik», in: Jahrbuch für Wissenschaft und Ethik, Bd.19(2014), 25–57 : https://www.philos.uni-hannover.de/fileadmin/institut_fuer_philosophie/Personen/Huebner/Aufsaetze/KultuerlichkeitstattNatuerlichkeit.pdf

[2] Ibid., p. 44.

[3] Sigmund Freud, « Pourquoi la guerre ? », in Résultats, idées, problèmes, II, Paris, PUF, 1985 [1933], p. 214-215.

[4] Jacques Lacan, « La troisième », Lettres de l’Ecole freudienne, n°16, 1975.

[5] Louis Bolk, « Le problème de la genèse humaine », in Revue Française de Psychanalyse, Tome XXV, n°1, Janvier-Février 1961, pp. 243-280.

[6] Marc Levivier, « L´hypothèse d´un Homme néoténique comme « grand récit » sous-jacent », in Les Sciences de l´Education – Pour l´Ère nouvelle, 2011/3, vol. 44, pp. 77-93. En ligne : https://www.cairn.info/revue-les-sciences-de-l-education-pour-l-ere-nouvelle-2011-3-page-77.htm

[7] Sigmund Freud, Malaise dans la civilisation, Paris, PUF, 1971 [1929], p. 70.

[8] Sigmund Freud, « Pourquoi la guerre ? », op. cit., p. 214.

[9] Cf. Article « Arnold Gehlen », in Ernst Klee, Das Personenlexikon zum Dritten Reich, Francfort sur le Main, Fischer, 2003, p. 176-177.

[10] « Ist die Soziologie eine Wissenschaft des Menschen ? Ein Streitgespräch zwischen Theodor W. Adorno und Arnold Gehlen », Norddeutschen Rundfunk, 3.2.1965. Vidéo en ligne :  https://www.youtube.com/watch?v=a9GB_XGnKyw&nbsp;

[11] « Freiheit und Institution – Ein Soziologisches Streitgespräch zwischen Arnold Gehlen und Theodor W. Adorno »,  (Moderator: Alexander von Cube), WDR, 3.6.1967. Vidéo en ligne : https://www.youtube.com/watch?v=0o3eITHmIek