Le pdf page par page : Guerre généralisée au vivant et biotechnologies [1/4]
Le pdf format brochure : Guerre généralisée au vivant et biotechnologies[1/4]_livret
Le texte sur Lundi Matin
Les cinq textes seront réunis en brochure par le Groupe Grothendieck dans un futur proche. Le lien sera inséré ici, pour l’instant voici leur site.
L’épisode pilote [0/4] : Les bases du système guerrier
« L’état capitaliste considère la vie humaine comme la matière véritablement première de la production du capital. Il conserve cette matière tant qu’il est utile pour lui de la conserver. Il l’entretient car elle est une matière et elle a besoin d’entretien, et aussi pour la rendre plus malléable il accepte qu’elle vive. »
Jean Giono, Je ne peux pas oublier, 1934
« Telle une machine, tout organisme y compris le plus ’simple’ constitue une unité fonctionnelle cohérente et intégrée. »
Jacques Monod, Le Hasard et la nécessité, 1970.
Lors de l’épisode précédent nous nous étions arrêtés sur l’image du film de zombie et de son triptyque : blouse blanche/képi/ mort-vivant, symbolisant les peurs d’une époque déjà dépassée à la sortie du film en 1985. En effet, les pantins sanguinolants de Georges Romero représentaient la tension mortifère des chairs à vifs évoluant dans le néant entre Auschwitz et Hiroshima. Ils étaient un homme négatif, diminué – mi-vivant mi-mort – encore trop proche de l’animalité par rapport au regard froid des décennies 80-90. Cette allégorie moderne allait laisser la place sur le devant du spectacle à l’homme augmenté, humain-machine mi-vivant mi-inerte, le Terminator, le cyborg. « Nous sommes des chimères, des hybrides, des cyborgs, image condensée de l’imagination et de la réalité » pouvait dire Donna Haraway dans son Manifeste Cyborg. Effectivement les années 1980 voient l’invasion dans les imaginaires préfabriqués de l’homme-ordinateur en parallèle de l’émergence de Grands programmes scientifiques internationaux en biologie dont le plus vaste fut le Programme Génome Humain (PGH). Consortium immense réunissant des laboratoires prestigieux en biologie et en informatique, ce programme est la première tentative de séquençage de l’entièreté du génome humain (15 ans de recherche avec un budget de 3 milliards de dollars). Nous n’en dirons pas plus pour l’instant car avant tout, il nous faut retrouver les ferments de la biologie moderne et réinscrire notre propos dans la dynamique du capitalisme et de la technoscience.
Le technocapitalisme
et son Nouvel Esprit Scientifique
Le capitalisme est ce mouvement d’ensemble qui place la logique du profit au centre de tout. Marx parle du « marché universel » où chaque humain est englobé par les forces économiques qui se jouent de lui et sans lui. Le fil historique schématique part de l’accumulation primitive durant le Moyen Âge, « l’ère capitaliste à son aurore » avec l’accaparement des terres, des ressources et l’ordre coloniale puis d’un capitalisme marchand avec la création de market place à partir du XVIIe siècle et enfin d’un capitalisme industriel avec le machinisme (production de masse, création du prolétariat, crise de surproduction)[1] au XIXe siècle. À chaque « saut » des formes du capital (passage du capital commercial au capital industriel par exemple) il n’y a jamais arrêt de l’ancien processus mais élargissement du champ de la puissance formelle du capital dans de plus en plus de domaines de la vie et subsomption des contradictions internes dans des formes d’accaparement et de valorisation toujours plus vastes et puissantes reportant au loin les limites internes. Marx parle de « dépassement » (Aufhebung) dans un triple processus dialectique : suppression, conservation, élévation des processus capitalistes[2].
Nous définissons le technocapitalisme comme la phase actuelle du processus historique du développement capitaliste amorcée à la fin de la Seconde Guerre mondiale. C’est à cette époque charnière que les moyens de production machinique se développent à tel point que commence à émerger une pensée machinique et un monde machinifié. S’il fallait donner une définition simple, nous dirions que le technocapitalisme, c’est la logique à l’œuvre qui ordonne le monde selon la course mortifère du profit (capital) et de la puissance (technologique) enfin réunies. Le technocapitalisme suit lui-même une progression par paliers où les grandes innovations techniques marquent des sauts menant vers un système économico-technique unifié. Il n’est pas lieu ici d’aller trop loin dans les explications, ceci dépasserait le propos, mais simplement de comprendre qu’il y a trois périodes dans l’unification de la technique et du capital, chaque période amenant à un saut de puissance « dépassant » (au sens de Marx) ses propres conditions pour aboutir à la période suivante : la première phase qui va des décennies 1940 à 1960 est la restructuration de l’appareil productif autour du « Triangle de Fer » recherche-armée-industrie, l’avènement du Nouvel Esprit Scientifique et la création du paradigme technoscientifique par excellence : la cybernétique, ainsi que de son corollaire concret : l’ordinateur. La deuxième phase (les décennies 1970-1980) voit les débouchés de la technoscience s’appliquer aux moyens de production industriels (automatisation, informatisation, division accrue du travail, capitalisation du vivant, etc.). La troisième phase qui va des décennies 1990-2000 à nos jours est la maturation du processus d’unification mondial du capital grâce à l’assise technologique comprenant le réseau universel d’interconnexion des machines : internet, et la prothèse smartphonale comme modulateur universel (Deleuze) entre les individus et la Machine informatisée et capitalisée[3]. Le tout formant l’ère sans fin du technocapitalisme.
Si Marx s’est souvent trompé sur le déroulement futur du processus capitaliste, il a eu quelques traits d’une extrême clairvoyance, notamment dans un passage des Grundrisse (1857-1858)[4] appelé « Fragment sur les machines »[5], où il imagine la généralisation de la technologie en tant que système de machine grâce au progrès scientifique. Il estimait que « l’intelligence générale » (general intellect), c’est-à-dire les connaissances objectivées dans la science et la technologie, ce que nous appelons communément « les connaissances scientifiques », pourraient devenir la force principale de formation de richesse :
« […] cependant, à mesure que se développe la grande industrie, la création de la richesse réelle dépend bien plutôt du niveau général de la science et du progrès de la technologie, autrement dit de l’application de cette science à la production. […]Le développement du capital fixe [les machines et les procédés de fabrication, nda] indique jusqu’à quel degré le savoir social général, la connaissance, est devenue force productive immédiate, et, par suite, jusqu’à quel point les conditions du processus vital de la société sont elles-mêmes passées sous le contrôle du general intellect, et sont réorganisées conformément à lui. Jusqu’à quel degré les forces productives sociales sont produites, non seulement sous la forme du savoir, mais comme organes immédiats de la pratique sociale ; du processus réel de la vie. »
Les deux dernières lignes sont d’une intuition fine et rejoignent notre propos : le technocapitalisme ira – et c’est le cas aujourd’hui – jusqu’à contrôler et produire le « processus réel de la vie ».
Les analyses précises de Marx sur le passage de la manufacture à l’usine et du métier à la fabrique, et de l’exploitation de l’homme dans le machinisme, lui permettent de comprendre le double rôle de la technologie : le machinisme est à la fois l’aliénation de l’humain face à une force qui le dépasse et le réifie[6], et une science en tant que « technoscience »[7], c’est-à-dire l’application technologique de la science, permettant de faire augmenter la productivité du travail de façon ahurissante. Marx appel cette capacité de la science envers la technologie, le « scientific power » d’une nation.
Pour voir advenir le passage d’un capitalisme industriel où la machine est omniprésente dans le procès de production mais n’est pas centrale dans le procès global de développement de la société, au technocapitalisme, il faut attendre « l’amorçage » de la décennie 1940-1950 et la restructuration de tout l’appareil technoscientifique dans ce que nous avons déjà longuement étudié et qui se nomme la Big Science avec ses fameux Grands programmes dont la fonction est l’investissement public dans la science permettant l’ouverture de nouveaux cycles de capitalisation à grande échelle aboutissant à la fois à des sauts de puissance et à des profits substantiels. Le premier fut la création de l’arme atomique, puis thermo-nucléaire avec le projet Manhattan ; le second, le voyage sur la Lune avec le programme Apollo (1961-1972) ; et le troisième plus important, le Human Genome Project (1989-2004) dont nous avons évoqué l’existence au début du propos. Il est intéressant de revenir sur ce Grand programme comme illustration de la Big Biology à l’œuvre.
Le projet « Génome Humain » (PGH) est officiellement lancé en 1989 bien que l’idée de cartographier l’intégralité des paires de base (A-T G-C) du génome soit dans la tête de beaucoup de scientifiques depuis l’avènement de l’informatique et de la découverte concomitante du « code génétique » dans les années 1950. Le PGH sous la direction du National Institute of Health étasunien (NIH) (technoscience agency par excellence), était dirigé pendant une bonne part du projet par le biologiste cybernéticien James D. Watson que vous connaissez tous, celui du fameux buzz scientifique « découverte-de-la-double-hélice-ADN-watson-et-crick » dont Erwin Chargaff proclame que c’est « le puissant symbole remplaçant la croix qui sert de signature aux analphabètes en biologie »[8]. Forme scientiste de la recherche, les Grands programmes essaiment à fond dans les imaginaires de la population en tant que porteurs symboliques du Progrès et l’on a pu voir en 2000, à l’annonce des premiers résultats du PGH, le président américain proclamer : « Aujourd’hui nous apprenons le langage avec lequel Dieu a créé la vie ».
Pour nous, ce projet est la quintessence de la guerre généralisée au vivant. Tout y est : le réductionnisme informationnel, les pré-supposés cybernéticiens, les méga-structures du complexe scientifico-militaro-industriel (SMIC), le scientific power reboosté par intraveineuse étatique, la coordination internationale des instituts publics des pays du sommet capitaliste, l’immixtion des entreprises privées et des structures publiques (débuts des fameux partenariats public-privé) dans une gestion managériale de la science, le support indéboulonnable de l’ordinateur, la vision frontiste de la recherche[9] ouvrant un « nouveau territoire » avec le séquençage de masse, la promesse de gain futur et la création de start-ups. D’ailleurs ce méga-programme est avant tout une prouesse en informatique. C’est le début du data mining appliqué à la biologie, c’est-à-dire le traitement informatique et automatisé de milliards de kilo bytes de données. Le travail vivant y est réduit comme peau de chagrin, le biologique est quasi-inexistant, quant au vivant dans sa globalité, il n’en a jamais été question dans ce projet ! Lisons un extrait de l’article wikipédia pour s’en assurer :
« Un autre but du PGH [autre que le séquençage lui-même] était de développer des méthodes plus rapides et efficaces pour le séquençage de l’ADN et l’analyse des séquences, ainsi que de transférer ces technologies à l’industrie. Entre 1989 et 2001, le débit de la technologie de séquençage s’est amélioré d’environ un facteur 100. »[10]
Et pour compléter la vision de ces grands programmes, citons le chercheur Eric Green, un des responsables du PGH répondant à une interview dans le journal Forbes :
« Dans le cadre de notre vision stratégique de 2003, notre institut a fait la une des journaux en disant qu’il nous fallait le « génome à mille dollars ». En tant que bailleur de fonds, nous avons pris la responsabilité de dire que nous devions stimuler le développement technologique dans ce domaine. […] Les investissements dans le secteur privé ont été considérables et les centres universitaires ont bénéficié de bons investissements. Et cet écosystème universitaire développe des choses, octroie des licences à ces entreprises privées, puis les entreprises privées développent des choses, puis une entreprise privée en achète une autre. Cela continue. Aujourd’hui, 17 ans plus tard, nous avons toutes sortes de nouvelles technologies. »[11]
Nous reviendrons dans un prochain épisode sur les dernières avancées de la génomique en tant qu’extractivisme de la « matière vivante » via les récents programmes de séquençage populationnel. Ce qui est important de noter dans un premier temps, c’est que nous ne voyons ici ni être vivant, pas même une cellule, le « zôê », animalité au sens de ce qui anime la vie, est définitivement remplacé par les grains de « bios »[12] dans sa version bio-techno-logique, c’est-à-dire échangeable par des grains de capital (mesurable en dollars) ou des grains de puissance (mesurable en bit/seconde ou watt/h, peu importe). Ces extraits nous montrent aussi en quoi le chercheur n’est plus le savant, le « sachant » mais un technicien au service de la machine. C’est un double éloignement de la vie dans une logique sans faille où plus la nature et les vivants sont vus comme des machines informatiques, plus ils ne sont compréhensibles qu’à travers la machine : le paradigme informationnel ne peut apparaître que si au préalable le vivant est réifié, disséqué, ausculté, par un lourd appareillage machinique. Le séquençage, avec ses gros ordinateurs, ses routines automatisées d’extraction de d’ADN et ses cryo-banques à l’azote liquide où sont stockés les « bio-objets », est l’exemple parfait de la Big Biology.
Maintenant, la surprise sera moins grande si un jour vous passez la porte d’un laboratoire de biologie : vous constaterez que les biologistes ne travaillent que très peu avec du vivant même réifié, mais sont les trois quarts de leur temps derrière un ordinateur, manipulant courbes, chiffres et jauges plutôt que scalpels, pipettes et béchers… et cela si vous les voyez ! Car il se pourrait bien qu’ils soient en déplacement, ayant troqué la blouse blanche pour la veste de l’entrepreneur ou de l’administrateur, à déposer des dossiers dans des bureaux de brevetage ou à quémander des deniers dans des réunions soporifiques.
Concernant l’organisation du travail, les principes de transdisciplinarité commencent à être appliqués dans les instituts américains dans les années 50-60 sur le modèle militaro-civil du Pentagone et du projet Manhattan. Ce management scientifique sous la houlette d’administrateurs non scientifiques, d’abord militaires puis civils, permet une grande porosité entre les différentes disciplines en même temps qu’une restriction des libertés intellectuelles du chercheur. Un flux objectivé de l’intelligence générale se crée à l’intérieur du complexe scientifico-militaro-industriel où tous les nerfs, toutes les idées, toutes les individualités, sont mises à contribution pour accroître le scientific power, la recherche devant définitivement et exclusivement servir les intérêts du pays. Le management scientifique ouvre sur des formes d’organisation nouvelles où des chercheurs de différentes disciplines forment une « équipe », et travaillent maintenant par « projet », avec des « budgets dédiés », afin d’apporter une « solution », à une hypothèse scientifique issu d’un dogme appelé « modèle », comme on solutionne un problème technique. Il faut répondre à la demande de l’administrateur plutôt qu’à la curiosité scientifique. Et c’est encore Chargaff qui se plaint :
« Entre les deux guerres, […] il y avait des individus — quelques-uns assez fantaisistes, mais doués, d’autres plutôt médiocres, limités, bornés — mais chacun poursuivait ses travaux, était responsable de ses découvertes d’une manière qui a tout à fait disparu aujourd’hui. Le tournant a été pris lors de l’avènement des États-Unis dans les années qui ont précédé et suivi la Deuxième Guerre mondiale, sur la scène scientifique. Cette dernière a beaucoup changé du fait de l’Amérique qui est intervenue massivement, brutalement dans la technologie, les sciences et dans tout enfin, au nom de l’efficacité sociale. »[13]
et sa critique de l’organisation s’accompagne d’une prospective qui s’est révélée juste :
« Je présume que les sciences poursuivront, du moins quelques temps encore, dans la voie où elles se sont engagées vers 1940 : fragmentation de plus en plus grande de notre représentation de la nature, spécialisation à progression rapide éloignant de plus en plus les disciplines scientifiques les unes des autres, considérable accroissement des tâches nécessaires à la maintenance et à l’extension des équipements scientifiques, entraînant un élargissement du fossé entre ambitions et réalisations. »[14]
Ce flux du general intellect, principalement européen avant la deuxième guerre et américain après, se matérialise au plus haut degré dans les articles scientifiques et les revues de prestige, celles-ci donnant la véritable valeur à la connaissance. Cette valeur s’acquiert de deux façons : soit à moyen terme, cette connaissance est fiable et reproductible pour l’industrie ou pour de nouvelles recherches qui déboucheront tôt ou tard sur des applications ; soit à long terme, cette connaissance permet d’entrevoir de nouveaux espaces à conquérir pour le front technoscientifique : découvertes de nouvelles molécules, nouveaux organismes vivants, réactions chimiques, façon de faire de la nature, etc., dont la potentialité pécuniaire ou technologique est entrevue par l’administrateur via des « comités d’évaluation » et « de programmation ».
Nous nommons « Nouvel Esprit Scientifique », expression empruntée à Bachelard (1934), cette nouvelle manière de faire de la science où l’archétype de l’inventeur, proche des humanitas, touche à tout, un peu philosophe, laisse la place à l’ingénieur-chercheur salarié. Le Nouvel Esprit Scientifique est à la science ce que l’ouvrier spécialisé est à l’usine : une manière plus froide, « rationnelle » et séparée de faire son métier devenu « une profession » afin d’améliorer l’efficacité du travail. Écoutons encore Chargaff pour comprendre cette mutation :
« Il y a une grande différence entre la compréhension et l’explication. La compréhension est beaucoup plus fondamentale que l’explication. En fait, on peut expliquer beaucoup plus qu’on ne peut comprendre. Or maintenant les sciences sont devenues exclusivement « explicatives », c’est-à-dire qu’elles se situent à un niveau plus étendu mais en revanche plus superficiel. »[15]
Par exemple, le biologiste aidé par l’informaticien et le chimiste, eux-mêmes suppléés par les « techos » (les techniciens) peuvent travailler ensemble pour produire un résultat explicatif satisfaisant – c’est-à-dire enrichir en données le golem scientifique – sans rien y comprendre aux fondamentaux du vivant. Ensuite, le tour de passe-passe du biologiste consiste à recoller les morceaux des différentes expérimentations par une jolie histoire sans réel fondement, permettant d’alimenter une « review » sur le sujet et qui finira par servir de marchandise d’exposition dans les torchons de vulgarisation ou les chaînes des youtubeurs scientifiques. L’histoire (non terminée) de la notion de « gène » est très parlante à ce sujet[16]. En effet, les explications de la biologie moléculaire finiront par former en pleine « ADN-mania » une espèce de modèle standard indéboulonnable. Ce que le célèbre Crick théorisa en 1958 sous un terme qui révèle toute la vision idéologisée de la biologie : le fameux « dogme central » en quoi l’ADN donne irréversiblement l’ARN qui donne à son tour la protéine.
« Les insuffisances scientifiques de cette explication ont été gommées par le verbalisme et par le recours à des analogies avec des technologies récentes bien réelles et dont les succès étaient indéniables (l’ordinateur est devenu un argument pour justifier l’animal-machine moléculaire), en dit long sur la couche idéologique qui recouvre toute la discipline de la biologie moléculaire permettant de garder une apparence de véracité sans compréhension aucune des phénomènes. Mais technologies qui étaient tirées du côté de la science-fiction et qui étaient assaisonnées de considérations pseudo-mystico-philosophiques (qu’on a récemment retrouvées avec le Projet Génome Humain présenté comme le décryptage du grand livre de la vie) »[17]
En réalité, l’intérêt de la recherche en biologie – même si le chercheur naïf peut encore se permettre de croire que la biologie nous permettra de répondre à la question « qu’est-ce que la vie ? » – réside d’avantage dans la prouesse technique à disséquer la matière vivante, à en faire des modèles et à les faire ingérer à l’ordinateur, afin de produire courbes, graphes, camemberts, histogrammes qui iront faire tout beau dans les articles scientifiques permettant des gains de valeur et améliorerons les procédés industriels de la biotechnologie. D’où souvent un certain malaise en biologie dans la difficile mise en péréquation entre les résultats d’une recherche et les « modèles explicatifs ». Ceux-ci ne sont le plus souvent que des coquilles vides et idéologiquement marquées par la philosophie mécaniste bassement cartésienne recouverte des mythes techniques actuels, métaphores enfantines pour rendre réel la vacuité du chiffre, de la donnée exprimée. André Pichot parle de « tripatouillage théorique ».
Mais au final de réel ici, point il y en a. En fait le biologiste ne sait rien de la vie, ce n’est pas son domaine d’étude, lui étudie des bio-objets, il est « bio-objiste », bio-technologue en vérité. On comprend mieux pourquoi les chimistes – et Chargaff le premier – se moquent autant des biologistes, parce que ceux-là n’ont de compte à rendre sur rien, leur prétention en tant que chimistes qui ont affaire aux molécules et atomes sont légitimes puisque leur domaine d’étude est déjà un produit de laboratoire : la chimie. Aucune question philosophique ne vient altérer leur rêve de domination : ils maîtrisent, au sens premier de « maître », leurs choses. Quant au biologiste, il porte en lui ce complexe d’infériorité qu’il ne comprend pas ce qu’il fait au vivant. Alors il recouvre cette incompréhension honteuse de grosses machines complexes et d’histoires extraordinaires à faire dormir le public debout. Le parcellaire systématique des recherches en biologie, soupe fade d’une vision sans profondeur qu’on sert au tout venant de la recherche, amène donc à des monstruosités bien réelles quand le chercheur se prend à modifier ce qu’il ne comprend pas. Le vivant, vaste et si mystérieux ne peut pas ne pas souffrir quand on le manipule avec des dogmes.
La brebis-objet nommée Dolly, celle qui a été rendue célèbre pour être la première trituration génétiquement viable, est un « assez misérable bricolage »[18]. Elle (il ?) est mort(e) prématurément dans d’atroces souffrances (on l’a euthanasiée) à la suite de problèmes d’arthrite précoce et de difficultés respiratoires dues à un adénocarcinome pulmonaire ovin. Nous avons les explications mais point de compréhension claire de ce que l’homme a pu créer avec ce monstre. Du reste, son corps empaillé et exposé au National Museum d’Écosse est l’un des totems phares de la technoscience au même titre que la double hélice d’ADN ou le cerveau d’Einstein.
Après ces quelques passages théoriques il est temps d’historiciser cette guerre généralisée au vivant afin de comprendre ce qui la relie profondément à la fois au nucléaire et à l’ordinateur.
Le noyau cellulaire et le noyau atomique
se rejoignent après-guerre
dans la course technoscientifique
« Or, l’époque du capitalisme ouvert après-guerre est celle d’une guerre générale contre le vivant, guerre qu’il mènera jusqu’au dernier instant, car c’est une condition impérative de sa survie. »
Jean-Marc Royer[19]
« Nous avons gagné la bataille des laboratoires comme nous avons gagné les autres. Dès 1940, c’est-à-dire dès avant Pearl Harbour, les connaissances scientifiques de la Grande-Bretagne et des États-Unis pouvant servir la guerre avaient été associés. Cet arrangement a apporté une aide précieuse à notre victoire. C’est dans l’atmosphère de cette collaboration que les recherches concernant la bombe atomique ont été commencées. Les savants anglais et américains travaillant ensemble ont engagé la course aux découvertes avec les allemands. […] Le fait que nous sommes en mesure de libérer l’énergie atomique inaugure une ère nouvelle dans la compréhension de la nature. »
Extrait du communiqué d’Henry Truman le 6 Août 1945, après l’explosion de la première bombe atomique sur Hiroshima
Effectivement, malgré les 70 000 vies japonaises pulvérisées en une fraction de seconde et les dégâts tant biologiques, sociaux, qu’anthropologiques de ce massacre, la plupart des commentateurs ne virent qu’une prouesse scientifique de l’ordre d’une « révolution ». L’extrait du communiqué cité fit la Une du journal Le Monde du 8 Août 1945. Il titrait : « Les Américains lancent leur première bombe atomique sur le Japon », sous-titre : « une révolution scientifique ». Par ce seul titre nous pourrions introduire l’ère du technocapitalisme comme le double mouvement de perte de tout repère concernant la vie (et donc la mort) et l’avènement de la puissance guerrière technoscientifique. En cela la barbarie ne se situe pas tant dans l’acte de tuer mais dans la négation de sa portée thanatophile et annihilatrice.
Nous pensons qu’il y a deux formes de guerre liées au développement techno-industriel. La première, la guerre militaire moderne, massive et technologique, menée par les uniformes kakis, parcours tout le XXe siècle de son inventivité à tuer massivement. La seconde, la guerre intégrée ou généralisée se trouve sur un plan de compréhension plus générale.
Celle-ci subsume les guerres militaires qui en font partie mais ne l’épuisent pas. La guerre intégrée est un mode de gouvernance, un état de guerre dont les guerres militaires (actions violentes d’ampleur mais ponctuelles) en sont des cas extrêmes. La guerre intégrée agit avant tout sur les conditions d’épanouissement du vivant et des vivants plutôt que sur la vie elle-même. On a caractérisé sa forme dans l’épisode pilote
: elle se situe dans l’imaginaire américain du « front guerrier » suivant la doctrine revue et explicitée par Vannevar Bush, à savoir une guerre technoscientifique latente, allant toujours de l’avant et ne faisant pas de quartier[20]. Elle débuta avec le programme nucléaire des États-Unis dans les années 1940 et n’a jamais pris fin. Son principe reposant sur une domination totale, ses actions concrètes sont l’élimination, l’assimilation, l’hybridation à la machine ou la dévivification des vivants permettant d’instituer la création d’un ordre technoscientifique de bio-objets. Le but de la guerre généralisée au vivant est la maîtrise totale de l’émergence et de l’épanouissement de l’ordre vivant, en même temps que sa transformation en ordre machinal. C’est la guerre que mènent les blouses blanches encore actuellement. Vous pouvez vous en rendre compte en consultant les opus de la doctrine transhumaniste, celle-ci poussant la logique de la guerre au vivant dans ces derniers retranchements d’un totalitarisme technologique.
Les années charnières 1944-1945-1946, voient l’apparition d’un nouveau paradigme en sciences issu avant tout des avancées technologiques de cette époque : c’est le paradigme informationnel et sa science générale appelée cybernétique. Norbert Wiener[21], Claude Shannon[22], et d’une certaine mesure John von Neumann[23] en sont les fondateurs. Von Neumann, une des têtes fières du projet Manhattan, défenseur acharné du bellicisme américain, anti-communiste primaire, cherchait à comprendre le fonctionnement de l’intelligence humaine et à la transférer dans différents matériaux. À partir des premiers calculateurs digitaux à tube à vide, il s’imagine créer une machine douée d’une intelligence humaine, c’est dire le peu de respect que ce personnage vouait à l’humain ! En 1949, reprenant des travaux militaires, il créera pour l’U.S. Army le premier ordinateur fonctionnel, l’EDVAC. Il faut bien se rendre compte que les calculateurs à tube puis les premiers ordinateurs sont indispensables pour la réussite du projet Manhattan, la conception des bombes A et H demandant une somme surhumaine de calculs. Mais le revers de la médaille ne se fit pas attendre. Von Neumann mourut précocement en 1957, à l’âge de 53 ans, d’un cancer foudroyant, comme beaucoup d’autres chercheurs ayant assisté aux premiers essais de bombes atomiques. Signe que la puissance mortifère libérée n’a pas de cible particulière, n’a pas de vocation, elle est généraliste et son « mal » frappe le vivant partout et tout le temps. Pour l’anecdote nous signalons que la mort prématurée de ce génie mis fin – et fort heureusement – à ses recherches sur la comparaison de l’ordinateur et du cerveau humain, ce qui nous aurait peut-être amené à des abominations supplémentaires.
Reprenant à leur compte le paradigme mécaniste qui prévaut dans les sciences du vivant depuis René Descartes, Nicolas Malebranche et Julien Offray de La Mettrie (XVIIe siècle) et leur « animal-machine », et qui s’étendra tout au long de l’ère industrielle, les cybernéticiens en donneront une nouvelle version calculatoire, à base d’équations et d’axiomes minimaux empruntés à la thermodynamique. Wiener, Shannon et von Neumann, qui sont des ingénieurs nés, les trois ayant travaillé pendant la guerre sur des calculateurs, ne font que prendre la machine de leur époque, c’est-à-dire le prototype de l’ordinateur, ou plus exactement « la machine virtuelle », comme vision standard de ce que sont le monde et la vie. En effet, indissociable de la théorie de l’information de Shannon, la cybernétique entend combattre le « désordre » vu sous l’angle mathématique d’entropie par le biais d’un contrôle de l’information apportant de la « néguentropie » ou entropie négative. Celle-ci serait le principe universel présent dans les « systèmes vivants » permettant aux structures complexes d’émerger et de se maintenir. La cybernétique va être progressivement adoptée dans les années 1960 par la plupart des chercheurs notamment en biologie, en neurologie et en psychologie, grâce à la diffusion des concepts et à la mise en lien des chercheurs lors de conférences transdisciplinaires dont les plus connues sont le cycle de conférences Macy. Celles-ci se déroulèrent de mars 1946 à avril 1953[24].
« L’impact du nouveau paradigme sera tel que non seulement toutes les disciplines vont à un moment donné y converger, mais des champs entiers des sciences contemporaines vont s’y mouler avant de s’en détacher. »[25]
Effectivement il faut comprendre que la cybernétique a toujours été attachée, dépendante, de la machine à calculer, des servo-mécanismes et tubes à vide puis de l’ordinateur. Elle permit de faire le lien – au beau milieu de la complexification machinique en cours et de l’envolée du scientific power – entre ce qui relève de la matérialité de la machine et ce qui procède d’une abstraction réalisée dans la commande, l’instruction délivrée par l’humain à la machine. La cybernétique est la grammaire de la machine. Et puisque le monde se machinifie, l’ingénieur suppléé par l’ordinateur remplacera progressivement le poète dans la centralité de la figure du porteur de sens.
D’un côté l’abstraction mathématique « prend vie » via l’ordinateur, de l’autre l’humain se réifie en tant que « pilote » de la machine. La grammaire cybernétique ne peut réaliser cette pirouette sans le concept mathématique d’information inventé par Claude Shannon. Celle-ci caractériserait tous les « systèmes », qu’ils soient machiniques, vivants ou sociaux. Il n’y aurait plus vraiment de différence entre une cellule, une société donnée ou une machine sophistiquée, tous seraient des systèmes thermodynamiques où les rétroactions permettraient d’agir sur la cohésion de l’ensemble et ce serait l’information qui serait comme le sang ou le suc des échanges. Ainsi Merlau-Ponty, dans ses notes de cours sur La Nature explique qu’il y a « une ontologisation de la machine »[26], la machine est mise sur le même pied d’existence, d’ontologie que les êtres vivants. En niant la spécificité du vivant, la machine, c’est-à-dire le concept de machine, est naturalisé. Il y a rupture des frontières épistémologiques (ou peut-être nous pourrions y voir un floutage) sur le surgissement de ce qui fait la vie et sa spécificité, c’est-à-dire ce que nous ne pouvons comprendre dans sa totalité. Il y a alors une équivalence, une légitimité scientifique à prendre l’un pour l’autre, à faire des comparaisons qui seront de plus en plus admises, vues comme pertinentes voir comprises comme la réalité même des choses entre le vivant et des systèmes technologiques complexes.
Autour de la grammaire de la machine se développent des métaphores explicatives machiniques du vivant, reprenant les métaphores de l’automate de Vaucanson ou du corps-machine de Descartes, mais cette fois, celles-ci vont acquérir un statut scientifique indéboulonnable et seront efficaces pour expliquer les « réseaux neuronaux » comme un « connexionnisme » par exemple[27]. Le travail vivant en science reste important mais il sera maintenant toujours suppléé par l’informatique qui prendra de plus en plus de place[28]. En fait, l’informatique y prendra sa place dans la nouvelle réorganisation de l’économie pendant que le « chercheur », suivant la division extrême du travail qui touche maintenant la technoscience, sera à son poste. Dans la vie courante, la proximité avec la machine prend des formes symptomatiques de cette assimilation et nous font dire « j’ai bugué » ou « j’ai plus de batterie » pour signifier l’intériorisation de l’imaginaire machinique.
C’est une guerre par assimilation car si la guerre est une façon efficace de propager la mort et le non-sens, que peut-on dire de l’assimilation du vivant à quelque chose de complètement inerte qu’est la machine ? Cette guerre a été totale et est bien terminée. Nous sommes tous morts pour qui regarde le monde avec les yeux du cybernéticien/informaticien ; pour qui regarde l’écran et les bits de données via le réseau informatique en pensant regarder le monde ; pour qui comprendre ce qu’est la vie ou les relations sociales peut se schématiser en graphe, courbe ou tableur ; pour qui est aveugle devant la fine couche de vie, indéfinissable et plongeant au cœur de l’être et qui fera qu’un humain, en tant qu’humain, n’est pas une machine.
Mais cela ne suffit pas à expliquer la guerre généralisée en cours. Nous pouvons encore mourir plus. Et en effet actuellement notre-être-au monde se meurt dans un puits sans fond où nous sommes remplacés individuellement en une aliénation par nos « gènes », nos « cellules », nos « programmes génétiques ». Notre présence s’efface à nous-même, nous sommes devenus des spectres moléculaires.
La métaphore du vivant-machine
se concrétise dans la découverte
du code génétique
« Indissociable du modèle informationnel hérité de la cybernétique, l’indifférenciation des objets techniques et des organismes vivants portée par la métaphore du vivant-machine constitue, comme je l’ai montré, une condition de possibilité du génie génétique »
Céline Lafontaine[29]
Le premier théoricien de la biologie moléculaire, et cela est symptomatique de toute l’histoire de la bio-techno-logie, est un physicien. Erwin Schrödinger, prix Nobel de physique pour ces équations en mécanique quantique, est bien au fait des travaux en cybernétique. Il est le premier à franchir le Rubicon séparant la pensée informationnelle au vivant dans un ouvrage théorique resté célèbre, What is life? (1944)[30]. Cet aventurier de la théorie utilise des métaphores informationnelles[31] développées par ses camarades avant même la théorisation mathématique de l’information (qui n’arrive qu’en 1948). Il théorise une approche physico-chimique et thermodynamique permettant d’expliquer les lois de l’hérédité et la conservation des caractères par stockage de ceux-ci dans la conformation atomique de mystérieuses macro-molécules. C’est l’ouvrage fondateur de la « biologie moléculaire »[32] c’est-à-dire l’étude infinitésimale de grain de « bios » identifiés à des macro-molécules complexes (ADN, ARN et protéines). En effet, à cette époque l’échelon minimal exploitable par l’instrumentation, c’est la molécule (plus tard ce sera l’atome). Au même titre que l’Information pour l’ordinateur, la Molécule serait la brique élémentaire de la vie réifiée. Pour cette période, André Pichot parle dans son ouvrage Expliquer la vie, du modèle de l’« animal-machine moléculaire ».
La molécularisation de la vision de la vie est une réduction, la première d’une longue série, en objets d’études de plus en plus petits et facilement manipulables pour le modèle informationnel naissant et l’instrumentation de l’époque (cristallographie, radiologie à rayon X, chromatographie, etc.). Elle sera le prélude à la programmation de la vie via le génie génétique et à son atomisation via la biologie de synthèse. Nous en reparlerons.
Mais la fragmentation excessive de toute vision de la nature – ou, en réalité, sa totale disparition de la pensée de presque tous les scientifiques – a créé un monde à la Humpty-Dumpty, qui nous deviendra d’autant plus insuffisant qu’on découpera, à des fins d’ « étude plus précise », des morceaux de plus en plus minuscules du continuum de la nature. […] J’ai l’impression que la véritable origine de notre quête a été effacée par les prétendus objectifs. Sans un point central stable, nous ne pouvons qu’échouer. Le merveilleux tissu à l’incroyable finesse est lacéré lambeau par lambeau, chaque fil est arraché, décortiqué et mesuré, et à la fin le souvenir même de la forme est perdu et ne peut plus être retrouvé. »[33]
Schrödinger dans What is life? fait exactement ce travail de réductionnisme par une méthode fort peu conventionnelle en biologie. Celle d’une pure expérience de pensée où le vivant devrait être comme ceci ou comme cela selon sa vision physicienne de ce qu’il comprend de la vie. Il n’expérimente rien. Outre la notion de néguentropie (force qui crée de l’ordre) qu’il applique au « système vivant »[34], il est le premier à synthétiser la notion de « code génétique »[35] transmise de génération en génération sous forme « d’instruction » (on ne parle pas encore d’information) par une molécule stable qu’il pense être un « cristal apériodique ». Son livre va grandement influencer la nouvelle génération de biologistes, notamment les futures stars de la double hélice, James D. Watson et Francis H. C. Crick. Leurs visions étriquées du vivant leur venant sûrement en droite ligne des jargonnages en thermodynamiques appliqués aux organismes vivants.
Quelques mois après la sortie du livre de Schrödinger, l’expérience astucieuse du vieux briscard de la biologie, Oswald Theodore Avery (il mourra avant d’avoir reçu le prix Nobel), travaillant sur des pneumocoques, confirme que c’est bien l’ADN (purifié dès 1935) qui transmet les « caractères » à la descendance[36]. Wiener, reprenant à son compte toutes ces découvertes sort son livre inaugural sur la vision du vivant en 1948, La Cybernetique, sous-titré : le contrôle et la communication dans l’animal et la machine[37] et donnera des outils puissants au renouveau de la biologie, mais aussi des sciences cognitives[38].
« Transposé au cœur du modèle théorique de la biologie moléculaire et du génie génétique, le concept cybernétique d’information a orienté toute la recherche dans le domaine des sciences du vivant depuis plus de cinquante ans, par le biais entre autres d’une sacralisation du gène, conçu comme support informationnel. »[39]
Il faut voir la fin de la guerre comme une explosion des moyens techniques en électronique : c’est le moment ou W.R. Ashby invente l’homéostat et William Grey Walter développe la « robotique » avec ces tortues automates. En 1954, dans Cybernétique et société, Wiener pousse encore plus loin la métaphore informationnelle en assimilant l’organisme vivant dans son entier à un message se régulant par « homéostasie » face au « bruit de fond » du monde inerte représentant le chaos. Il faut comprendre que c’est à partir des années 40-50 que la biologie, grâce à l’invention d’outils puissants d’analyse et de financement conséquents pour les instituts, prend un nouvel essor et acquiert un formalisme théorique de science dite « dure », Les termes de « rétroaction » (feedback), ainsi que les expressions « système de contrôle », « réseau », « amplificateur » (enhancer), « mécanisme de guidage » font leur entrée dans le discours biologique. Erwin Chargaff, partie prenante à l’époque, puisqu’il est le découvreur de la « complémentarité des paires de base de l’ADN » (1947-1952) et qu’il aurait soufflé lors d’une rencontre à Cambridge en 1952 les secrets de la chimie de l’ADN à Watson et Crick, nous brosse ici un tableau décapant de l’époque :
« Quand j’ai rencontré F.H.C. Crick et J.D. Watson à Cambridge dans les derniers jours de Mai 1952, ils m’ont fait l’effet d’un couple mal assorti.[…] J’avais conscience de me trouver devant quelque chose de tout à fait nouveau : une ambition et une agressivité démesurées associées à une ignorance quasi totale de la chimie et à un profond mépris de cette science, la science exacte la plus proche des faits – mépris qui devait avoir une influence néfaste sur l’évolution de la ’biologie moléculaire’. »[40]
Quelle sont ces conséquences néfastes que Chargaff à l’air de déprécier ? Vous le saurez lors des épisodes suivants. Mais avant de clore celui-ci, il faut conter le renoncement moral du chercheur et de l’homme du XXe siècle en général. Cela nous permettra de mieux comprendre les atrocités perpétrées en toute quiétude par nos chantres de la connaissance salvatrice et de ne plus s’offusquer en voyant l’entrain toujours renouvelé du scientifique à accomplir la sale besogne pour le militaire et la puissance étatique.
Renoncement et perte totale de sens
depuis l’avènement des deux guerres
« Il y a probablement une limite qu’on n’aurait pas dû franchir, transgresser et qui est marquée par les « deux noyaux ». L’un est le noyau atomique, l’autre le noyau cellulaire. […] Ces limites ont été transgressées à mon époque, à partir de la Seconde Guerre mondiale d’une part par la scission du noyau atomique, et de l’autre, par celle du noyau cellulaire[…]. Les scientifiques d’aujourd’hui ne s’intéressent pas à la contemplation attentive de la réalité, mais à son changement. C’est une rupture, une intervention vraiment révolutionnaire qui a pris place dans les rapports entre la science et la nature. »
Erwin Chargaff[41]
Contrairement à l’idée reçue, le projet Manhattan (création des bombes A et H américaines) n’est pas seulement le premier programme nucléaire, il serait plutôt le premier programme scientifique total. Total dans le sens où il embrasse toutes les disciplines scientifiques du moment : physique quantique et nucléaire, chimie des alliages, thermodynamique, mathématiques appliquées, électronique, etc, mais aussi, sociologie, médecine et biologie. Les biologistes se sont intéressés aux retombées radioactives des essais dans le désert sur les quelques fermiers des ranchs à plusieurs dizaines de kilomètres de l’explosion. Ceux-ci furent gravement impactés par des « hot-spots » radioactifs. Mais ces enquêtes, dans un environnement non contrôlé, n’étaient pas assez fiables. Les scientifiques sont allés beaucoup plus loin en utilisant dans les laboratoires de Los Alamos des cobayes humains appelés du « human product[42] » afin de tester, via des injections sanguines de plutonium, les quantités minimales mortelles ! Jean-Marc Royer, dans Le monde comme projet Manhattan, recense une grande part de ces « expériences grandeur réelle » du nucléaire. Sans nous cantonner au sol américain, on peut citer les expériences françaises en pays bédouin à Reggane puis en Polynésie ou encore sur la république des îles Marshall au Nord-ouest de l’Australie « théâtre de 67 explosions/expériences nucléaires étasuniennes de 1946 à 1958 sur les atolls de Bikini et Eniwetok. »[43]. Un début de reconnaissance par le gouvernement américain a enfin émergé en novembre 2002 : « Toute personne vivant aux États-Unis entre 1958 et 1963 y avait été exposé. Il s’en est suivi des ’épidémies’ de maladies liées aux rayonnements »[44]. C’est tout de même bien facile de reconnaître de telles monstruosités quand toutes les personnes sont aujourd’hui décédées.
Le totalitarisme nucléaire peut se comprendre en termes de portée humaine. En effet, il ne peut laisser indifférent le moindre homme sur Terre conscient de son existence. Les premiers essais nucléaires sont un véritable renoncement à l’éthique scientifique d’assumer la responsabilité d’une expérience (d’autant plus qu’ils faisaient planer des risques majeurs pour l’ensemble de l’humanité[45]). Écoutons Richard Feynman un des responsables scientifiques du projet Manhattan :
« Et puis, j’ai connu von Neumann, le célèbre mathématicien. Le dimanche, lui, Hans Bethe, Bob Bacher et moi allions souvent marcher dans les canyons avoisinants. C’était fort agréable. Je dois à von Neumann d’avoir compris que nous n’avons pas à nous sentir responsables du monde dans lequel nous vivons. Depuis lors, je n’ai cessé de me sentir « socialement irresponsable », et je me suis toujours bien porté. Cette irresponsabilité active qui est la mienne est née de ces conseils que von Neumann me donnait lors de nos promenades. »[46]
Nous pensons que le désir de connaître pour dominer est intrinsèquement lié à la posture du savant depuis Bacon[47], cependant qu’à la Renaissance les savants n’avaient pas les moyens de la puissance. Mais avec le projet Manhattan cela était trop beau. Jamais les scientifiques n’avaient eu autant d’argent et de moyens, d’émulation entre collègues afin de parvenir – sous forme d’un challenge – à l’objet technologique le plus puissant du monde. Le changement de façon de faire de la science se situe en grande partie dans un changement d’échelle de l’action humaine. Celle-ci s’agrandit dans de telles proportions qu’elle embrasse la Terre dans son entièreté. La guerre mondiale et le projet Manhattan prennent à témoin l’ensemble de l’humanité par la puissance déployée et l’intensité ainsi que le nombre des pertes. Le laboratoire-monde qui en découle permet l’expérience scientifique généralisée in vivo, sans temps mort ni salut. C’est l’expérience ultime puisqu’elle met en jeu la totalité de l’existant au service de la cause technoscientifique :
« Ce que l’on peut déduire de la lecture de Sven Lindqvist, c’est que, dès le champ de bataille de 1918, la notion de guerre thermo-industrielle totale a été appliquée à l’ensemble du territoire ennemi, mais qu’avec les bombes atomiques, les fusées intercontinentales et les satellites, elle envahira la planète tout entière, atmosphère, océans et pôles compris. »[48]
C’est un « crime » au sens large, un crime contre l’humanité parce que les scientifiques étaient conscients des dangers mais il fallait le faire, non pour montrer la puissance des Alliés (avec Trinity, les Américains démentirent toute explosion d’une nouvelle bombe et dirent que c’était un entrepôt de munitions qui avait explosé), mais pour voir si cela marchait et qu’est-ce que cela provoquerait sur la matière et le vivant. Les scientifiques, loin de comprendre la portée thanatophile du projet, étaient admiratifs et souhaitaient faire de même dans leurs pays respectifs, pour permettre d’asseoir la puissance scientifique comme une donnée fondamentale des décisions politiques et géostratégiques. La paix serait définitive et le bien apporté par cette découverte ruissellerait sur toute l’humanité. Tel le communiste français, Frédéric Joillot-Curie qui, alors à la tête de la première technoscience agency française (le CEA), écrivait à propos du projet Manhattan :
« Nous ne pouvons nous empêcher d’admirer l’effort de recherche et de construction qui a été fait par les Américains, ainsi que la valeur des savants et techniciens réalisateurs. »[49]
Les crimes nazis venaient d’être découverts, toutes les barrières morales avaient explosé, il ne restait plus une once d’humanité à se partager. La barbarie n’avait plus de frein, tout était possible techniquement, seule la puissance comptait, alors la technique a prévalu sur toute dignité. La guerre généralisée au vivant pouvait commencer.
On peut véritablement parler d’expérience puisque les scientifiques ont toujours été rapatriés sur les lieux du crime pardon, de l’expérience – un désert américain ou une ville japonaise – pour fonder des laboratoires et analyser les impacts de leur joujoux autant sur les humains, que sur la faune et la flore.[50]
Aux États-Unis il a été répertorié un vingtaine[51] d’expérimentations militaires d’armes chimiques, biologiques, et nucléaires ayant pour cobayes des prisonniers et des populations jugées inférieures (Noirs, Amérindiens). Comme par exemple l’opération Top Hat en 1953 de test du gaz moutarde et autres agents chimiques sur des militaires ; ou encore le Holmesburg Program de 1951 à 1974, où l’U.S. Army, l’entreprise chimique Dow Chemical et le laboratoire Johnson & Johnson, sous la houlette du Docteur Albert Kligman de l’Université de Pennsylvanie, testèrent sur des prisonniers l’apposition sur la peau de dioxine et d’autres herbicides provoquant de fortes réactions allergiques et des cancers ; et bien sûr les expériences de radiation de composés radioactifs comme celles du docteur Eugene Saenger et du Defense Atomic Support Agency effectuées entre 1960 et 1971 à l’University of Cincinnati Medical Center sur plus de 90 cobayes humains (pauvres, Noirs, cancéreux en stade terminal, etc), où l’envoi de radiations de 100 rads sur l’ensemble du corps provoqua sur le champ des douleurs intenses, de forts vomissements et la mort des patients dans les semaines suivantes. Dernier exemple : l’opération LAC (Large Area Coverage) de dispersion chimique de zinc, cadmium, sulfite sur six villes des États-Unis et du Canada afin de tester le pattern de diffusion d’armes chimiques. En 1997 une étude du National Research Council (NRC) concluait qu’il n’y a pas eu de répercussions significatives sur les habitants « it said that people were normally exposed to higher levels in urban environments ». Cynisme rampant.
Et pendant que secrètement les militaires maltraitent les corps vils[52], le Congrès des États-Unis entérine en 1962, avec l’amendement Kefauveur-Harris, les règles d’innocuité et de consentement des tests cliniques. Cet amendement est devenu par la suite la norme internationale avec ces quatre phases de test que tout le monde connaît désormais depuis les polémiques sur les vaccins à ARN. Quand l’administrateur consent à établir des barrières juridiques en sciences – qui ne font que ralentir temporairement le scientific power – c’est qu’il s’est assuré avant tout de la possibilité, au besoin, de les contrevenir via le plus souvent les laboratoires militaires et le secret défense. On parlera dans le troisième épisode de ce genre de manigances pour le développement des armes biologiques.
Et c’est dans le sacrifice qu’il en a coûté depuis un siècle, c’est-à-dire avant tout dans le renoncement moral et la fin de tabous sociaux universels (tabou du meurtre, tabou de la modification de la vie, tabou génocidaire, etc.), bien avant le nombre de morts ou de blessés – cette sorte de barbarie moderne sans visage – que ce situe vraiment cette guerre généralisée. Elle n’est pas tant effusion de sang et bousillage de chair que combats et pertes successives de ce qui constitue la décence humaine. Elle est une destruction générale des cultures collectives, plurielles, riches et disparates, au profit d’un « machin » mondialisé et américanisé, un processus d’acculturation bientôt planétairement achevé. La seule morale admise implicitement est le fait technique moderne, ce pragmatisme sans convention, sans culture et dont l’idéologie s’est dissoute dans tous les gestes de nos vies atrophiées. Cette posture nihiliste est là en nous et elle ne développe rien, sauf prendre les faits matériels ad pedem litterae, et nous les envoyer à la gueule sans mot et sans sens pré-établi. N’en déplaise aux réactionnaires qui voudraient revenir à une morale antérieure ou aux anarchistes qui souhaiteraient inventer des nouveaux modes d’être, le progressisme technique est notre fond de pensée, la base maintenant de ce qui nous meut, et c’est en cela que nous avons déjà perdu.
Et nous ne pouvons nous insurger face à cette Machine, trop puissante, trop vaste, totale, sans aucune saillance véritable pour la saisir. Sa portée mortifère dépasse en tout domaine, tout ce qui fait office de support pour imaginer les massacres. Nos mots « mort », « extinction », « fin » « malheur » etcetera, n’arrivent pas à atteindre la portée dramatique de ce qui est en train d’arriver, ils sont trop faibles en sens. Nous n’avons tout simplement pas d’imaginaire adéquat, nous n’en avons jamais eu. C’est peut-être cela la post-histoire : être privé des moyens d’imaginer ce qui arrive. Sans mots, sans imaginaires, nous ne pouvons penser le carnage !
Dans les épisodes suivants, nous nous enfoncerons dans ce puits sans fond du renoncement humain où le biotechnologue a creusé profond, le militaire et l’administrateur lui tenant la pelle et la pioche. Nos guides dans la nuit seront ces quelques poètes et philosophes contemporains de la Shoah et du technocapitalisme – notamment Erwin Chargaff et Günther Anders – qui ont plongé en leur temps et ont entraperçu l’impensable afin d’essayer d’en dire le drame. Ce sont des vademecum précieux dont il nous faut nous inspirer si nous ne voulons pas finir zombifiés ou cyborgisés.
[1] Marx définit le machinisme comme « le mouvement et l’activité du moyen de travail devenu machine se dresse indépendants devant le travailleur. », Le Capital, trad Roy, Paris, Garnier, 1969. p291
[2] Pour celles et ceux qui auraient un peu de mal avec la pensée dialectique (combative) et les termes allemands, nous vous conseillons Jacques Guigou et Jacques Wajnsztzjn, Dépassement ou englobement des contradictions ? La dialectique revisitée, L’Harmattan, 2016.
[3] Le philosophe marxiste Jean Vioulac est celui qui a le mieux compris le lien étroit qui unit la technologie à notre époque et le capitalisme : « L’unité du capitalisme, du mathématisme et du machinisme est devenu manifeste à la fin du XXe siècle avec l’avènement de l’informatique par laquelle le code (abstrait) acquiert le pouvoir de piloter des dispositifs (concrets) en même temps qu’il fournit à ces dispositifs leur autonomie de fonctionnement : ce qui a conduit à la mise en place d’une Machinerie planétaire interconnectée et auto-régulée entièrement déterminée par le numérique, à laquelle sont délégués sans cesse plus de tâche et de fonctions — de mémoire, de calcul, de surveillance, d’organisation, d’anticipation, de décision —, qui déploie une puissance toujours plus grande d’abstraction, de dématérialisation, de formalisation, d’informatisation et de numérisation[…]. » dans Une spirale d’auto-destruction. L’anthropocène a fait émerger un nouveau régime. Introduction à une philosophie de la catastrophe, 25 Juin 2022. Disponible ici : https://legrandcontinent.eu/fr/2022/06/25/une-spirale-dauto-destruction/
[4] Karl Marx, 2011 [1980], manuscrit de 1857-1858 dit « Grundrisse », Éditions sociales.
[5] Le nom de ce chapitre est en réalité « Capital fixe et développement des forces productives » p650-670 des Grundrisse, op. cit.
[6] « Le savoir apparaît dans la machinerie comme quelque chose d’étranger, d’extérieur à l’ouvrier ; et le travail vivant apparaît subsumé sous le travail objectivé agissant de façon autonome. Et, dans la mesure où son action n’est pas conditionnée par le besoin [du capital], l’ouvrier apparaît comme superflu. », Ibid. Marx définit la « machinerie » comme « système automatique de machine mû par un automate » (Grundrisse). C’est exactement la définition du système technologique.
[7] La technoscience peut être vue comme un double processus : 1° application de la science à la technique et aux moyens de production. 2° En retour, la technologisation de la science par des moyens industriels et machiniques et une organisation managériale sous la direction de l’État et à son apport financier. Le tout accomplissant un cercle « vertueux » de montée en puissance.
[8] Erwin Chargaff, Le feu d’Héraclite, édition Viviane Hamy, 2006 [1979], p169.
[9] Pour une explication de la « endless frontier », le front guerrier technoscientifique, voir l’épisode pilote https://lundi.am/Guerre-generalisee-au-vivant-et-biotechnologies-0-4 (aussi disponible sur tarage.noblogs.org)
[10] Page wikipédia en français « Projet génome humain ».
[11] « Comment le séquençage du génome humain est passé de 1 milliard de dollars à moins de 1000 dollars », Forbes, 03.11.2020. https://www.forbes.fr/technologie/comment-le-sequencage-du-genome-humain-est-passe-de-1-milliard-de-dollars-a-moins-de-1000-dollars/
[12] Pour une explication de la différence entre bios et zôê voir l’épisode pilote https://lundi.am/Guerre-generalisee-au-vivant-et-biotechnologies-0-4 (aussi disponible sur tarage.noblogs.org)
[13] Erwin Chargaff, Prémices d’une nouvelle barbarie… Interview publiée dans Michel Salomon, L’avenir de la vie, éd. Seghers, 1981 (pp. 169-189)
[14] Le feu d’Héraclite, op. cit. p192-193
[15] Ibid. p16
[16] Nous vous renvoyons à la somme d’André Pichot, Expliquer la vie. De l’âme à la molécule, Éditions Quae, 2011.
[17] Ibid. p1106.
[18] Ibid. p1117
[19] Jean-Marc Royer, Le monde comme projet Manhattan. Des laboratoires du nucléaire à la guerre généralisée au vivant. Le passager clandestin, 2017. p280
[20] L’imaginaire du « frontier » anglo-américain renvoi à un processus guerrier qui fût développé au départ lors du génocide des amérindiens.
[21] Norbert Wiener, mathématicien militaire, proche de Vannevar Bush, fut mobilisé en 1941 au MIT sur le projet AA Predicator, un calculateur balistique « servo-mécanique » tenant compte des erreurs de frappe. « Outre les retombée théorique, en ce qui concerne notamment la notion de rétroaction, ce dispositif anti-aérien aura une importance déterminante sur la représentation cybernétique de l’humain. Pour reprendre l’expression de l’historien des sciences Peter Galison, c’est un fait une véritable ontologie de l’ennemi qui se profile derrière le AA Predicator. […] Du point de vue du AA Predicator nulle frontière ne subsiste entre le pilote et la machine, ils sont tous les deux constitutif d’un seul et même système » Céline Lafontaine, L’empire cybernétique, p.34-35. Wiener est l’inventeur de la méta-discipline appelée « cybernetic », c’est-à-dire la science du contrôle et du message chez les êtres vivants et les machines. Ce qui est central dans ce nouveau paradigme scientifique c’est l’idée de commande, de contrôle, et plus précisément l’idée que la commande s’exerce par un processus de rétroaction ou « feedback » grâce à un flux de message appelé « information ». Ontologiquement il n’y a pas de différence entre une machine, un être vivant ou la société. Cela aura des impacts immenses dans tout le champ scientifique.
[22] Claude Shannon travaille pendant la guerre dans les services secrets de l’armée dans le domaine de la cryptographie afin de discerner entre le bruit du code proprement vrai. Il est l’inventeur du concept d’information en mathématique (même si l’idée est déjà là chez Schrödinger) et travaille sur la communication entre machines pour le Bell Lab. Son mentor et directeur de thèse n’est autre que Vannevar Bush.
Voir Claude Shannon et Waren Weaver, La Théorie mathématique de la communication, édition Cassini, 2018 [1949].
[23] John von Neumann, mathématicien d’origine hongrois immigré aux Etats-Unis, travaille en 1945 pour le projet ENIAC, un calculateur balistique pour l’armée. Il en sort un rapport théorique définissant les grandes lignes de ce que sera l’ordinateur moderne le « first draft of a report on the EDVAC », l’Electronic Discrete Variable Automatic Computer livré en 1949 dans les labos du M.I.T. Voilà que les systèmes de traitement de l’information dont parlait Wiener reçoivent à peu près en même temps une formulation mathématique, une réalisation en dur, hardware, dans des machines capables d’implémenter n’importe quel algorithme. Anti-communiste acharné, il travailla aussi pour le projet Manhattan afin d’utiliser la puissance de calcul de ces nouvelles machines pour la bombe, notamment afin de calculer avec précision l’altitude optimale d’explosion pour que la bombe sur Hiroshima fasse le plus de morts possible.
[24] Pour une histoire et une critique philosophique de la cybernétique, voir Céline Lafontaine, L’Empire cybernétique, des machines à penser à la pensée machine, Seuil, 2014, plus particulièrement le chapitre 1 « Le continent cybernétique ». Pour un décryptage des conférences Macy voir Jean-Pierre Dupuy, Aux origines des sciences cognitives, La découverte, 1994. Pour une analyse fine de l’émergence de la pensée informatique en science puis dans la société voir Philippe Breton, L’Utopie de la communication, Paris, La Découverte, 1995.
[25] Céline Lafontaine, L’Empire cybernétique, op. cit. p40
[26] Merleau-Ponty, La Nature, Notes de cours du Collège de France, Seuil, 1995 cité dans Lafontaine, L’Empire cybernétique op. cit. p56.
[27] Par exemple Evelyn Fox Keller, Expliquer la vie. Modèles, métaphores et machines en biologie du développement, Éditions Gallimard 2004.
[28] On note déjà ans le Diebold Research Program de 1971, que « loin de simplifier la technique ou les affaires, l’ordinateur a augmenté la complexité, et imposé aux chercheurs et aux directeurs une série de contraintes constamment changeantes. » (Cité et traduit par Jacques Ellul, Le système technicien, Édition du Cherche midi, 2004 [1977])
[29] Bio-Objets, op. cit. p268
[30] Qu’est-ce que la vie ?, Paris, Seuil, 1986
[31] Pour une analyse du lien entre cybernétique et biologie moderne, on vous renvoie au livre d’Evelyn Fox Keller, Rôle des métaphores dans le progrès de la biologie, Les empêcheurs de penser en rond, 1999. Le livre est épuisé et très cher d’occasion, avis aux éditeurs !
[32] Le terme de « biologie moléculaire » fut inventé en 1938 par le mathématicien et physicien Warren Weaver, un des pionner de la cybernétique, co-inventeur de la vision mathématique de l’information avec Shannon. Il était à l’époque le directeur des « Sciences naturelles » pour la fondation Rockefeller et permit de débloquer des investissements considérables pour l’instrumentation en biologie notamment la diffraction des macro-molécules par rayon X permettant ainsi la découverte après-guerre de la fameuse double hélice d’ADN. Il entreprit aussi de grands projets en génétique, en agriculture (en particulier pour le développement de nouvelles souches de blé et de riz) et en recherche médicale. Le mélange des genres entre biologie et mathématique pourrait paraître surprenant, mais à l’aune de l’application de la théorie de l’information à la biologie, il ne l’est plus.
[33] Le feu d’Héraclite, op. cit. p99-100.
[34] Schrödinger explique que la matière vivante se soustrait à la désintégration qui conduit à l’équilibre thermodynamique en se nourrissant de néguentropie. Drôle de nourriture !
[35] Dans son petit opus, Schrödinger parle de « code-script » et de « mécanisme génétique » et compare le code génétique au langage Morse.
[36] Voir l’histoire critique qu’en donne André Pichot, Histoire de la notion de gène, Flammarion 1999, les chapitres VIII, « gène et information (Schrödinger) » et IX « Gène et Biologie moléculaire (D’Avery à nos jours) » p 175-p 234 « Dès lors, tout alla très vite. La théorie de Schrödinger servait, plus ou moins ouvertement, de guide. Elle fournissait la structure générale, l’ossature qu’il fallait recouvrit la chair. Et c’est la voie ouverte par les travaux d’Avery, MacLeod et Mc Carty, puis de Watson et Crick, qui fournissait cette chair et donnait son sens à cette ossature. » p207
[37] Norbert Wiener, La cybernétique : Information et régulation dans le vivant et la machine, Seuil, 2014
[38] Voir Céline Lafontaine, L’Empire cybernétique, des machines à penser à la pensée machine, Seuil, 2014, chapitre « La conquête : Bateson et les éclaireurs »
[39] Céline Lafontaine, Le corps cybernétique de la bioéconomie, Hermes la revue n°68, CNRS Éditions, p31-p35, 2014.)
[40] Le feu d’Héraclite, op.cit. p165-168
[41] Prémices d’une nouvelle barbarie… op. cit. p3
[42] C’est à peu près le terme (« matériel humain ») que le Dr Frankenstein utilise pour parler des corps qu’il déterre pour ses expériences monstrueuses. Nous n’y voyons pas une coïncidence mais plutôt la critique de la réification à l’œuvre qui est déjà présente dans les sciences naturelles et que Marie Shelley connaissait bien via les discussions de son mari avec Lord Byron et d’autres lettrés de l’époque.
[43] Le monde comme projet Manhattan, op. cit. p.261.
[44] Ibid. p.84 citant Richard L. Miller, Under the Cloud. The Decades of Nuclear Testing, Two-Sixty Press, 1991.
[45] En plus du risque non négligeable d’embraser l’atmosphère terrestre, les essais nucléaires dans le désert d’Alamagordo ont propagé des poussières radioactives sous formes de « hot spot » à des centaines de kilomètre à la ronde.
[46] Richard Feynman, Vous voulez rire, monsieur Feynman !, éd. Odile Jacob, 2000, cité par Henry Mora dans « Nous n’avons pas à nous sentir responsables du monde dans lequel nous vivons » 10 octobre 2004 sur le site https://sniadecki.wordpress.com/2012/11/11/mora-recherche/
[47] Depuis le XVI siècle on peut parler de science moderne, c’est à cette époque qu’elle devient une opératoire pour l’ingénierie naissante. Voir notre « Avis aux chercheurs, aux professeurs, aux ingénieurs. Dix thèses sur la technoscience », lundi matin n°269, 4 janvier 2021.
[48] Le monde comme projet Manhattan, op. cit. p83.
[49] Journal Atome, n°1, Mars 1946, cité par Jean-Marc Royer, Le monde comme projet Manhattan… op. cit. P249 note 1.
[50] Par exemple à la suite du bombardement d’Hiroshima, les américains implantèrent un laboratoire dès 1946, l’ABCC (Atomic Bomb Casualty Commission) dirigé par les militaires et fonctionnant avec des scientifiques militaires : « L’ABCC c’est établie à Hiroshima dix-sept mois après les bombardements, pour étudier les effets des radiations chez les survivants, sans jamais leur prodiguer le moindre soin pendant les trente années de son existence […] elle utilise les premiers ordinateur IBM qui l’autorisent à exploiter les données de milliers de dossiers, et possède un parc automobile qui lui permet d’aller chercher les victimes inscrites sur les registres n’importe où en ville. » Ibid. p 136. En 1950 elle compte 1061 employés dont 143 viennent des États-Unis.
[51] Dans un article wikipédia en anglais extrêmement documenté « Unethical experimentation in United States » https://en.wikipedia.org/wiki/Unethical_human_experimentation_in_the_United_States
[52] Pour reprendre l’expression de Grégoire Chamayou comme disqualification du corps humain des pauvres et opprimés permettant sa mise en ressource (Les Corps vils. Expérimenter sur les êtres humains aux XVIIIe et XIXe siècle, La Découverte, 2008)