Le « long-termisme » : Une idéologie toxique ?

Peu connu en dehors des campus d’élite anglo-saxons et de la Silicon Valley, ce courant philosophique est de plus en plus influent. Son objectif : maximiser les chances de survie et le bien-être des générations futures. Mais cette école suscite de violentes critiques.

Le long-termisme est né il y a une dizaine d’années, sur le campus d’Oxford.

Un matin sur France-Inter, vers la mi-avril, des spécialistes débattent de l’appel pour un moratoire sur les développements de l’intelligence artificielle (IA) lancé par une centaine d’experts : « Il faut se demander qui est derrière : ce sont des courants transhumanistes, avec des citations de Nick Bostrom, ce philosophe suédois théoricien de la superintelligence et du long-termisme… », gronde Jean-Gabriel Ganascia, professeur à la Sorbonne et ex-président du comité d’éthique du CNRS. 

Le long-termisme, une idéologie typiquement “Elon Musk”, c’est l’idée qu’il faut aujourd’hui coûte que coûte, quel que soit le prix, pérenniser la civilisation et l’humanité pour les millénaires à venir. Cela justifie donc tous les projets sur la conquête de l’espace, tous les projets en biotechnologie, sur l’immortalité… », cingle Asma Mhalla, spécialiste des enjeux géopolitiques du numérique. Long-termisme ? Mais de quoi parlent-ils ?

Très rarement évoqué en France, ce concept est une bizarrerie de la philosophie anglo-saxonne qui anime les discussions entre entrepreneurs de la Silicon Valley. Le débat sur les dangers de l’IA lui a donné une nouvelle visibilité. Mais la perspective techno-utopiste qu’il porte a de quoi effrayer davantage que ChatGPT et ses amis.

Le long-termisme est né il y a une dizaine d’années dans le calme pluriséculaire du campus d’Oxford, du côté des chercheurs en éthique de la prestigieuse université. Ces derniers baignent dans l’utilitarisme de Jeremy Bentham (1748-1832), selon qui l’éthique exige de chercher le bien-être pour le plus grand nombre possible de personnes, et dans son sous-produit, le conséquentialisme, cette idée que la moralité de toute action ne se juge ni aux intentions ni à des principes prédéterminés, mais aux seules conséquences de celle-ci.

Ensemencé par la pensée de plusieurs philosophes contemporains – le Britannique Derek Parfit, l’Australien Peter Singer, le sulfureux Suédois Nick Bostrom –, le long-termisme a été cultivé dans les serres de l’« altruisme efficace » (effective altruism ou EA), un mouvement fondé à Oxford à la fin des années 2000 par l’Ecossais William MacAskill, l’Australien Toby Ord et quelques autres jeunes chercheurs soucieux de maximiser rationnellement l’impact des dons aux organisations caritatives.

Le principe : d’un point de vue moral, les vies du futur (et même d’un futur extrêmement éloigné) comptent autant que celles du présent. William MacAskill, la vedette du mouvement, auteur d’un best-seller sur le sujet (« What We Owe the Future », Oneworld, 2022), donne souvent cet exemple : vous ramassez une bouteille cassée dans la nature pour éviter qu’un enfant ne se blesse ; peu importe que ce soit un enfant déjà vivant ou à naître dans cent ans, la valeur de votre geste est la même. Mais comme les humains du futur sont potentiellement bien plus nombreux que ceux d’aujourd’hui – des milliards de fois plus nombreux ! –, rien ne peut égaler la valeur des actions visant à accroître leurs chances de survie et leur bien-être.

Pour Nick Bostrom, pape du long-termisme, l’intelligence humaine est peut-être, dans l’Univers, un phénomène d’une rareté extraordinaire. Il faut donc tout faire pour éviter son extinction. La Terre peut vivre un milliard d’années supplémentaires, et si les humains parviennent à la quitter pour s’implanter dans des galaxies voisines, on peut envisager des milliards de milliards de milliards de consciences humaines futures, y compris celles qu’on hébergera dans des simulations informatiques – on pense à « Matrix », mais Bostrom n’aime pas la science-fiction. « Le potentiel ultime de la vie intelligente d’origine terrestre est astronomique », répète-t-il. Selon ses calculs, le nombre de vies pourrait atteindre 1058 : un 1 suivi de 58 zéros ! La priorité doit donc être de supprimer toute menace contre ces 1058 vies potentielles. Quoi qu’il en coûte.

Or, disent les long-termistes, nous sommes aujourd’hui face à une responsabilité historique. Plusieurs des technologies que l’homme développe depuis le XXe siècle font peser sur l’avenir des « risques existentiels » (un concept fétiche forgé en 2002 par Nick Bostrom) : guerre nucléaire ou biologique, pandémie incontrôlable… et surtout autonomisation d’une « superintelligence » non contrôlée. « Une fois que l’intelligence artificielle dépassera de loin l’intelligence humaine, nous pourrions nous retrouver avec aussi peu de pouvoir sur notre avenir que les chimpanzés en ont sur le leur », écrit ainsi William MacAskill dans un article pour le « New York Times ».

Son ami Toby Ord évalue le risque de catastrophe pour l’humanité, lors du siècle qui vient, à une chance sur six. La probabilité de la roulette russe ! Réduire les risques, même infimes, d’extinction de l’humanité est donc l’acte le plus moral que l’on puisse imaginer. Leur philosophie, qui se veut rationnelle et donc chiffrée, passe par des calculs moraux acrobatiques. Exemple : si l’on considère qu’il y a 1016 vies à venir sur la Terre, « la valeur à attendre de la réduction du risque existentiel d’un simple millionième de point de pourcentage est au moins cent fois supérieure à la valeur d’un million de vies humaines »

Fantasmes d’entrepreneurs

Le long-termisme semble donc une école un peu timbrée, mais animée des meilleures intentions. Ne prolonge-t-elle pas les sages principes du philosophe allemand Hans Jonas, selon lequel chaque génération a la responsabilité de penser aux suivantes ? Mais la radicalisation de cette idée, avec cette inquiétante utopie transhumaniste qui scintille à l’horizon, soulève des engouements et des polémiques extraordinaires.

Des dizaines de millions de dollars, d’abord, pleuvent sur les différents laboratoires de recherche, fondations et autres think tanks créés autour du long-termisme. A Oxford, ce sont le Future of Humanity Institute (dirigé par Bostrom), le Global Priorities Institute, 80, 000 Hours, la Forethought Foundation ; à Cambridge, le Centre for the Study of Existential Risk ; à Londres, le Longview Philanthropy ; aux Etats-Unis, le Machine Intelligence Research Institute (Berkeley), l’Open Philanthropy (San Francisco) ou le Future of Life Institute (celui-là même qui a promu le fameux appel pour une pause dans l’IA)… et l’on en passe.

Parmi les généreux mécènes : Dustin Moskovitz, le cofondateur de Facebook ; Elon Musk, le patron de SpaceX, Tesla et Twitter, qui considère que le livre de MacAskill « colle presque parfaitement avec [sa] philosophie » ; Jaan Tallinn, le cofondateur de Skype ; Peter Thiel, le spéculateur libertarien… ou encore Sam Bankman-Fried, le fondateur de la plateforme de cryptomonnaies FTX qui s’est récemment effondrée dans un éclaboussant scandale. Au total, les « altruistes efficaces » ont réussi à drainer, pour leurs différentes causes, 46 milliards de dollars (milliards, oui !), selon une estimation qu’ils ont faite en août 2022.

Pourquoi ce succès du long-termisme chez certains porte-drapeaux de la tech ? Nick Bostrom, à qui nous avons posé la question, l’attribue à la « rationalité » de l’approche, qui correspondrait bien selon lui à la « culture de la Silicon Valley ». Autre interprétation plus critique : les promoteurs du long-termisme savent flatter les fantasmes des entrepreneurs de la Vallée, leur sentiment de supériorité, leurs rêves de mondes techno-futuristes, leur propension à s’imaginer en hommes providentiels… Jean-Gabriel Ganascia commente :« Pour les long-termistes, tous les hommes sont égaux, mais certains sont plus égaux que d’autres : ceux qui développent les technologies et peuvent contribuer davantage au sauvetage de l’espèce humaine. »

Chez les altruistes d’Oxford, on minimise le phénomène : « Les donateurs de la Silicon Valley sont très peu nombreux. Musk a cessé ses dons. La vérité, c’est que la Silicon Valley n’aime pas trop le long-termisme, qui dénonce les risques technologiques », commente Shakeel Hashim, du Centre for Effective Altruism. Toute l’ambiguïté de l’idéologie long-termiste est là, dans ce va-et-vient entre techno-alarmisme et techno-fascination, entre eschatologie et utopie. Tantôt la tech va tuer l’humanité, tantôt elle va la sauver.

La fin justifie les moyens

Si cette philosophie ensorcelle les uns, elle en révolte d’autres. Les réactions qu’elle suscite chez de nombreux universitaires sont virulentes. La philosophe Alice Crary, professeure à la New School de New York, dénonce une « idéologie toxique ». Ce courant de pensée, nous explique-t-elle, « fait tout pour éviter de critiquer le système politique et économique actuel », qui est pourtant responsable des risques de catastrophe qu’il pointe.« Le long-termisme détourne l’attention des problèmes réels, comme le changement climatique ou la dévastation de l’environnement. »

Aux yeux des long-termistes en effet, les risques environnementaux ne sont pas les pires. « MacAskill a même explicitement suggéré que les êtres humains survivraient à un réchauffement de 15 °C », s’indigne la chercheuse. Nick Bostrom balaie la critique : « Les gens aiment penser que, quel que soit le problème sur lequel ils travaillent, c’est le plus important… Mon impression, c’est que les long-termistes se soucient davantage du changement climatique que la moyenne. » Pour Shakeel Hashim, si le climat est un risque déjà bien cerné et combattu, ce n’est pas le cas des autres, comme l’IA, « incroyablement négligés ».

L’adversaire le plus acharné des long-termistes s’appelle Emile P. Torres, doctorant à l’université Leibniz de Hanovre – il soutient et publie sa thèse cet été : « Human Extinction » (Routledge, juillet 2023). Philosophe et historien, toujours coiffé d’un bonnet, c’est un défroqué, si l’on peut dire : il a par le passé écrit pour the Future of Life Institute et a été assistant de recherche pour le futurologue Ray Kurzweil, inventeur du concept (long-termiste avant l’heure) de « singularité », autrement dit la perspective d’une explosion de l’intelligence des ordinateurs, à côté de laquelle l’intelligence humaine ne pèsera plus rien.

En 2019, Torres a pris conscience du « danger » que constituait l’idéologie dans laquelle il baignait. Il a alors commencé à la combattre : conférences, interviews, articles, tweets. « Les long-termistes poursuivent un rêve techno-utopique précis : colonisation de l’espace, posthumanisme, immortalité, création de la population la plus large possible d’être humains, dont la majorité seront des esprits numériques. Tout ce qui peut faire obstacle à ce paradis est considéré comme un “risque existentiel”. Et en bons utilitaristes qu’ils sont, la fin justifie les moyens. Utopie + utilitarisme, c’est la recette classique des pires drames de l’histoire, y compris des génocides », dit-il.

Leur quête prêterait à rire, ajoute-t-il, si le mouvement long-termiste n’était pas aussi riche et puissant. Il évoque sa progression dans les couloirs de l’ONU (où l’on prépare le Sommet de l’Avenir de septembre 2024) ; il cite le cas de Jason Matheny, long-termiste affiché qui a occupé de hautes fonctions à Washington, y compris au Conseil de Sécurité nationale de Joe Biden ; il évoque la tentative (ratée) de placer en 2022 un long-termiste au Congrès, avec la candidature de Carrick Flynn dans l’Oregon… « Ils vont chercher à prendre le pouvoir, c’est la suite logique », dit-il.

Paranoïa ? Torres n’est pas le seul à avoir rompu avec ce qu’il considère aujourd’hui comme une secte religieuse (« sauf qu’il s’agit pour eux de créer Dieu »). Le célèbre philosophe Peter Singer, qui a contribué à l’essor de l’« altruisme efficace », a lui aussi pris ses distances, dans une tribune publiée en octobre 2021 : « Considérer les problèmes actuels – autres que l’extinction de notre espèce – à travers le prisme du “long terme” et du “risque existentiel” peut les réduire à presque rien, tout en fournissant une justification pour faire presque n’importe quoi afin d’augmenter nos chances de survivre assez longtemps pour se propager au-delà de la Terre », écrit-il. Et il rappelle dans la foulée comment la belle utopie formulée par Marx a justifié les pires crimes de Lénine et Staline.

L’Obs

__________

Le long-termisme, un concept dangereux ?

Dans un article paru dans Philosophie Magazine, Nicolas Gastineau s’intéresse au « long-termisme », un courant philosophique en plein essor dans les pays anglo-saxons. L’une des voix de ce courant est portée notamment par William MacAskill, auteur de What We Owe the Future [Ce que nous devons au futur], New York : Basic Books, 2022, non encore traduit en français), dont la parution a fait grand bruit outre-Atlantique (avec notamment une tribune dans le New York Times et la une du Time Magazine).

Le point de départ de cette pensée est que nous sommes en train de jouer à la roulette russe avec notre avenir et que nous avons environ une chance sur six de mettre en péril le futur de l’humanité à cause d’une guerre nucléaire, de la propagation d’un virus, d’une crise écologique, etc. Le but des long-termistes est de faire le plus grand bien de la manière la plus rationnelle qui soit. Ils jugent la valeur morale d’un acte au résultat qu’il produit. Férus de calcul, ils réfléchissent donc à la manière de mieux faire le bien – Doing Good Better, un autre ouvrage de William MacAskill, paru en 2015 (New York : Random House).

Le long-termisme, qu’est-ce que c’est ?

Premièrement, selon eux, il est plus utile de faire fortune aujourd’hui dans la tech et d’investir dans la préservation des générations futures que de devenir médecin ou faire partie du secteur humanitaire. Deuxièmement, ils partent du principe assez simple que deux vies valent mieux qu’une. Ainsi, selon eux, si un train est lancé à pleine vitesse et qu’il risque de tuer cinq personnes mais qu’il est possible de le détourner pour ne tuer que deux personnes, il faut le faire.

Sauf que pour les long-termistes, cette illustration s’applique dans l’espace et dans le temps. Ainsi, disent-ils, il vaut mieux tuer 50 personnes aujourd’hui que 2 000 personnes dans mille ans. Car, toujours selon la même logique, au regard des évolutions démographiques et si l’espèce humaine survit en moyenne aussi longtemps que les autres espèces (environ un million d’années), alors plus de 99 % des hommes ne sont pas encore nés. Il est donc légitime de réorienter une partie des efforts d’aujourd’hui vers un futur plus lointain.

Selon William MacAskill, la pire chose que nous pourrions faire à l’humanité serait de faire stagner le progrès technologique, qui est systématiquement synonyme, selon lui, d’amélioration de nos conditions de vie. Les long-termistes expliquent qu’aujourd’hui la technologie est allée assez loin pour créer des catastrophes (risque de conflit nucléaire, de catastrophe écologique, d’une intelligence artificielle surpuissante), mais pas suffisamment loin pour les résoudre. Les long-termistes sont, entre autres, fascinés par la conquête spatiale qui permettrait, selon eux, d’assurer un avenir aux générations futures.”

Pourquoi le long-termisme est-il dangereux ?

Le danger de ce courant de pensée vient notamment du fait que si l’on suit la logique long-termiste, il vaut mieux investir son argent dans l’amélioration des conditions de vie des générations à venir (y compris dans un avenir très lointain), quitte à sacrifier la lutte contre la pauvreté ou les tentatives de résolution des conflits, voire la lutte contre le réchauffement climatique (tant qu’il ne menace pas l’humanité entière), qui ont des conséquences mineures au regard de l’existence de l’humanité. Or, les adeptes de cette philosophie sont riches, puissants, installés dans les milieux universitaires anglo-saxons et les cercles de décision importants, et ils investissent des sommes considérables dans des projets allant dans ce sens.

Nicolas Gastineau, dans son article paru dans Philosophie Magazine, donne l’exemple de Sam Bankman-Fried qui a parfaitement suivi les enseignements de William MacAskill : il est devenu milliardaire dans la cryptomonnaie, puis a fondé le FTX Future Fund, un fonds philanthropique dont le budget (132 millions de dollars US) est entièrement consacré à l’avenir lointain — William MacAskill en est l’un des conseillers ; cependant, notons que depuis la parution de l’article, Sam Bankman-Fried a fait faillite et perdu toute sa fortune, compromettant l’avenir de sa fondation. Elon Musk a aussi déclaré dans un tweet se reconnaître dans la philosophie long-termiste.

L’un des risques est également qu’il y ait méprise entre les finalités de la prospective et du long-termisme. Car, si les deux courants de pensée s’intéressent au futur, il y a une différence fondamentale : en prospective, le scénario final importe moins que la trajectoire empruntée. Or, porter intérêt à la trajectoire signifie que la prospective s’enracine dans le présent et dans les moyens de faire émerger un futur souhaitable qui prenne en compte les générations futures mais également les grands défis du monde contemporain.

Gastineau Nicolas, « Le long-termisme, la nouvelle philosophie qui voit (trop) loin », Philosophie Magazine, 16 septembre 2022.

Philosophie Magazine