Le paradoxe de Fermi pose une question simple : si l’univers est si vaste et si ancien, où sont les autres ? Des milliards d’étoiles, des milliards d’années, et pourtant aucun signal, aucune visite, aucune trace d’une autre civilisation. Les réponses les plus courantes relèvent de la physique ou de la biologie : le voyage interstellaire est peut-être trop difficile, la vie complexe trop rare, peut-être sommes-nous véritablement seuls. Mais il existe une autre possibilité, moins spectaculaire et bien plus inquiétante. Peut-être que les civilisations se détruisent elles-mêmes de manière routinière. Non par un accident cosmique spectaculaire, mais par une défaillance structurelle, ordinaire, de leur capacité à se coordonner.
C’est l’hypothèse du Grand Filtre, et la version qui m’empêche de dormir la nuit place ce filtre non pas derrière nous mais devant, quelque part entre “suffisamment intelligent pour construire une technologie dangereuse” et “suffisamment sage pour y survivre”.
Le problème de coordination à l’échelle civilisationnelle
Considérons l’état actuel du développement de l’intelligence artificielle. Chaque gouvernement majeur, chaque grande entreprise technologique et un nombre croissant d’institutions académiques reconnaissent que construire des systèmes d’IA puissants sans mesures de sécurité adéquates comporte des risques énormes. Des articles sont publiés. Des conférences sont organisées. Des lettres ouvertes sont signées. En septembre 2024, l’International Institute for Management Development a lancé une Horloge de Sécurité de l’IA, sur le modèle de l’Horloge de l’Apocalypse, pour mesurer à quel point nous sommes proches d’une catastrophe causée par l’IA. Elle a démarré à 29 minutes de minuit. En mars 2026, elle en était à 18 minutes.
Et pourtant la course continue de s’accélérer.
Ce n’est pas parce que les gens impliqués sont stupides ou malveillants. C’est parce que la structure des incitations rend le ralentissement individuel irrationnel. Si OpenAI fait une pause pour travailler sur l’alignement, Anthropic ou Google ou DeepSeek gagne du terrain. Si les États-Unis imposent une réglementation stricte, la Chine prend l’avantage. Si une entreprise investit massivement dans la recherche en sécurité, ses investisseurs voient des rendements inférieurs à ceux des concurrents qui ne le font pas. C’est le dilemme du prisonnier à l’échelle civilisationnelle, et l’enjeu n’est pas des parts de marché mais l’avenir de l’espèce.
OpenAI comme microcosme
La trajectoire d’OpenAI raconte l’histoire en miniature. Fondée en 2015 comme association à but non lucratif avec pour mission déclarée de s’assurer que l’intelligence artificielle générale profite à toute l’humanité, elle s’est transformée en société à profit plafonné, puis restructurée pour accueillir un investissement de 13 milliards de dollars de Microsoft, puis a annoncé des plans de conversion complète en entreprise à but lucratif. Chaque étape était individuellement défendable : il faut du capital pour être compétitif, il faut être compétitif pour avoir de l’influence sur le développement de la technologie, il faut de l’influence pour garantir la sécurité.
Mais l’effet cumulé est qu’une organisation créée spécifiquement pour résister à la commercialisation de l’IA transformative en est devenue l’exemple même. Le cadrage de Sam Altman présentant l’IA comme un “service public comme l’eau” est instructif d’une manière qu’il n’a peut-être pas voulue. L’eau et l’électricité sont des services publics réglementés précisément parce qu’ils sont essentiels, avec un contrôle public, un encadrement des prix et une responsabilité démocratique. Altman invoque l’analogie pour normaliser la dépendance tout en omettant discrètement la partie réglementaire. Il veut la légitimité culturelle de la comparaison sans les conséquences réglementaires.
Cela n’est pas propre à OpenAI. Les mêmes dynamiques opèrent chez Google, Meta, Anthropic et tous les autres acteurs du secteur. Le problème n’est pas un seul méchant ; c’est un système qui récompense la vitesse plutôt que la réflexion, l’extraction plutôt que la distribution, et la compétition plutôt que la coordination.
L’angle mort structurel du capitalisme
Le capitalisme est extraordinairement efficace pour optimiser les maxima locaux. Il peut produire des smartphones, du streaming et de la livraison le lendemain avec une précision remarquable. Ce qu’il ne sait pas faire, c’est résoudre des problèmes qui nécessitent une coordination mondiale, des horizons temporels longs et l’internalisation des externalités. Le changement climatique en est la preuve : même avec un consensus scientifique, même avec des conséquences déjà visibles, même avec la technologie existante pour y remédier, les États-nations font défection. La logique est toujours la même : “Si nous ralentissons, quelqu’un d’autre prend l’avantage.”
La gouvernance de l’IA sera plus difficile que le climat. Les enjeux compétitifs sont plus élevés parce que quiconque contrôle les systèmes d’IA les plus puissants contrôle un levier économique et militaire considérable. Le calendrier est plus court parce que les capacités de l’IA progressent plus vite que toute transition énergétique. Et les boucles de rétroaction sont moins visibles parce que les dommages causés par des systèmes d’IA mal alignés ne s’annoncent pas de la même manière que la montée des eaux.
Un exercice de simulation appelé “Intelligence Rising”, mené 43 fois avec des participants issus du gouvernement, de l’industrie et du monde académique, a révélé le même schéma à chaque fois : les issues positives nécessitaient presque toujours une coordination entre des acteurs dont les incitations par défaut les poussaient fortement à se concurrencer. Livrés à eux-mêmes, les joueurs faisaient la course. Les rares fins heureuses survenaient quand quelqu’un imposait une structure rendant la coopération individuellement rationnelle, et pas seulement collectivement souhaitable.
Le filtre n’est pas spectaculaire
Le Grand Filtre, s’il se trouve devant nous, ne ressemble probablement pas à une apocalypse hollywoodienne. Il ressemble à une série de décisions raisonnables, individuellement défendables, qui produisent collectivement une catastrophe. Il ressemble à chaque pays disant “nous ne pouvons pas nous permettre de prendre du retard” tandis que ce vers quoi ils courent devient de plus en plus dangereux. Il ressemble à des conseils d’administration optimisant les rendements trimestriels tandis que la technologie qu’ils déploient remodèle l’environnement informationnel de manières que personne ne comprend pleinement. Il ressemble à des êtres intelligents faisant exactement ce que les pressions compétitives les incitent à faire, incapables de s’arrêter.
Le contre-argument le plus courant est que les technologies précédentes ont suscité des peurs similaires et que nous avons survécu. Nous avons survécu aux armes nucléaires, à la pollution industrielle, au génie génétique. C’est vrai, mais c’est aussi le biais du survivant dans sa forme la plus littérale. Nous n’entendons pas les civilisations qui n’y sont pas arrivées. Et le bilan n’est pas aussi propre qu’il en a l’air : nous sommes passés à quelques minutes de la guerre nucléaire à au moins trois reprises (Able Archer 83, la crise des missiles de Cuba, la fausse alerte satellite soviétique de 1983), et nous avons survécu à ces moments autant par chance que par sagesse.
Que reste-t-il à faire ?
J’ai perdu mon travail de traducteur à cause de l’IA. Pas de manière spectaculaire, mais progressivement : des tarifs en baisse, moins de projets, des clients passant à la traduction automatique avec une légère révision humaine. Le marché ne s’est pas effondré du jour au lendemain ; il s’est érodé sur des années. Je me suis adapté. J’étudie désormais l’ingénierie électronique et la cybersécurité parce que ces domaines ont une composante physique qui résiste à l’automatisation, du moins pour l’instant.
Je ne dis pas cela pour susciter la sympathie. Je le dis parce que cette expérience me donne une relation très concrète avec le problème abstrait que je viens de décrire. La défaillance de coordination autour de l’IA n’est pas quelque chose que je lis dans un rapport de think tank. C’est la raison pour laquelle ma carrière s’est terminée.
Et la conclusion à laquelle j’arrive n’est pas optimiste au sens large, mais elle est honnête : le système macro ne va probablement pas se réparer tout seul. Les États-nations ne se coordonneront pas à temps. Les entreprises ne ralentiront pas volontairement. Les structures d’incitation sont trop puissantes et les mécanismes de coordination trop faibles.
Ce qui reste, c’est le micro. Voltaire termine Candide par “il faut cultiver notre jardin”. Après avoir traîné ses personnages à travers toutes les catastrophes imaginables, des tremblements de terre aux guerres en passant par l’Inquisition, sa conclusion n’est pas que le monde peut être réparé, mais que le jardin peut être entretenu. Ce n’est pas de la résignation. C’est une position éthique sérieuse : quand les systèmes dans lesquels vous vivez sont au-delà de votre capacité de réparation, l’échelle à laquelle vous opérez, les gens que vous traitez équitablement, le travail que vous faites honnêtement, tout cela compte encore.
Essayer de ne pas être un connard à sa propre échelle. S’adapter. Construire des choses qui fonctionnent. Étudier sérieusement. Prendre soin des gens proches de soi. Ce n’est pas suffisant pour sauver l’espèce, mais ce n’est pas rien.
Le Grand Filtre est peut-être devant nous. Mais le jardin est juste là.
Rédigé en collaboration avec une IA. Voir la page du blog pour en savoir plus sur ma méthode.
Sources : International Institute for Management Development, Horloge de Sécurité de l’IA (2024-2026) ; 80,000 Hours, “Risks from power-seeking AI systems” (2025) ; Wikipédia, “Existential risk from artificial intelligence” ; ScienceDirect, “Strategic Insights from Simulation Gaming of AI Race Dynamics” (2025) ; Bulletin of the Atomic Scientists, “Stopping the Clock on catastrophic AI risk” (2025) ; AEI, “AI Acceleration: The Solution to AI Risk” (2025)