La hype de l'IA : pourquoi les loups crient au loup ?
Ou pourquoi une figure de l'IA écrit sur ses dangers
Bonjour les ami.e.s,
Récemment, Dario Amodei, le patron d’Anthropic – concurrent d’OpenAI à l’origine de Claude – s’est inquiété de la menace que ferait peser sur l’humanité une « IA puissante ». En apprenant cette nouvelle, plusieurs personnes de mon entourage ont eu la même interrogation : s’il pense que le génie sera mauvais, pourquoi frotte-t-il sur la lampe ?
Dans son long article publié fin janvier, l’Américain part d’une métaphore bien connue de Carl Sagan, celle de l’adolescence technologique – ce moment dangereux où nous acquérons un outil surpuissant sans avoir encore la sagesse pour bien l’utiliser. Il détaille ensuite cinq grandes catégories de risques liées à l’émergence de cette IA puissante. Le plus inquiétant ? Elle pourrait décider « qu’il est justifiable d’exterminer l’humanité » ou bien aider n’importe qui à concocter une arme biologique.

Cette tonalité crépusculaire peut en effet surprendre. C’est un peu comme si le patron de Thales tenait des discours antimilitaristes ou que celui de HSBC s’emportait sur les effets destructeurs de la finance. Nous sommes habitués aux repentis du numérique, qui après avoir gagné leur vie à fabriquer d’addictifs designs UX se réveillent un matin avec des remords et entament une carrière de conférencier TEDX (pardon, c’est méchant). Mais ce n’est pas un repenti qui parle ici : Dario Amodei est bien aux manettes.
Ce promoteur de l’alignement des IA (leur donner nos boussoles éthiques) et de leur interprétabilité (comprendre comment elles se comportent) n’est pas le plus antipathique des patrons de la tech. On peut néanmoins se demander à quoi sert son texte. « A faire du buzz » est peut-être la réponse la plus évidente. Les géants de l’IA sont engagés dans une course à la puissance de calcul tirée par le paradigme des « scaling laws ». Ce gigantisme se matérialise par des besoins énormes de capitaux qui poussent OpenAI et Anthropic à s’introduire en Bourse. Or le nerf de la guerre pour attirer des investisseurs est de faire parler de soi, d’entretenir la hype. Quoi de mieux pour cela que de mettre en avant des scénarios catastrophes ? Et de se présenter comme celui qui tire la sonnette d’alarme ?
Dans Empire of AI, la journaliste Karen Hao décrit très bien, à travers le cas d’OpenAI, ce pas de deux entre l’alerte sur les effets et l’emballement des causes. L’organisation à l’origine de ChatGPT a été fondée pour « garantir que l’intelligence artificielle générale […] profite à toute l’humanité ». Mais ces promesses éthiques ont ensuite servi à justifier la fuite en avant : il nous faut développer cette IA générale avant que d’autres personnes moins bien intentionnées puisse le faire ; puisqu’il faut de l’argent, créons une branche « for profit » ; puisqu’il faut que la société s’habitue, ne freinons pas trop le lancement de nos grands modèles de langage (LLMs) ; puisque nous sommes une force bienfaitrice, autorisons-nous à piller tous les répertoires possibles (Book3, Github), etc. C’est la torsion du projet originel qui a d’ailleurs provoqué le départ d’une partie des équipes vers Anthropic. La métaphore de l’empire, utilisée par Hao dans son livre, n’est pas fortuite : au nom de la mission civilisatrice on s’autorise toutes les turpitudes.
Les justifications pour continuer la course à l’IA prennent parfois des contours encore plus étranges. Lors d’une dispute avec Elon Musk, Larry Page, l’un des cofondateurs de Google, a défendu l’idée que s’opposer à l’avènement de l’IA était une position « spéciste » puisque nous sommes le support qui permet à l’évolution de créer une nouvelle forme de vie. D’autres – les accélérationnistes – considèrent que the only way out is through. C’est en aiguisant les contradictions existantes que l’on sortira de la grotte : on retrouve le schème cinématographique de la voiture, lancée à vive allure, qui voit se profiler sur sa trajectoire une herse qui se lève et qui, plutôt que ralentir, accélère en espérant passer de l’autre côté, indemne.
Tous ces discours ont en commun de dramatiser les enjeux. Peut-être est-ce raisonnable. Après tout, la pandémie nous a rappelé qu’il y a des cygnes noirs et le fonctionnement des LLMs, leur opacité, le fait qu’ils soient « cultivés, pas construits » (grown not built), autorise toutes les hypothèses. Mais ce cadrage a des effets pervers. Dans le débat public, ces positions sont souvent résumées en deux camps : doomers catastrophistes et boomers enthousiastes. On retrouve ce que le chercheur Pierre-Benoît Joly appelle l’« économie de la promesse ». Les grandes attentes génèrent « un contre-discours alarmiste ». Puis le « renforcement mutuel promesses - catastrophes polarise l’espace social » et, dans cette bataille homérique, des problèmes plus immédiats sont invisibilisés.

Cette dynamique me fait aussi penser à ce que l’historien Jean-Baptiste Fressoz décrit dans L’Apocalypse Joyeuse : contrairement à ce que l’on pense, les sociétés passées n’étaient pas béates devant le « progrès », elles étaient tout aussi réflexives que nous. Il y a bien eu un discours inquiet sur le train, le gaz d’éclairage, etc. Ces craintes ont appelé une régulation qui, paradoxalement, a agi comme un anxiolytique : on dira, par exemple, que les pollutions industrielles sont tolérables parce que contenues sous certains seuils. C’est ce que Fressoz appelle la « désinhibition ». En projetant des craintes spectaculaires pour dessiner soi-même ce que serait un bon encadrement réglementaire, on émousse des critiques plus fondamentales : avons-nous vraiment besoin de cette technologie ? Que change-t-elle ici et maintenant ?
Aujourd’hui, l’IA générative peut être analysée sous le même prisme critique – on parle de hype studies. Dans cette veine, on peut lire les ouvrages Un taylorisme augmenté ou bien The AI Con : l’idée est qu’à trop dépeindre une apocalypse proche mais toujours devant nous, on en oublie que la technologie modifie déjà les rapports de force, les formes du travail, l’habitabilité de la planète. Boomers et Doomers sont les deux faces d’une même pièce : qu’elle annonce la fin du monde ou le début d’une nouvelle ère, l’IA est présentée comme une force inarrêtable (« sa création était probablement inévitable dès l’instant où l’humanité a inventé le transistor – voire même lorsque nous avons appris à maîtriser le feu », écrit Amodei, semble-t-il sérieusement). D’ailleurs, dans le même texte, le patron d’Anthropic envisage l’extermination de tout le vivant sur Terre (du fait de la « vie miroir ») et un taux de croissance annuel du PIB de 10 à 20 %, ce qui doublerait la taille de l’économie en quatre à sept ans… Apocalypse et abondance, flip et flop. On peut trouver plus crédible l’hypothèse minimaliste de Houellebecq : le monde d’après sera le même que celui d’aujourd’hui en un peu plus merdique.
A sa décharge Amodei ne fait pas totalement l’impasse sur ces « perturbations économiques », évoquant le « chômage de masse ou la concentration radicale des richesses ». Mais le moins que l’on puisse dire, c’est que les remèdes qu’il propose sont timorés. Après avoir encouragé les entreprises à « être créatives dans la réaffectation de leurs employés » et fait l’éloge de la philanthropie, il s’excuse presque de parler de « fiscalité progressive ». Le but est de contrer le « rejet public de l’IA ». L’industrie doit se réguler elle-même avant que des politiques maladroits y mettent les doigts. En effet, ces derniers pourraient « cibler des problèmes qui n’en sont pas (comme la consommation d’eau des centres de données) et proposer des solutions (comme l’interdiction des centres de données ou des impôts sur la fortune mal conçus) qui ne répondraient pas aux véritables préoccupations ». S’ensuit un vague appel à « veiller à ce que le développement de l’IA reste soumis à l’intérêt public ». Pour Anthropic, c’est aussi une image de marque qui se joue ici : elle est réputée plus attentive à l’AI safety qu’OpenAI.
Aucune trace, dans le texte d’Amodei, du climat, de l’écologie, des besoins énergétiques et des émissions de l’IA. Pas une mention (à l’exception de la susmentionnée consommation d’eau qui ne serait pas vraiment un problème). Quasi rien, non plus, sur l’usage actuel de l’IA à des fins de surveillance. Pour le patron d’Anthropic, les dangers sont devant nous, mais il serait idiot d’appuyer sur le frein puisque 1. La course à la puissance est de toute façon inévitable (bel aveu que le capitalisme a du mal à contrôler les forces qu’il déchaîne) 2. Il faut empêcher la Chine d’atteindre en premier la « boucle de rétroaction » dans laquelle l’IA écrit son propre code. Le fait que son texte paraisse au moment même où le fascisme s’empare de l’Amérique ne semble pas le tourmenter outre mesure - ses critiques envers Trump ont été mises en sourdine et il pense aujourd’hui « important de fournir l’IA aux communautés du renseignement et de la défense aux États-Unis ».
Dans ce jeu d’ombres, se dessine en relief ce qui lui est plus difficile d’aborder. Et ce qui remettrait plus radicalement en cause la course à la puissance. Là encore, Karen Hao nous donne quelques repères. Dans son livre, elle montre comment l’IA générative telle qu’elle s’est développée dans les grands labos américains poursuit la logique extractiviste. La journaliste n’est pas la première à le faire, loin de là, mais elle en résume bien les ressorts : accaparement sans consentement réel de données et de contenus, usage intensif de ressources naturelles, exploitation de travailleurs précarisés pour annoter et entraîner les modèles, concentration des richesses, mélange de projections futuristes et de postures agressives sur la nécessité de vaincre d’autres empires, etc. Cela ne signifie pas que l’IA générative est en soi une technologie néfaste, mais qu’il est important comme en toutes choses de l’aborder avec discernement. Et de développer ce que l’on pourrait appeler après d’autres une littératie de la hype ◆
📖 A lire
◇ En plein cœur du pic d’attention sur le Groenland, j’ai lu deux textes qui m’ont paru très éclairants.
Le premier est la thèse de Pia Bailleul consacrée au projet minier de Kuannersuit et à la mobilisation sociale à laquelle il a donné lieu entre 2013 et 2021. L’anthropologue montre comment l’on transforme - mentalement, politiquement, etc. - un endroit en un tas de ressources. C’est utile pour comprendre pourquoi le Groenland, présenté comme un immense réservoir de minerais critiques, exporte presque uniquement du poisson (seules deux mines sont en activité) : il faut tout un tissu d'opérations - des investissements, une politique, etc - pour réduire un territoire à un sous-sol minier.
L’autre texte est un chapitre du livre Greenland in Arctic Security. Pourquoi le Groenland est-il vu par Trump comme crucial à la sécurité des Etats-Unis ? Pour répndre à cette question, ce texte adopte aussi une approche constructiviste issue de « l’école de Copenhague » : plutôt que de partir de l’idée qu’un danger tombe du ciel, il s’agit d’analyser comment il est construit, comment un évènement est présenté comme une menace justifiant des moyens extraordinaires. Les auteurs replacent ainsi la « sécuritisation » du Groenland par les Etats-Unis dans l’Histoire longue : encercler le Canada et se protéger des puissances européennes au XIXe, se défendre d’éventuels raids aériens pendant la Seconde Guerre mondiale, surveiller l’espace et les départs de missiles nucléaires sous la Guerre froide, contenir les influences chinoises et russes aujourd’hui.
◇ Dans le travail de redécouverte des préoccupations écologiques chez des marxistes jugés non-orthodoxes en leur temps, je signale l’article du chercheur Marius Bickhardt consacré à une figure peu connue : Wolfgang Harich. Journaliste et philosophe de la RDA, Harich a été emprisonné en 1957, juste après l’insurrection de Budapest. Pris entre les débats opposants les promoteurs du marxisme-léninisme et les environnementalistes critiques du productivisme soviétique, il développa une théorie originale d’un « communisme sans croissance », dont certains passages font écho aux débats actuels.
◇ Pour Le Nouvel Obs, j’ai demandé à l’économiste Eric Monnet de nous expliquer comment les stablecoins pourraient permettre de dépasser la tension entre le monde crypto, à l’origine anti-Etat, et la puissance du dollar. Il détaille aussi comment le cryptomercantilisme pourrait au final se retourner contre les Etats-Unis : « C’est du trumpisme typique. Sur le papier, ça paraît un truc d’hyperpuissance, mais, en fait, ça crée des fragilités ».
◇ Ma camarade Emilie Brouze a organisé une conversation entre la fondatrice du collectif Cancer Colère, Fleur Breteau, et le député et ancien ministre de la Santé, Aurélien Rousseau. Alors qu’un débat en séance publique sur la pétition contre la loi Duplomb, devrait se tenir à l’Assemblée le 11 février, ils discutent de la part politique de la maladie.
📆 A venir : qu’est-ce que ça fait de bosser pour un fonds “vert” ?, généalogie du taux d’actualisation. Cette newsletter a été éditée par Marie Telling.




