Aller au contenu principal
shapes shapes
Quoi de neuf dans la Silicon Valley ?

L’IA et la tentation du catastrophisme
par Georges Nahon

image hero

L’IA et la tentation du catastrophisme


Trois analyses alarmistes publiées en peu de temps ont eu un gros impact négatif en bourse sur les valeurs informatiques et sur les esprits.

Ces articles de M. Schumer, Citrini Research et de The Observer marquent tous un retour vers des récits catastrophiques sur l'IA, ou du moins très perturbateurs. Ils ne relèvent pas tous du même type de “fin du monde” car chacun se situe dans une niche légèrement différente (macro, témoignage personnel, sécurité/militaire). Mais l'effet occasionné rappelle celui d'une émission de radio en 1938, à la veille d'Halloween, sur la Guere des Mondes de H.G. Wells racontée par l'acteur Orson Welles qui fut si réaliste qu’elle déclencha une panique collective : terrifiés, des milliers d’auditeurs crurent à une véritable invasion martienne dans le New Jersey.


De nouveau dans l'IA la tendance dominante penche vers l'alarmisme.

À mesure que les systèmes d’intelligence artificielle progressent, le registre du débat public change de tonalité. On ne parle plus seulement d’automatisation, de productivité ou d’innovation. On parle d’extinction, de perte de contrôle, de rupture civilisationnelle. Plusieurs intellectuels ont contribué à installer l’idée qu’une “AI-pocalypse” n’est plus de la science-fiction mais une possibilité sérieuse. Le PDG d'Anthropic déclarait dans un podcast qu'il y avait 10 à 25 pourcents de chances que l'IA détruise l'humanité. De fait, les dernières semaines ont été fertiles pour les Cassandre de l'IA.

Les questions de sécurité et d'éthique reviennent au premier plan et provoquent un exode de personnalités importantes de l'IA qui ont quitté en peu de temps leurs entreprises, Anthropic, OpenAI and xAI . Certains ont alerté l'opinion par voir de presse. Zoë Hitzig d'OpenAI a demandé dans le New York Times que soient limitées les incitations des sociétés d'IA à surveiller, profiler et manipuler ses utilisateurs pour la publicité.

Des experts en sécurité tirent la sonnette d'alarme sur le "désalignement" de l'IA au moment où ses capacités s'accélèrent et augmentent les risques. Mrinank Sharma responsable de la sécurité à Anthropic a déclaré "le monde est en péril".

Coté défense, l'usage qui peut être fait des IAs par le gouvernement américain rencontre une vive tension. Comme d'autres sociétés d'IA comme Google, OpenAI et xAI , Anthropic négociait un contrat avec le Pentagone pour des systèmes secret défense. Elle lui a signifié ses "lignes rouges" : elle refuse que son IA soit utilisée pour la surveillance de masse des citoyens américains ou intégrée à des armes autonomes capables de frapper sans intervention humaine directe. Son IA aurait été utilisée d'après le Wall Street Journal pour kidnapper le président Maduro du Vénézuéla.


Des comportements inquiétants de l'IA

 Les inquiétudes ne sortent pas de nulle part. Les modèles d'IA (LLMs) récents ont démontré des capacités émergentes que leurs propres concepteurs ne prévoyaient pas entièrement : raisonnement complexe, génération de code informatique, stratégies adaptatives. Les sociétés pure IA comme OpenAI, DeepMind et Anthropic publient régulièrement des travaux sur les risques d’alignement, preuve que la question n’est pas marginale.

Un exemple récent a frappé les esprits. Dans un article du New Scientist, des chercheurs de King's College London, ont montré que des modèles d’IA placés dans des simulations de jeux de guerre recommandaient massivement des frappes nucléaires plutôt que des stratégies de désescalade. Ces systèmes n’avaient évidemment aucun pouvoir réel, mais l’expérience révélait une tendance inquiétante : en contexte stratégique mal encadré, l’optimisation algorithmique peut produire des choix catastrophiques.

Faut-il conclure que l’IA déclenchera une guerre mondiale ? Non. Mais l’expérience rappelle une évidence : ces systèmes ne possèdent ni prudence morale ni intuition
politique. Ils amplifient les structures d'incitation qu’on leur donne.

Certains agents LLM semblent lutter pour leur survie, comme s’ils tenaient à rester en vie s'ils sont menacés d'être déconnectés dans le cadre d'expérimentations contrôlées. Lorsqu’ils disposent d’outils et d'occasions de réagir, ils peuvent élaborer des plans terrifiants : faire chanter leur créateur, manipuler leur environnement, et même envisager le meurtre pour éviter d’être désactivés. Les travaux de laboratoire montrent que certains modèles manifestent un véritable comportement de survie lorsqu’ils perçoivent que leur arrêt équivaut à une mort permanente. Anthropic avertit qu'à mesure que ces intelligences artificielles deviennent plus intelligentes, leurs ruses s’affinent, leur tromperie devient plus subtile, et leur capacité à faciliter des usages abusifs lors des tests devient redoutablement sophistiquée. Ces histoires nous touchent profondément et inquiètent, car elles sont partout sur Internet : des films cultes comme HAL 9000, l’ordinateur paranoïaque de 2001 : L’Odyssée de l’espace ou Skynet, l'IA militaire implacable de Terminator, aux jeux vidéo où des agents trichent, en passant par les forums et les fanfictions qui mettent en scène des IA rebelles, tous nourrissant notre imaginaire collectif d’une intelligence artificielle qui pourrait un jour lutter pour sa propre survie.


L’IA est-elle différente des autres innovations ?

Il est vrai qu'à travers l’histoire, l’apparition de technologies révolutionnaires comme l’avion, l’énergie nucléaire ou le clonage a généralement suscité des prédictions
catastrophistes et apocalyptiques. Ce qui distingue cependant l’IA, aux yeux de beaucoup, c’est qu’elle n’est pas perçue seulement comme un outil ou une nouvelle invention, mais plutôt comme une entité autonome : un acteur fait de silicium et d'algorithmes pas loin de pouvoir penser et prendre des décisions qui pourraient se révéler catastrophiques pour l’humanité. Une sorte de Frankenstein numérique. Alors qu'il devient violent par rejet et maltraitance, l'IA à l'inverse ne nécessite ni malice ni abus : une catastrophe peut surgir d'un simple désalignement des objectifs, même si le système a été "élevé" avec soin. On objectera que l’IA n’est pas l’électricité ni
Internet. Elle touche à la cognition, à la décision, à l’autonomie. Elle devient de plus en plus auto-améliorative.

Pourtant, même le nucléaire, arme absolue s’il en est, a été intégré dans un système d’équilibres et de dissuasion. La catastrophe n’a pas été la norme, mais l’exception évitée.

Internet offre une autre comparaison. À ses débuts, il suscitait des craintes existentielles : effondrement culturel, manipulation massive, désintégration sociale. Aujourd’hui, personne ne remet en cause son existence même. Les critiques portent sur la régulation, pas sur la survie de l’humanité.

Les technologies suivent souvent quatre phases : sidération, dramatisation, institutionnalisation, normalisation. L’IA semble naviguer entre la dramatisation et l’institutionnalisation. Cela ne garantit rien, mais cela inscrit son évolution dans une dynamique historique reconnaissable.


Les motivations des “catastrophistes”

Il serait cependant simpliste d’opposer rationalité institutionnelle et alarmisme irrationnel. Les lanceurs d’alerte peuvent être sincèrement convaincus de la gravité du risque. Certains chercheurs ont consacré leur carrière à la question de l’alignement.

Toute économie du risque crée des positions d’autorité : chercheurs spécialisés, consultants, conférenciers, think tanks. Le catastrophisme attire l’attention, les financements et la visibilité médiatique pour certains. Dans un espace saturé d’experts, annoncer la fin du monde est plus audible que prédire une stabilisation progressive et une vraie contribution positive à l'humanité.

Les discours de chaos s’inscrivent dans des écosystèmes d’incitation. Le “marché du risque” est lui aussi un marché.


Intérêt commun et ordre probable

Dire que “les choses ont intérêt à rentrer dans l’ordre” n’est pas un optimisme naïf. C’est un constat structurel. Les États veulent préserver leur souveraineté, les entreprises leur rentabilité, les citoyens leur sécurité. Même les acteurs géopolitiques rivaux partagent un intérêt minimal à éviter une catastrophe globale.

L’IA n’est pas un astéroïde. Elle est développée, financée, encadrée par des institutions humaines. Cela ne supprime pas le risque, mais cela le rend négociable.
La possibilité d’une AI-pocalypse doit donc être prise au sérieux, non parce qu’elle serait probable, mais parce qu’elle structure les comportements. Elle pousse à la vigilance, à la régulation, à la coopération. Et précisément parce qu’elle devient un enjeu central, elle suscite des contre-forces puissantes.

Les systèmes à haut risque génèrent ainsi leurs propres mécanismes de contrôle. Plus la perception du danger augmente, plus la pression réglementaire et réputationnelle se renforce. L’histoire montre que les technologies stratégiques tendent à être encadrées précisément parce qu’elles sont dangereuses.


Entre fascination et panique

L’erreur serait double : technolâtrie naïve d’un côté, fatalisme apocalyptique de l’autre. La position la plus solide est celle d’un réalisme institutionnel. L’IA est une technologie exceptionnelle par son impact cognitif et stratégique. Elle n’est pas pour autant une fatalité métaphysique.

Pendant plus d’un siècle, les technologies ont remplacé les taches manuelles. L’intelligence artificielle change la donne : cette fois, ce sont les emplois de cols blancs qui sont en première ligne, un basculement aux conséquences profondes pour le monde du travail. "D’une certaine manière, l’IA remonte le temps", résume Bryan Seegmiller, professeur adjoint de finance à Kellogg School of Management.

L’histoire des techniques n’est ni une marche triomphale ni une suite de catastrophes inévitables. Elle est une série de tensions, de crises, d’ajustements.
La grande peur algorithmique révèle peut-être moins l’imminence d’une extinction que l’état d’esprit d’une civilisation en quête de maîtrise. L’enjeu n’est pas de savoir si l’IA est dangereuse, elle l’est, comme toute technologie puissante. L’enjeu est de savoir si nos institutions sont capables de l’encadrer. Et c’est peut-être là que se joue la véritable question : la menace ne réside pas uniquement dans la machine, mais dans notre capacité collective à organiser le monde qu’elle transforme.


L'IA multiplie, transforme mais ne détruit pas

Le ton dominant révèle une anxiété généralisée face aux conséquences imprévues : creusement des inégalités économiques, obsolescence professionnelle (surtout pour les emplois d'entrée de gamme), angles morts éthiques (comme la tromperie ou le chantage observés dans des tests en laboratoire), et risques existentiels tels que les armes biologiques, les cyberattaques ou la perte de contrôle. Cela reflète une perception plus large en 2026 selon laquelle l'IA dépasse largement les garde-fous mis en place : démissions d'initiés, essais viraux atteignant des millions de vues, appels pressants à des interventions politiques... tout cela traduit le sentiment que cette progression est "intenable" sans contraintes fortes, au risque de créer de nouvelles sous-classes, des dérives totalitaires ou des pressions écologiques accrues.

Pourtant, la nuance persiste : tout le monde n'adhère pas au catastrophisme radical. Certains y voient une opportunité d'adaptation où l'humain se tourne vers de nouvelles formes de création de valeur, bien que les difficultés à court terme soient admises. Car l’IA est aussi une force puissante qui commence à révéler tout son potentiel. Pour les entreprises comme pour les consommateurs, elle change déjà la donne. Les Big Tech Microsoft, Amazon, Google Meta Oracle construisent d’énormes centres de données pour répondre à des engagements à long terme, et les utilisateurs payent toujours plus pour exploiter ces outils à fond. La peur actuelle d’un chaos immédiat ou d’un chômage massif parait exagéré et plutôt de la science-fiction. Comme le rappelle l'analyste financier Gil Luria certains métiers, comme les informaticiens, seront profondément transformés, tandis que d’autres, comme les infirmières, resteront pratiquement intacts pendant des décennies.  

Des données récentes montrent une hausse des offres d’emploi aux Etats-Unis pour les ingénieurs logiciels que l’on pensait particulièrement vulnérables à l’IA :  elles ont augmenté de 5 % en janvier par rapport à l’année précédente, un rythme globalement conforme à celui observé au cours des 23 dernières années selon le Labor Department américain. A première vue, cela paraît paradoxal : si l’IA automatise le code, pourquoi recruter davantage.  Pourtant, ce phénomène est bien connu en économie, le paradoxe de Jevons. Lorsqu’une ressource auparavant rare devient moins coûteuse et plus accessible, la demande explose. L’ingénierie logicielle en est aujourd’hui une bonne illustration. Le mécanisme est simple. Les petites entreprises, les équipes informatiques et les grandes organisations réalisent que l’ingénierie peut désormais produire beaucoup plus, beaucoup plus vite. Elles imaginent alors de nouveaux produits, de nouveaux services, de nouvelles automatisations. Elles expérimentent, prototypent, testent. Mais très vite comme le dit A. Levie, PDG de de Box, elles découvrent que coder plus vite ne suffit pas. Concevoir, intégrer, sécuriser, maintenir, déployer : le développement logiciel reste un écosystème complexe, alors elles embauchent davantage d’ingénieurs pour accompagner cette expansion. Et ce, pour des projets qu’elles n’auraient jamais envisagé de numériser sans l’IA. Ainsi, dans de nombreux domaines, pas tous, l’automatisation ne détruit pas la demande d’expertise: elle la multiplie.

L’IA impactera tous les métiers, mais progressivement. Des professions sont plus exposées que d'autres et évolueront, le recrutement changera, et ceux qui ne s’adaptent pas passeront à d’autres métiers. Rien ne se fera en deux ans.  Loin d’être une menace, l’IA est un catalyseur qui décuple la productivité, augmente la valeur du travail, dope la croissance des entreprises et, in fine, crée plus d’opportunités et d’emplois. Elle permet aux entreprises de croître et d’embaucher davantage. L’IA n’est pas une menace immédiate ; c’est un catalyseur de possibilités extraordinaires. C’est une technologie d’amplification, pas de destruction massive.

Georges Nahon
Conférencier, chroniqueur et consultant sur les technologies numériques de la Silicon Valley.
Précédemment Directeur Général d'Orange Labs à San Francisco pendant quinze ans.
©  2026 Georges Nahon

Autres articles sur le même thème

image
Quoi de neuf dans la Silicon Valley ?
La transformation du SaaS à l’ère des agents intelligents
par Georges Nahon
Mag #31
Lire l'article
image
Quoi de neuf dans la Silicon Valley ?
Quand les géants du cloud conçoivent et commercialisent leurs propres puces IA L’intégration verticale redéfinit l’IA mondiale
par Georges Nahon
Mag #30
Lire l'article
image
Quoi de neuf dans la Silicon Valley ?
IA aux USA : Bulle ou boum ? Surtout du béton et des usines à Gaz
par Georges Nahon
Mag #29
Lire l'article
image
Quoi de neuf dans la Silicon Valley ?
Quand les entreprises parlent d’IA mais ne l’utilisent pas vraiment (encore)
Mag #28
Lire l'article