Quoi de neuf dans la Silicon Valley ?
IA aux USA : Bulle ou boum ? Surtout du béton et des usines à Gazpar Georges Nahon
Retour
En 2025, les États-Unis vivent une ruée vers l’or numérique d'une intensité inédite. Le Wall Street Journal estime que près de la moitié de la croissance du PIB américain au premier semestre serait directement dopée par les dépenses d'investissement liées à l'intelligence artificielle.
Aujourd'hui, vu les énormes ordres de grandeur impliquées, les sociétés qui achètent doivent faire appel à des emprunts et ils créent une dette énorme qui n'est pas pour le moment compensable par les chiffres d'affaires qui ont substantiels mais très loin de compenser les investissements.
Par exemple comment une société comme OpenAI avec 13 milliards de dollars de chiffre d'affaires (qui certes, croit vite) peut s'engager à investir 1,4 mille milliards de dollars ?
Comme on le verra plus bas, le risque financier n'est pas celui de la bulle dot-com de mars 2000 (spéculation sur des concepts logiciels), mais celui des actifs industriels échoués (stranded assets).
Depuis trois ans, les géants du cloud investissent massivement, souvent via de la dette ou des montages hors bilan complexes et circulaires (les hyperscalers garantissent les dettes des neoclouds pour s'assurer un accès futur aux GPUs). Ce modèle exige une génération de revenus rapide pour couvrir le service de la dette et la dépréciation rapide du matériel. Selon le FT, OpenAI a une dette de 100 Md $, SoftBank, Oracle et CoreWeave ont emprunté au moins 30 Md $.
Selon le professeur Aswath Dasmodaran cette relation presque incestueuse entre les grands acteurs de l’IA peut s’expliquer de deux façons. Première hypothèse : ils veulent dominer le marché de l’IA tel qu’il existera dans cinq ans, et cherchent déjà à ériger des barrières à l’entrée massives pour empêcher toute concurrence future. Deuxième hypothèse : cela ressemble presque à un schéma de Ponzi où chacun doit continuer à investir dans les autres pour faire monter artificiellement la valorisation du secteur, car c’est la seule manière d’entraîner le reste du marché dans la course. Mais si ces entreprises étaient réellement convaincues qu’elles allaient gagner la partie, pourquoi auraient-elles besoin d'investir l'une dans l'autre ? Ce comportement ressemble plutôt à une manière de se couvrir, de se protéger et de s’assurer qu’aucun nouvel entrant ne puisse émerger. Cela laisse penser que, malgré le discours triomphaliste qu’elles affichent sur leur futur rôle de "maîtres du monde de l’IA", il subsiste au sein de ces entreprises elles-mêmes une incertitude profonde quant à leur capacité à réellement dominer le secteur.
En pratique, elles semblent mettre en place des barrières préventives, avant même que la concurrence n’apparaisse, pour figer la structure du marché et bloquer toute nouvelle tentative d’entrée.
Et, alors que tout le monde affirme que nous sommes dans une bulle, nous continuons pourtant à observer des valorisations très élevées des BigTech, et des "labsIA "comme OpenAI.
Mais une étude du MIT publiée en août 2025, souvent critiquée pour sa méthodologie étroite et mondialement citée, avait jeté un froid : selon elle, seuls 5 % des entreprises parviennent à transformer leurs projets pilotes d’IA générative en gains réels d’efficacité et en résultats financiers mesurables. Un chiffre qui a alimenté le scepticisme ambiant.
Pourtant, un rapport plus récent d'octobre 2025 et plus encourageant de la Wharton School (Université de Pennsylvanie), basé sur des données 2023-2024, dresse un tout autre tableau : 74 % des entreprises qui mesurent activement le retour sur investissement de l’IA générative constatent déjà un ROI positif. Mieux encore, une large majorité des autres s’attend à en obtenir un d’ici deux à trois ans. Cette différence spectaculaire s’explique largement par la portée des deux études.
L’étude du MIT se focalisait exclusivement sur le passage réussi des POC (proofs of concept) à la production à grande échelle avec impact financier démontré qui est un critère très exigeant.
L’étude de Wharton, elle, adopte une vision bien plus large : elle intègre des bénéfices mesurables mais parfois moins visibles à court terme, comme l’augmentation de la productivité individuelle, l’amélioration de la rétention des talents ou encore les gains d’efficacité opérationnelle. Le ROI de l’IA générative reste très inégal selon les secteurs. Les champions sont technologie & télécoms avec 88 % des répondants déclarent un ROI au moins modérément positif, banque & finance avec 83 %. Les plus en retrait (pour l’instant) est le secteur commerce de détail avec seulement 54 %. Et les entreprises qui obtiennent les meilleurs ROIs sont plus petites. Les PME et ETI, de par leur agilité structurelle, seraient les mieux placées pour maximiser leur ROI dans le déploiement de l'IA aujourd'hui. Et on doit pouvoir identifier la leçon stratégique que l'ensemble du marché peut-il tirer de cette capacité d'adaptation. Par exemple plus on peut intégrer des agents IA et des multi agents à travers différentes fonctions dans les entreprises, plus important sera le ROI.
L’IA générative commence bel et bien à payer pour une majorité d’entreprises qui savent la mesurer correctement et qui ciblent les bons cas d’usage. Le verre n’est ni presque vide (5 %), ni presque plein (88 %), mais plutôt aux trois quarts pleins pour celles qui ont franchi le cap de la mesure rigoureuse. Le message est clair : le ROI existe, mais il demande de la patience, une bonne métrique… et le choix des bons champs d’application.
Paradoxalement, l’investissement dans la formation diminue, alors même que les besoins explosent. Les organisations hésitent entre développer les compétences en interne ou recruter des profils déjà opérationnels - deux stratégies qui, pour l’instant, restent sous-financées et insuffisamment structurées.
Les obstacles majeurs à l’adoption à grande échelle reflètent cette tension.
Il s'agit de recruter des talents avancés en GenAI (49 %), bâtir des programmes de formation réellement efficaces (46 %), maintenir le moral et la confiance des équipes (43 %), mener à bien la transformation organisationnelle (41 %).
Selon le rapport, 2026 pourrait constituer un tournant décisif, marquant le passage de l’expérimentation à la performance opérationnelle à grande échelle. Les entreprises les plus avancées présentent des caractéristiques communes : un engagement clair du leadership, une discipline dans la mesure du ROI, et surtout un alignement stratégique entre talents, formation et investissements technologiques.
À mesure que la GenAI démontre sa valeur, la principale variable du succès cesse d’être la technologie. Ce qui fera la différence, c’est la capacité des organisations à préparer leurs équipes, à soutenir l’apprentissage continu et à ajuster leurs investissements en fonction des performances observées.
En d’autres termes, la bataille de la GenAI ne se joue plus seulement sur les modèles et les serveurs, mais sur la maturité humaine et organisationnelle de ceux qui l’adoptent.
Il reste néanmoins que cette question du ROI de l'IA entretient un doute dans les esprits des investisseurs qui pour certains y voient le risque de la constitution d'une bulle susceptible d'éclater avant de se dégonfler, avec la caisse de résonnance des médias qui accentuent l'inquiétude ambiante.
McKinsey estime que les investissements mondiaux dans les infrastructures d’IA atteindront 7 000 milliards de dollars d’ici 2030. Les États-Unis représentent déjà environ 76 % des dépenses mondiales en IA, avec IDC prévoyant une croissance annuelle de plus de 40 % pour le reste de la décennie. Les hyperscalers construisent en réalité une nouvelle couche d’infrastructure industrielle : Meta a promis 600 milliards de dollars d’investissements dans ses centres de données américains, Google prévoit 75 milliards de dollars de dépenses d’investissement en 2025, Microsoft dépense plus de 30 milliards de dollars chaque trimestre, et Amazon prévoit 118 milliards de dollars pour AWS selon e1 ventures.
La première conséquence est l'accroissement important du besoin d'Energie pour faire tourner les datacenters géants d'IA.
Goldman Sachs prévoit que la demande en énergie des centres de données augmentera de 160 % d’ici 2030, transformant l’électricité et le refroidissement en nouveaux facteurs limitants de la concurrence. En Virginie et au Texas, les fournisseurs d’énergie ont commencé à rationner la nouvelle capacité ; les géants de la tech ne se disputent plus les utilisateurs, mais les mégawatts. Le goulot d’étranglement de l’innovation n’est plus l’imagination humaine, mais l’énergie et les chaînes d’approvisionnement.
Morgan Stanley partage cette analyse, mais ajoute une mise en garde importante : l’augmentation des charges de travail liées à l’IA pourrait entraîner un déficit énergétique de 13 à 44 gigawatts dans les centres de données américains d’ici 2028 - soit environ 20 % des besoins totaux.
Deux grands projets de datacenters à Santa Clara, en Californie, restent vides car le fournisseur local, Silicon Valley Power, ne peut pas fournir suffisamment d’électricité pour les faire fonctionner.
Cela se produit à Santa Clara, ville natale de Nvidia et cœur de la Silicon Valley. La régie municipale peine à augmenter sa capacité pour répondre aux besoins. Cette situation reflète un défi plus large aux États-Unis, où la croissance des centres de données pour l’IA dépasse de loin le développement des infrastructures électriques. Gartner prédit que 40 % des centres de données IA existants seront limités dans leur fonctionnement par la disponibilité d’énergie d’ici 2027, car l’expansion des réseaux électriques prend des années alors que la demande en centres de données croît de manière exponentielle.
Microsoft indique qu'un datacenter opérationnel emploie une cinquantaine de personnes, mais sa construction exige des milliers de techniciens et d’électriciens.
Selon le Financial Times, même la demande de cuivre explose, portée à la fois par la transition énergétique et par la construction de datacenters pour l'IA. Ils nécessitent 27 à 33 tonnes de cuivre par mégawatt, soit plus du double des centres classiques. L’utilisation mondiale de cuivre dans les data centers sera multipliée par six d’ici 2050.
Le résultat est un hiatus des vitesses. Les précieuses puces GPUs s’accumulent mais ne peuvent être installés faute de bâtiments terminés ou raccordés au réseau. Le PDG de Microsoft a expliqué qu’il disposait de puces qui ne sont pas encore branchées, et il souhaite les mettre en service, mais que le problème, c’est l’alimentation électrique.
Le récit de la "demande infinie" se grippe. La "neocloud" CoreWeave, le plus gros opérateur de cloud d'accès nu aux GPUs, a déjà dû alerter sur une possible dépréciation de 100 à 200 millions de dollars liée à ces retards physiques. Nvidia en détient 7%.
Les sceptiques ont un argument massue : les géants de la tech minimisent systématiquement le risque d’obsolescence ultrarapide du matériel qui fait tourner l’IA. Les grandes infrastructures américaines du siècle dernier ont traversé les décennies en conservant leur valeur, les lignes électriques des années 1940 tournent toujours, les autoroutes des années 1960 restent en service, les câbles de fibre optique posés dans les années 1990 sont encore largement utilisés. Selon Timothy B. Lee et Derek Thompson, à l’inverse, les GPU les plus performants sont dépassés tous les 18 à 36 mois par une nouvelle génération deux à trois fois plus puissante. Officiellement, les hyperscalers amortissent leurs clusters sur cinq ou six ans, ce qui lisse élégamment le coût dans les comptes. En réalité, pour rester à la frontière de l’IA, ils doivent remplacer massivement leurs puces bien avant la fin de cette période d’amortissement.
Résultat : ils accumulent des actifs à peine amortis qu’il faut déjà mettre au rebut et réinvestir des centaines de milliards tous les deux ou trois ans, ce qui finit par ronger gravement la rentabilité une fois que les tableaux comptables ne pourront plus masquer l’hémorragie.
La voracité énergétique de l'IA nécessite une puissance "en base" constante contrairement aux besoins domestiques ou industriels qui fluctuent (pic en journée, baisse la nuit). Selon David Sacks, le "Tsar fédéral de l'IA", l'énergie nucléaire n'interviendra que dans cinq à dix ans.
La situation est si critique que certaines entreprises sont contraintes de recycler des moteurs d’avion pour produire l'électricité manquante. Face à ces limites terrestres, les idées spéculatives d'Elon Musk (datacenters orbitaux), de Jeff Bezos (fermes solaires spatiales) ou satellites IA du Project Suncatcher de Google, sont des idées spéculatives, mais révélatrices d’un changement : l’énergie devient la ressource stratégique de l’IA. Pendant ce temps les projets engagés ont été multipliés par six depuis 2019. La demande électrique des datacenters pourrait doubler d’ici 2030, sans garantie que le réseau suive.
L’Amérique domine le logiciel, mais le vrai goulot est l’électricité et le béton. Il faut des atomes, pas des bits. Reste à voir si l'Europe, avec ses propres lourdeurs administratives mais son réseau électrique robuste notamment en France, saura tirer son épingle du jeu des datacenters énergivores de l'IA.
Surtout la France.
09 décembre 2025
Georges Nahon, spécialiste des technologies numériques de la Silicon Valley
Consultant, conférencier et auteur. DG d'Orange à San-Francisco pendant quinze ans.
Sources: cmswire, NYT, Kantrowitz, WSJ, economist, Financial Times
Bulle ou boum ? vers une "bulle industrielle" et systémique ?
Les mésaventures de l'IA aux Etats-Unis ne trouvent pas leur origine seulement dans les montages financiers circulaires atypiques et inquiétants qui rappellent l'explosion et la faillite de la société Enron au début de l'Internet mais d'autres contraintes et obstacles plus prosaïques, plus terre à terre.Aujourd'hui, vu les énormes ordres de grandeur impliquées, les sociétés qui achètent doivent faire appel à des emprunts et ils créent une dette énorme qui n'est pas pour le moment compensable par les chiffres d'affaires qui ont substantiels mais très loin de compenser les investissements.
Par exemple comment une société comme OpenAI avec 13 milliards de dollars de chiffre d'affaires (qui certes, croit vite) peut s'engager à investir 1,4 mille milliards de dollars ?
Comme on le verra plus bas, le risque financier n'est pas celui de la bulle dot-com de mars 2000 (spéculation sur des concepts logiciels), mais celui des actifs industriels échoués (stranded assets).
Depuis trois ans, les géants du cloud investissent massivement, souvent via de la dette ou des montages hors bilan complexes et circulaires (les hyperscalers garantissent les dettes des neoclouds pour s'assurer un accès futur aux GPUs). Ce modèle exige une génération de revenus rapide pour couvrir le service de la dette et la dépréciation rapide du matériel. Selon le FT, OpenAI a une dette de 100 Md $, SoftBank, Oracle et CoreWeave ont emprunté au moins 30 Md $.
Selon le professeur Aswath Dasmodaran cette relation presque incestueuse entre les grands acteurs de l’IA peut s’expliquer de deux façons. Première hypothèse : ils veulent dominer le marché de l’IA tel qu’il existera dans cinq ans, et cherchent déjà à ériger des barrières à l’entrée massives pour empêcher toute concurrence future. Deuxième hypothèse : cela ressemble presque à un schéma de Ponzi où chacun doit continuer à investir dans les autres pour faire monter artificiellement la valorisation du secteur, car c’est la seule manière d’entraîner le reste du marché dans la course. Mais si ces entreprises étaient réellement convaincues qu’elles allaient gagner la partie, pourquoi auraient-elles besoin d'investir l'une dans l'autre ? Ce comportement ressemble plutôt à une manière de se couvrir, de se protéger et de s’assurer qu’aucun nouvel entrant ne puisse émerger. Cela laisse penser que, malgré le discours triomphaliste qu’elles affichent sur leur futur rôle de "maîtres du monde de l’IA", il subsiste au sein de ces entreprises elles-mêmes une incertitude profonde quant à leur capacité à réellement dominer le secteur.
En pratique, elles semblent mettre en place des barrières préventives, avant même que la concurrence n’apparaisse, pour figer la structure du marché et bloquer toute nouvelle tentative d’entrée.
Et, alors que tout le monde affirme que nous sommes dans une bulle, nous continuons pourtant à observer des valorisations très élevées des BigTech, et des "labsIA "comme OpenAI.
Adoption ou rejet ? L’IA générative délivre-t-elle vraiment un ROI ?
Une autre inquiétude qui alimente la hantise de l'éclatement de la bulle IA est la question de l'adoption de l'IA par les entreprises et les organisations. Dans une étude de Harvard Business School research du 21 novembre 2025, "How Pernod Ricard Stirred Up Employee Enthusiasm for AI", comment Pernod Ricard a stimulé l'enthousiasme des employés pour l'IA face à leur scepticisme initial, on peut apprendre "qu'un des deux projets d'IA a atteint 85 % de taux d'adoption et l'autre entre 60% et 70% même en étant plus perturbateur pour les méthodes en place. Les outils ont permis une augmentation du chiffre d'affaires allant de 1,5 % à 4,5 % selon les marchés, ainsi qu'une amélioration de l'efficacité marketing pouvant atteindre 15 %."Mais une étude du MIT publiée en août 2025, souvent critiquée pour sa méthodologie étroite et mondialement citée, avait jeté un froid : selon elle, seuls 5 % des entreprises parviennent à transformer leurs projets pilotes d’IA générative en gains réels d’efficacité et en résultats financiers mesurables. Un chiffre qui a alimenté le scepticisme ambiant.
Pourtant, un rapport plus récent d'octobre 2025 et plus encourageant de la Wharton School (Université de Pennsylvanie), basé sur des données 2023-2024, dresse un tout autre tableau : 74 % des entreprises qui mesurent activement le retour sur investissement de l’IA générative constatent déjà un ROI positif. Mieux encore, une large majorité des autres s’attend à en obtenir un d’ici deux à trois ans. Cette différence spectaculaire s’explique largement par la portée des deux études.
L’étude du MIT se focalisait exclusivement sur le passage réussi des POC (proofs of concept) à la production à grande échelle avec impact financier démontré qui est un critère très exigeant.
L’étude de Wharton, elle, adopte une vision bien plus large : elle intègre des bénéfices mesurables mais parfois moins visibles à court terme, comme l’augmentation de la productivité individuelle, l’amélioration de la rétention des talents ou encore les gains d’efficacité opérationnelle. Le ROI de l’IA générative reste très inégal selon les secteurs. Les champions sont technologie & télécoms avec 88 % des répondants déclarent un ROI au moins modérément positif, banque & finance avec 83 %. Les plus en retrait (pour l’instant) est le secteur commerce de détail avec seulement 54 %. Et les entreprises qui obtiennent les meilleurs ROIs sont plus petites. Les PME et ETI, de par leur agilité structurelle, seraient les mieux placées pour maximiser leur ROI dans le déploiement de l'IA aujourd'hui. Et on doit pouvoir identifier la leçon stratégique que l'ensemble du marché peut-il tirer de cette capacité d'adaptation. Par exemple plus on peut intégrer des agents IA et des multi agents à travers différentes fonctions dans les entreprises, plus important sera le ROI.
L’IA générative commence bel et bien à payer pour une majorité d’entreprises qui savent la mesurer correctement et qui ciblent les bons cas d’usage. Le verre n’est ni presque vide (5 %), ni presque plein (88 %), mais plutôt aux trois quarts pleins pour celles qui ont franchi le cap de la mesure rigoureuse. Le message est clair : le ROI existe, mais il demande de la patience, une bonne métrique… et le choix des bons champs d’application.
L'IA face aux réalités humaines
Même si les entreprises commencent à enregistrer des retours sur investissement (ROI) positifs avec la GenAI, les enjeux liés au capital humain demeurent la véritable ligne de fracture. La majorité des salariés - 89 % - voient dans l’IA générative une opportunité d’enrichir leurs compétences. Mais cette dynamique s’accompagne d’une inquiétude profonde : 43 % redoutent une érosion de leur propre expertise.Paradoxalement, l’investissement dans la formation diminue, alors même que les besoins explosent. Les organisations hésitent entre développer les compétences en interne ou recruter des profils déjà opérationnels - deux stratégies qui, pour l’instant, restent sous-financées et insuffisamment structurées.
Les obstacles majeurs à l’adoption à grande échelle reflètent cette tension.
Il s'agit de recruter des talents avancés en GenAI (49 %), bâtir des programmes de formation réellement efficaces (46 %), maintenir le moral et la confiance des équipes (43 %), mener à bien la transformation organisationnelle (41 %).
Selon le rapport, 2026 pourrait constituer un tournant décisif, marquant le passage de l’expérimentation à la performance opérationnelle à grande échelle. Les entreprises les plus avancées présentent des caractéristiques communes : un engagement clair du leadership, une discipline dans la mesure du ROI, et surtout un alignement stratégique entre talents, formation et investissements technologiques.
À mesure que la GenAI démontre sa valeur, la principale variable du succès cesse d’être la technologie. Ce qui fera la différence, c’est la capacité des organisations à préparer leurs équipes, à soutenir l’apprentissage continu et à ajuster leurs investissements en fonction des performances observées.
En d’autres termes, la bataille de la GenAI ne se joue plus seulement sur les modèles et les serveurs, mais sur la maturité humaine et organisationnelle de ceux qui l’adoptent.
Il reste néanmoins que cette question du ROI de l'IA entretient un doute dans les esprits des investisseurs qui pour certains y voient le risque de la constitution d'une bulle susceptible d'éclater avant de se dégonfler, avec la caisse de résonnance des médias qui accentuent l'inquiétude ambiante.
L’IA américaine face au mur du réel : quand le béton freine le silicium
Pourtant, malgré l'euphorie boursière de Nvidia, un doute grandit dans le secteur : et si la limite de l'IA n'était ni financière, ni logicielle, mais purement physique ? Le débat sur une "bulle spéculative" masque un risque bien plus concret : l'incapacité des infrastructures industrielles à suivre la cadence des algorithmes d'IA.McKinsey estime que les investissements mondiaux dans les infrastructures d’IA atteindront 7 000 milliards de dollars d’ici 2030. Les États-Unis représentent déjà environ 76 % des dépenses mondiales en IA, avec IDC prévoyant une croissance annuelle de plus de 40 % pour le reste de la décennie. Les hyperscalers construisent en réalité une nouvelle couche d’infrastructure industrielle : Meta a promis 600 milliards de dollars d’investissements dans ses centres de données américains, Google prévoit 75 milliards de dollars de dépenses d’investissement en 2025, Microsoft dépense plus de 30 milliards de dollars chaque trimestre, et Amazon prévoit 118 milliards de dollars pour AWS selon e1 ventures.
La première conséquence est l'accroissement important du besoin d'Energie pour faire tourner les datacenters géants d'IA.
Goldman Sachs prévoit que la demande en énergie des centres de données augmentera de 160 % d’ici 2030, transformant l’électricité et le refroidissement en nouveaux facteurs limitants de la concurrence. En Virginie et au Texas, les fournisseurs d’énergie ont commencé à rationner la nouvelle capacité ; les géants de la tech ne se disputent plus les utilisateurs, mais les mégawatts. Le goulot d’étranglement de l’innovation n’est plus l’imagination humaine, mais l’énergie et les chaînes d’approvisionnement.
Morgan Stanley partage cette analyse, mais ajoute une mise en garde importante : l’augmentation des charges de travail liées à l’IA pourrait entraîner un déficit énergétique de 13 à 44 gigawatts dans les centres de données américains d’ici 2028 - soit environ 20 % des besoins totaux.
Deux grands projets de datacenters à Santa Clara, en Californie, restent vides car le fournisseur local, Silicon Valley Power, ne peut pas fournir suffisamment d’électricité pour les faire fonctionner.
Cela se produit à Santa Clara, ville natale de Nvidia et cœur de la Silicon Valley. La régie municipale peine à augmenter sa capacité pour répondre aux besoins. Cette situation reflète un défi plus large aux États-Unis, où la croissance des centres de données pour l’IA dépasse de loin le développement des infrastructures électriques. Gartner prédit que 40 % des centres de données IA existants seront limités dans leur fonctionnement par la disponibilité d’énergie d’ici 2027, car l’expansion des réseaux électriques prend des années alors que la demande en centres de données croît de manière exponentielle.
L’embouteillage industriel : la revanche de la "Old Economy"
Ce qui commence à compter d'avantage ce sont les atomes plutôt que les bits. La croissance exponentielle des usages de l'IA se heurte à l'inertie du monde physique. Le secteur manque de tout : accès à l'énergie, transformateurs électriques, turbines à gaz, systèmes de refroidissement, et surtout de main-d’œuvre qualifiée rare et coûteuseMicrosoft indique qu'un datacenter opérationnel emploie une cinquantaine de personnes, mais sa construction exige des milliers de techniciens et d’électriciens.
Selon le Financial Times, même la demande de cuivre explose, portée à la fois par la transition énergétique et par la construction de datacenters pour l'IA. Ils nécessitent 27 à 33 tonnes de cuivre par mégawatt, soit plus du double des centres classiques. L’utilisation mondiale de cuivre dans les data centers sera multipliée par six d’ici 2050.
Le résultat est un hiatus des vitesses. Les précieuses puces GPUs s’accumulent mais ne peuvent être installés faute de bâtiments terminés ou raccordés au réseau. Le PDG de Microsoft a expliqué qu’il disposait de puces qui ne sont pas encore branchées, et il souhaite les mettre en service, mais que le problème, c’est l’alimentation électrique.
Le récit de la "demande infinie" se grippe. La "neocloud" CoreWeave, le plus gros opérateur de cloud d'accès nu aux GPUs, a déjà dû alerter sur une possible dépréciation de 100 à 200 millions de dollars liée à ces retards physiques. Nvidia en détient 7%.
Les sceptiques ont un argument massue : les géants de la tech minimisent systématiquement le risque d’obsolescence ultrarapide du matériel qui fait tourner l’IA. Les grandes infrastructures américaines du siècle dernier ont traversé les décennies en conservant leur valeur, les lignes électriques des années 1940 tournent toujours, les autoroutes des années 1960 restent en service, les câbles de fibre optique posés dans les années 1990 sont encore largement utilisés. Selon Timothy B. Lee et Derek Thompson, à l’inverse, les GPU les plus performants sont dépassés tous les 18 à 36 mois par une nouvelle génération deux à trois fois plus puissante. Officiellement, les hyperscalers amortissent leurs clusters sur cinq ou six ans, ce qui lisse élégamment le coût dans les comptes. En réalité, pour rester à la frontière de l’IA, ils doivent remplacer massivement leurs puces bien avant la fin de cette période d’amortissement.
Résultat : ils accumulent des actifs à peine amortis qu’il faut déjà mettre au rebut et réinvestir des centaines de milliards tous les deux ou trois ans, ce qui finit par ronger gravement la rentabilité une fois que les tableaux comptables ne pourront plus masquer l’hémorragie.
La crise du "Dernier Kilomètre" électrique
L'énergie est le talon d’Achille du secteur. La moitié des constructeurs américains cite désormais l'accès au réseau électrique comme l'obstacle numéro un. Les files d'attente pour un raccordement de haute puissance peuvent s'étaler sur des années.La voracité énergétique de l'IA nécessite une puissance "en base" constante contrairement aux besoins domestiques ou industriels qui fluctuent (pic en journée, baisse la nuit). Selon David Sacks, le "Tsar fédéral de l'IA", l'énergie nucléaire n'interviendra que dans cinq à dix ans.
La guerre des mégawatts : des turbines à gaz aux moteurs d'avion
Dans l'urgence, les acteurs se ruent sur les turbines à gaz pour alimenter leurs datacenters. Le marché est en rupture de stock : les carnets de commandes de géants comme GE Vernova et Siemens Energy sont pleins jusqu’en 2028.La situation est si critique que certaines entreprises sont contraintes de recycler des moteurs d’avion pour produire l'électricité manquante. Face à ces limites terrestres, les idées spéculatives d'Elon Musk (datacenters orbitaux), de Jeff Bezos (fermes solaires spatiales) ou satellites IA du Project Suncatcher de Google, sont des idées spéculatives, mais révélatrices d’un changement : l’énergie devient la ressource stratégique de l’IA. Pendant ce temps les projets engagés ont été multipliés par six depuis 2019. La demande électrique des datacenters pourrait doubler d’ici 2030, sans garantie que le réseau suive.
Une crise de croissance, pas de demande et Il faut des atomes, pas des bits
Les retards physiques (permis, turbines, raccordements) perturbent déjà la chaîne de financement : des investissements massifs restent sans revenus. La correction à venir ne sera pas une crise de demande ou d’algorithmes, mais une crise de liquidité liée à l’incapacité de l’industrie lourde à suivre. Ce sera une bulle industrielle, née du retard des infrastructures qui freine la génération de revenus, insuffisants pour couvrir les investissements réalisés et produire des bénéfices.L’Amérique domine le logiciel, mais le vrai goulot est l’électricité et le béton. Il faut des atomes, pas des bits. Reste à voir si l'Europe, avec ses propres lourdeurs administratives mais son réseau électrique robuste notamment en France, saura tirer son épingle du jeu des datacenters énergivores de l'IA.
Surtout la France.
-o-o-
09 décembre 2025
Georges Nahon, spécialiste des technologies numériques de la Silicon Valley
Consultant, conférencier et auteur. DG d'Orange à San-Francisco pendant quinze ans.
Sources: cmswire, NYT, Kantrowitz, WSJ, economist, Financial Times
Autres articles sur le même thème
Quoi de neuf dans la Silicon Valley ?
Quand les géants du cloud conçoivent et commercialisent leurs propres puces IA L’intégration verticale redéfinit l’IA mondiale
par Georges Nahon
par Georges Nahon
Mag #30
Lire l'article
Quoi de neuf dans la Silicon Valley ?
Quand les entreprises parlent d’IA mais ne l’utilisent pas vraiment (encore)
Mag #28
Lire l'article