L’engouement pour l’intelligence artificielle ne se dément pas, au point de provoquer des tensions au niveau de l’offre en raison d’une demande en forte croissance. En mars dernier, Anthropic, une entreprise américaine proposant de nombreux modèles utilisés par les entreprises, a décidé de restreindre l’accès à ses outils lors des périodes de forte affluence. Depuis, elle a modifié ses offres d’abonnement, vraisemblablement pour contenir les usages. En avril, cette entreprise a même procédé à des interruptions d’environ trente minutes par jour afin de canaliser la demande. En mars également, OpenAI a suspendu Sora, son outil de génération vidéo, afin de rediriger une puissance de calcul devenue rare. Le 20 avril, GitHub, plateforme de collaboration de code appartenant à Microsoft, a cessé d’accepter de nouveaux abonnements pour son assistant de programmation.
La course aux serveurs
Ces décisions relèvent de la contrainte plus que du choix. La demande progresse plus vite que les capacités disponibles. Entre janvier et mars, le nombre hebdomadaire de tokens traités par OpenRouter, une place de marché de modèles, a été multiplié par quatre. Le secteur est ainsi condamné à accroître ses serveurs pour faire face à une demande exponentielle. Le 20 avril dernier, Anthropic a annoncé un partenariat de 100 milliards de dollars avec Amazon afin de sécuriser jusqu’à cinq gigawatts de capacité de serveurs, dont près d’un cinquième devrait être opérationnel d’ici la fin de l’année. Google a également prévu d’investir 40 milliards de dollars pour répondre à ses besoins informatiques. Le 27 avril dernier, OpenAI a annoncé la refonte de son partenariat avec Microsoft afin de pouvoir distribuer ses produits via n’importe quel fournisseur de cloud, accroissant ainsi sa flexibilité d’accès aux ressources informatiques.
Pour pouvoir créer de nouveaux datacenters, Alphabet, Amazon et Oracle ont déjà levé plus de 100 milliards de dollars de dette depuis le début de l’année. Pour dégager des marges de manœuvre financières, Meta a récemment annoncé la suppression de 10 % de ses effectifs, tandis que Microsoft prévoit des départs volontaires concernant environ 7 % de ses salariés.
Les entreprises du secteur des technologies de l’information et de la communication rencontrent plusieurs problèmes pour répondre à la demande en IA. L’installation de nouveaux datacenters devient de plus en plus difficile en raison de l’hostilité croissante des élus. Dans l’État du Maine, aux États-Unis, les parlementaires ont adopté un texte visant à interdire la construction de centres de données de plus de 20 mégawatts jusqu’en novembre 2027. Des initiatives similaires sont à l’étude dans plus de dix autres États américains. Les élus mettent en avant les problèmes d’alimentation en électricité et les risques de coupures pour les populations. Au total, selon des estimations données par l’hebdomadaire The Economist, 156 milliards de dollars de projets de centres de données ont été bloqués ou retardés l’an dernier aux États-Unis en raison d’oppositions locales et de contentieux. D’autres pays, de l’Irlande au Brésil, connaissent une contestation croissante, notamment en raison de l’impact de ces infrastructures énergivores sur les factures d’électricité, une inquiétude appelée à s’amplifier dans un contexte de hausse des prix de l’énergie liée au conflit dans le Golfe. Même lorsque les centres de données obtiennent les autorisations nécessaires et un accès à une source d’énergie, réseau public ou production autonome, leurs promoteurs peinent à se procurer les équipements informatiques indispensables à leur fonctionnement. Les processeurs graphiques (GPU) conçus par Nvidia, qui assurent plus des deux tiers de la puissance mondiale de calcul en IA, sont produits en nombre insuffisant pour faire face à la demande. De ce fait, le prix d’un GPU H100, modèle ancien lancé en 2022, a augmenté d’environ 30 % depuis novembre, car les clients les achètent faute d’accès aux versions récentes. Les processeurs concurrents sont également de plus en plus difficiles à obtenir.
Le manque de CPU
La tension touche également les puces mémoire, notamment les mémoires à large bande passante (HBM), essentielles à l’IA. Les trois grands producteurs, SK Hynix, Samsung et Micron, indiquent que l’essentiel de leur production pour 2026 est déjà vendu. Un espoir d’amélioration est apparu en mars quand Google a présenté TurboQuant, un algorithme visant à réduire les besoins en mémoire des modèles d’IA, provoquant un recul temporaire des actions des fabricants. La demande de HBM devrait excéder l’offre pendant au moins trois ans.
Les pénuries s’étendent désormais aux processeurs centraux (CPU). Les systèmes d’IA dits « agentiques », capables de planifier, de raisonner et d’exécuter des tâches, reposent davantage sur ces composants pour coordonner leurs opérations. La banque Morgan Stanley estime que ces systèmes nécessitent un CPU pour chaque GPU, contre un ratio de un pour douze pour les chatbots. La demande de CPU est telle qu’elle redonne un second souffle à Intel, dont la capitalisation boursière a plus que doublé en six mois.
Le cœur du problème tient au fait que les entreprises de la chaîne d’approvisionnement investissent insuffisamment pour répondre à la demande. Ces trois dernières années, les grands fournisseurs de services cloud et de cloud computing ont triplé leurs investissements, mais les fournisseurs de matériel n’ont accru les leurs que de moitié.

TSMC, premier fabricant mondial de semi-conducteurs en sous-traitance, fonctionne déjà à pleine capacité. La construction d’une nouvelle usine nécessite au minimum deux à trois ans. L’entreprise prévoit d’investir environ 55 milliards de dollars en 2026, en hausse de 34 % par rapport à 2025, et potentiellement 65 milliards en 2027. Toutefois, rapporté à son chiffre d’affaires, le montant des investissements est en recul. Sam Altman, le dirigeant d’OpenAI, a exhorté TSMC à « construire davantage de capacités ». Elon Musk, à la tête de Tesla et SpaceX, entend ne plus dépendre des fournisseurs de microprocesseurs en créant une « Terafab », une usine capable de produire à elle seule plus de puissance de calcul annuelle que l’ensemble de l’industrie mondiale actuelle. Ce projet, auquel Intel est associé, ne devrait pas entrer en production avant 2028, et encore à une échelle bien inférieure aux ambitions affichées. De surcroît, Elon Musk pourrait rencontrer des difficultés à se procurer les machines de pointe nécessaires, elles-mêmes en pénurie. Cette situation illustre le décalage qui pèse sur l’avenir de l’intelligence artificielle. Améliorer les logiciels ne prend que quelques mois, tandis que développer les chaînes d’approvisionnement exige des années. Les fabricants de matériel redoutent de surinvestir et de se retrouver avec des capacités inutilisées.
Auteur/Autrice
- Voir toutes les publications
Philippe Crevel est un spécialiste des questions macroéconomiques. Fondateur de la société d’études et de stratégies économiques, Lorello Ecodata, il dirige, par ailleurs, le Cercle de l’Epargne qui est un centre d’études et d’information consacré à l’épargne et à la retraite en plus d'être notre spécialiste économie.























