Points clés
- L’accord entre Amazon et Anthropic montre que le financement de l’IA concerne de plus en plus les puces, le cloud et l’énergie, et pas seulement les logiciels.
- ASML et TSMC suggèrent que le déploiement de l’IA est toujours bien en cours, et que la rareté des capacités continue de soutenir les prix.
- Nvidia reste central, mais les puces personnalisées et les contrats de long terme rendent le pari des « pioches et pelles » plus spécialisé.
Un chatbot écrit un poème, répond à un e-mail et récolte tous les applaudissements. La facture, elle, atterrit souvent ailleurs. C’est ce qui rend l’extension du partenariat entre Amazon et Anthropic si intéressante. Le 20 avril 2026, Amazon a annoncé investir jusqu’à 25 milliards de dollars dans Anthropic, tandis qu’Anthropic s’engageait à dépenser plus de 100 milliards de dollars sur la prochaine décennie en technologies Amazon Web Services. Cela ressemble moins à un tour de financement classique qu’à une réservation de capacité à long terme déguisée en startup.
Un tour de financement qui ressemble en réalité à un contrat de services
La partie la plus révélatrice de l’annonce Amazon-Anthropic n’est pas le chèque, mais l’infrastructure. Anthropic a indiqué vouloir sécuriser jusqu’à 5 gigawatts de capacité actuelle et future de puces Trainium, étendre l’inférence (c’est-à-dire l’exécution des modèles après leur entraînement) en Asie et en Europe, et approfondir son utilisation du cloud Amazon. Amazon a également précisé que plus de 100 000 clients utilisent déjà les modèles Claude sur AWS. Cela ressemble moins à un pari sur un laboratoire d’IA prometteur qu’à la signature d’un gros client industriel pour la prochaine décennie.
Cela compte, car l’IA devient intensive en capital d’une manière très classique. Le logiciel reste important, bien sûr. Mais lorsque la demande explose, les gagnants sont souvent ceux qui possèdent les ressources rares, pas ceux qui font la démonstration la plus impressionnante. Dans l’IA, ces ressources rares sont la puissance de calcul, les puces avancées, les réseaux, le refroidissement et les centres de données nécessaires pour faire tourner l’ensemble. Autrement dit, le chatbot séduit l’utilisateur, mais c’est le rack qui encaisse.
Le glamour est à l’écran, mais l’argent se trouve en coulisses
Les récentes annonces d’ASML et de TSMC rendent cela difficile à ignorer. ASML a relevé ses prévisions de revenus pour 2026 alors que ses clients poursuivent leurs plans d’expansion liés à la demande en IA. Un jour plus tard, TSMC a également revu à la hausse ses perspectives de croissance annuelle et indiqué que ses dépenses d’investissement se situeraient dans le haut de sa fourchette. Ce n’est pas le ton d’une industrie qui ralentit, mais celui de constructeurs demandant plus de béton, plus d’acier et des sites plus vastes.
C’est là le prisme le plus utile pour les investisseurs. L’intelligence artificielle n’est plus seulement une histoire de logiciel. Elle devient de plus en plus un chantier industriel, avec ses goulets d’étranglement, ses délais et ses contraintes d’approvisionnement. La partie visible reste le chatbot, l’assistant et la démonstration de modèle. La partie invisible, ce sont les usines, les fonderies, les racks de puces et les factures d’électricité. Quand la demande dépasse l’offre, les entreprises qui contrôlent les équipements clés et les capacités de production peuvent bénéficier d’une économie plus stable que celles proches de l’utilisateur final.
Nvidia reste au centre de cet écosystème. Ses GPU demeurent la référence pour entraîner les modèles avancés. Mais le marché évolue aussi vers l’inférence, c’est-à-dire l’exécution des modèles une fois entraînés. Cette phase valorise davantage la vitesse, l’efficacité et les coûts. Elle ouvre la porte à des alternatives comme les TPU de Google, les puces Trainium d’Amazon et d’autres conceptions personnalisées pour des usages plus spécifiques. La course à l’IA ne s’éloigne pas de l’infrastructure, elle s’y enfonce davantage.
Toutes les pelles ne se ressemblent plus
C’est ici que l’idée simpliste d’« acheter les vendeurs de pelles » commence à montrer ses limites. Les pelles ne sont plus standardisées. Broadcom a signé un accord jusqu’en 2031 pour développer les puces d’IA personnalisées de Google, et séparément pour fournir à Anthropic environ 3,5 gigawatts de capacité de calcul à partir de 2027. Google explore également de nouvelles conceptions de puces avec Marvell, notamment une unité de traitement mémoire et une nouvelle TPU visant à exécuter les modèles plus efficacement.
Cela change la carte pour les investisseurs. La première version du pari sur l’IA était simple : Nvidia vend des puces puissantes, tout le monde fait la queue. La nouvelle version est plus encombrée, plus spécialisée et plus stratégique. Certains clients veulent réduire leur dépendance aux fournisseurs externes. D’autres recherchent des puces sur mesure pour réduire les coûts sur des tâches spécifiques. D’autres encore privilégient des solutions intégrées combinant puces, logiciels et cloud. Les profits restent peut-être du côté des « pioches et pelles », mais les outils sont désormais sur mesure, les contrats plus longs, et les coûts de changement deviennent aussi importants que le silicium lui-même. Moins poétique, sans doute, mais bien plus utile.