Prévisions chocs
Prévisions "chocs" 2026
Saxo Group
Spatial, logiciel… Nvidia affiche son désir d'innover lors de sa conférence annuelle
Le concepteur de puces électroniques mise sur l'inférence, c'est-à-dire le traitement des requêtes des utilisateurs par les agents conversationnels, pour continuer à profiter de l'essor de l'intelligence artificielle au-delà de l'entraînement des modèles. Une diversification stratégique confirmée lors de sa conférence annuelle, la GTC 2026.
Le conseil de notre partenaire « Investir » :
Les résultats annuels ont montré que les dépenses d'investissement des opérateurs de centres de données restent soutenues, malgré le risque d'endettement qu'ils encourent. Nous conservons une approche spéculative, alors que le ralentissement de la croissance sur une base de comparaison annuelle est susceptible de décevoir les marchés. Achat spéculatif pour viser 250 dollars.
C'est l'événement qui permet, chaque fin d'hiver, de jauger ce que l'on peut attendre de lui dans le courant de l'année suivante. Le concepteur de puces électroniques Nvidia vient de tenir sa GPU Technology Conference (GTC). Et, le moins que l'on puisse dire, c'est qu'il est sur tous les fronts. Tour d'horizon de ses principales annonces.
- Se positionner sur l'inférence
Les analystes l'attendaient de pied ferme. Le président-directeur général de Nvidia, Jensen Huang, leur a plutôt donné satisfaction, en mettant l'accent sur la diversification. Les processeurs graphiques (GPU) du groupe lui ont certes permis d'être le grand gagnant de la première phase de l'essor de l'intelligence artificielle, qui consiste à entraîner les modèles qui font tourner les agents comme ChatGPT ou Anthropic, mais il convenait d'envisager le prochain moteur de la croissance du groupe pour anticiper le moment où les opérateurs de centres de données se seront largement équipés.
Le déploiement des outils d'IA dans les entreprises et leur adoption par le grand public renforce progressivement les besoins sur le créneau de l'inférence, qui correspond à l'exécution du modèle, une fois que l'utilisateur a formulé une requête. Les enjeux ne sont pas négligeables : ce segment a déjà représenté 40 % du chiffre d'affaires que Nvidia a réalisé dans les centres de données en 2025. Pour capitaliser sur cette tendance, le groupe a dévoilé un nouveau type de puces spécialisées, qu'il a nommé unité de traitement de langage (LPU). Son but est de couper l'herbe sous le pied de géants technologiques tels qu'Alphabet et Meta, qui développent actuellement leurs propres accélérateurs d'IA. « Le point d'inflexion de l'inférence est arrivé. La demande ne cesse d'augmenter », n'a cessé de répéter Jensen Huang à ses auditeurs.
- Des puces pour centres de données spatiaux
Plus insolite, Nvidia a présenté au début de la GTC des puces conçues pour équiper des centres de données placés en orbite autour de la Terre (Space-1). Une manière de ne pas hypothéquer l'avenir, alors que les déclarations d'intention se multiplient depuis quelques mois autour de ce type de projets.
- Une reprise de la livraison de H200 à la Chine
La commercialisation de la nouvelle architecture de GPU de Nvidia, nommée Rubin, ne débutera qu'au second semestre 2026. D'ici là, le groupe de Santa Clara (Californie) peut compter sur un catalyseur plus que bienvenu, apparu en marge de sa conférence annuelle : certains de ses clients chinois ont enfin obtenu l'aval de Pékin en vue de l'achat de puces H200. La puissance de calcul de ce modèle a été délibérément limitée à destination de ce marché, jugé à risque par les Etats-Unis. La Chine avait, en retour, décidé de limiter l'accès de ses fleurons à ces produits, pour les encourager à développer leurs propres technologies. Cette réautorisation est de nature à donner, au moins temporairement, de l'air à Nvidia. En 2024, le pays avait encore représenté 13 % des revenus du groupe.
- Une plateforme logicielle pour les agents d'IA
A noter que Nvidia a également présenté NemoClaw, un produit permettant d'ajouter des paramètres de confidentialité et de sécurité à OpenClaw et aux autres agents d'IA dits « autonomes », qui peuvent être directement intégrés à un large éventail d'applications de messagerie (WhatsApp, Discord, iMessage, etc.) - cela permet de ne pas avoir à installer une application indépendante à cette fin, comme Claude ou ChatGPT. Un pas de plus dans le logiciel, un domaine sur lequel l'entreprise mise de plus en plus pour se diversifier par-delà le matériel… quitte à verrouiller le marché de l'IA, diront ses détracteurs.
| Autres idées de trading similaires |
|---|