Kluczowe punkty:
- Nvidia wykorzystała targi CES 5 stycznia 2026 r., aby potwierdzić, że jej kolejna duża platforma dla centrów danych, Vera Rubin, jest już w pełnej produkcji, a systemy mają trafić do klientów za pośrednictwem partnerów w drugiej połowie 2026 r.
- Z perspektywy inwestorów kluczową zmianą jest przejście od budowania modeli do wdrażania sztucznej inteligencji na szeroką skalę dla użytkowników końcowych. To wykracza poza same układy GPU, obejmując również sieci, pamięć operacyjną i masową oraz całą infrastrukturę centrów danych.
- Nvidia mocno akcentowała także „fizyczną sztuczną inteligencję” (robotykę i systemy autonomiczne) jako długoterminowy motor wzrostu, jednak terminy i skala wdrożeń pozostają znacząco niepewne.
Co się wydarzyło?
CES, coroczne targi elektroniki użytkowej w Las Vegas, to ważna scena dla prezentacji nowych produktów i platform technologicznych. Dla rynków to również wskazówka, dokąd może popłynąć strumień wydatków na innowacje i w jakim tempie będzie następować ich komercyjne wdrażanie. Na targach CES w dniu 5 stycznia 2026 r. dyrektor generalny Nvidii, Jensen Huang, wykorzystał przemówienie do przekazania trzech głównych wiadomości:
- Rubin nadchodzi i, jak twierdzi Nvidia, jest już w pełnej produkcji".: Nvidia zaprezentowała platformę Vera Rubin jako swoją następną dużą ofertę dla centrów danych i zapowiedziała, że systemy oparte na tej platformie trafią do klientów za pośrednictwem partnerów w drugiej połowie 2026 r. Huang mówił o około pięciokrotnym wzroście wydajności względem poprzednich platform oraz o znaczących spadkach kosztu wnioskowania w przeliczeniu na token.
- Microsoft i CoreWeave zostali wskazani jako pierwsi użytkownicy centrów danych opartych na platformie Rubin.
- To nie tylko układ scalony, lecz pełna platforma do uruchamiania AI na ogromną skalę: Rubin to zintegrowany stos technologiczny — CPU i GPU wraz z siecią oraz elementami infrastruktury centrów danych.
- Nvidia podwoiła wysiłki w zakresie "fizycznej sztucznej inteligencji": Firma udostępniła otwarte modele i narzędzia, które mają przyspieszyć wdrożenia w świecie fizycznym, m.in. w robotyce i systemach autonomicznych.
- Nvidia poinformowała o rozszerzeniu partnerstwa z Siemensem: jej stos technologiczny ma integrować się z oprogramowaniem przemysłowym Siemensa, aby wspierać „fizyczną AI” od etapu projektowania i symulacji po produkcję.
- Ogłoszono, że pierwszym autonomicznym samochodem osobowym z rozwiązaniem Alpamayo opartym na NVIDIA DRIVE będzie nowy Mercedes-Benz CLA; „AI-defined driving” ma pojawić się jeszcze w tym roku w USA, Europie i Azji.
- Wśród partnerów w obszarze robotyki i automatyzacji wymieniono Bosch, Fortinet, Salesforce, Hitachi i Uber, które korzystają z otwartych technologii modelowych Nvidii.
Dlaczego to ma znaczenie dla inwestorów?
W naszej ocenie przekaz Nvidii na CES 2026 niesie kilka ważnych sygnałów dla spółki i całego ekosystemu AI.
1) Na targach CES mniej o „nowych technologiach”, a bardziej o podtrzymaniu cyklu wydatków na AI
Prawdziwym celem Huanga było umocnienie zaufania inwestorów do trwającej fali wydatków na sztuczną inteligencję (AI). Sygnał jest taki: kolejna fala modernizacji jest już zaplanowana, a Nvidia stara się włączyć większą część łańcucha wartości w narrację o zintegrowanej platformie, a nie tylko o GPU.
To istotne, bo kolejna debata rynkowa będzie dotyczyć nie tyle tego, czy AI jest ekscytująca, ile tego, czy da się ją wdrażać i eksploatować na tyle niezawodnie i tanio, by masowe użycie przekładało się na trwałe zyski w całym ekosystemie technologicznym.
2) Szansa może się poszerzyć: od „chipów” do infrastruktury umożliwiającej AI
Jeśli wykorzystanie AI będzie dalej rosło, wąskie gardła pojawią się w przesyle danych, w dostępie do pamięci oraz w efektywności centrów danych. Dlatego nacisk Nvidii na pełną platformę ma szersze znaczenie dla segmentów wspierających AI na dużą skalę: sieci i łączności, pamięci operacyjnej i masowej oraz infrastruktury centrów danych.
3) "Fizyczna sztuczna inteligencja" to długoterminowa opcja — cenna, ale nie na przyszły kwartał
Kierunek robotyki i autonomii jest strategicznie istotny (otwarte modele + narzędzia + partnerstwa), jednak rynek wielokrotnie widział „następne wielkie rzeczy”, które obiecywały zbyt wiele. Wniosek inwestycyjny pozostaje taki: to atrakcyjna opcjonalność, a nie pewny, krótkoterminowy strumień przychodów.
Plan gry na rynku: jak inwestorzy mogą rozegrać ten temat (wyłącznie do celów informacyjnych)
Poniżej znajdziesz sposoby myślenia o pozycjonowaniu — to nie są rekomendacje inwestycyjne.
Temat A: "Inwestycje w sztuczną inteligencję trwają"
Wieloletnie rozbudowy mogą zapewniać większą przewidywalność przychodów w kilku warstwach ekosystemu. Warto obserwować segmenty, które historycznie korzystają z długotrwałych inwestycji w centra danych: kluczową warstwę obliczeniową, odlewnie półprzewodników oraz łańcuchy dostaw zaawansowanego pakowania układów, a także dostawców platform dla centrów danych na dużą skalę.
Kluczowe ryzyko: oczekiwania potrafią wyprzedzać rzeczywistość. Nawet szybki wzrost bywa „rozczarowaniem”, jeśli okaże się słabszy, niż rynek już wycenił.
Temat B: Sztuczna inteligencja przesuwa się z uczenia do wnioskowania
Przekaz z CES dotyczył uczynienia AI tańszą, szybszą i bardziej niezawodną w obsłudze użytkowników. Ten etap może poszerzyć grono liderów poza najbardziej znane marki chipowe. Gdy skala użycia rośnie, coraz większego znaczenia nabierają sieci i łączność, pamięć operacyjna i masowa oraz efektywność centrów danych.
Kluczowe ryzyko: konkurencja zwykle się zaostrza, gdy hiperskalerzy i rywale forsują układy szyte na miarę, rozwiązania wewnętrzne i alternatywne projekty. W fazie wnioskowania częściej wraca też debata o marżach.
Temat C: "Fizyczna sztuczna inteligencja" (roboty i systemy autonomiczne)
Robotyka i autonomia to dłuższy horyzont; z czasem mogą wspierać wybrane części ekosystemu: półprzewodniki, automatykę przemysłową, sensory i przetwarzanie brzegowe. Potencjalną korzyścią jest istotna opcjonalność, jeśli tempo wdrożenia przyspieszy.
Kluczowe ryzyko: horyzonty wdrożeń bywają długie, a kamienie milowe technologiczne nie zawsze przekładają się na popyt komercyjny na dużą skalę.
Ryzyka, które inwestorzy powinni uwzględnić
- Ryzyko harmonogramowe: dostępność systemów u partnerów jest przewidziana na drugą połowę 2026 r., co pozostawia przestrzeń na to, by oczekiwania wyprzedzały rzeczywistość, a ewentualne opóźnienia miały znaczenie.
- Luka w niezależnych benchmarkach: deklaracje wydajności Nvidii pochodzą od samej spółki; niezależna weryfikacja oraz realny całkowity koszt posiadania (TCO) będą ostatecznymi weryfikatorami.
- Presja konkurencyjna: to właśnie w ekonomice wnioskowania hiperskalerzy i rywale naciskają najmocniej, stawiając na układy projektowane na zamówienie, rozwiązania wewnętrzne i alternatywne stosy technologiczne.
- „Trawienie” CAPEX-u na AI: nawet jeśli AI ma charakter strukturalny, budżety są cykliczne, mogą pojawiać się przesunięcia zamówień, pauzy i kwartały w trybie „poczekajmy i zobaczymy”.
Na co patrzeć dalej?
- Czy hiperskalery potwierdzają plany inwestycyjne w najbliższym sezonie wyników? To „tlen” dla całego łańcucha dostaw.
- Sygnały cenowe: czy koszt infrastruktury AI w przeliczeniu na jednostkę obciążenia lub obliczeń nadal spada (oznaka, że era wnioskowania działa)?
- Szerokość rynku: czy inwestorzy nagradzają wyłącznie spółki o megakapitalizacji, czy zaczynają zyskiwać także beneficjenci „zaplecza infrastrukturalnego AI”?
- Zmienność: jeśli optymizm wokół AI ponownie się nasili, korekty mogą być gwałtowne — nawet przy solidnych fundamentach. To dobre dla dyscypliny w zarządzaniu ryzykiem, ale nie najlepsze dla samozadowolenia.
Podsumowanie
Przekaz Huanga z targów CES można streścić w jednym zdaniu: sztuczna inteligencja przechodzi z narracji o przełomie do narracji o modelu operacyjnym.
Ta zmiana może poszerzyć pulę szans w całym sektorze technologicznym, ale podnosi też poprzeczkę w zakresie dowodów, bo kolejna faza będzie oceniana przez pryzmat ekonomii i jakości realizacji, a nie ekscytacji.
