Szokujące prognozy
Podsumowanie: Szokujące prognozy na 2026 rok
Saxo Group
Strateg ds. inwestycji
TurboQuant od Google'a wywiera silniejszą presję na spółki półprzewodnikowe o dużej ekspozycji na segment pamięci masowej niż na producentów pamięci najwyższej klasy znajdującej się najbliżej obliczeń AI.
Trend inwestowania w chipy przesuwa się od „więcej sprzętu za wszelką cenę” w stronę „efektywności w skali”.
Dla inwestorów długoterminowych kluczowe pytanie brzmi: nie „więcej czy mniej chipów”, lecz „które chipy pozostaną niezbędne?”
Kiedy Google pokazuje sposób na tańsze uruchamianie sztucznej inteligencji, rynek półprzewodników zwykle najpierw sprzedaje, a pyta dopiero później. Dokładnie tak było w tym tygodniu. Google zaprezentowało TurboQuant — technikę, która, jak twierdzi firma, potrafi znacząco zmniejszyć zapotrzebowanie na pamięć podręczną typu key‑value, a jednocześnie przyspieszyć niektóre zadania wykonywane na układach Nvidii H100.
Ta wiadomość wywołała szeroką wyprzedaż w części sektora półprzewodnikowego — najmocniej ucierpiały akcje producentów pamięci, którzy dotąd zyskiwali na przekonaniu, że każde dodatkowe zapytanie kierowane do AI będzie wymagało coraz więcej pamięci masowej. Nie oznacza to jednak, że boom na chipy AI się skończył. Ważniejsze jest to, że rynek wchodzi w kolejną fazę rozbudowy i zaczyna premiować efektywność, a nie tylko skalę.
Pamięć pamięci nierównaNa rynku półprzewodników często mówi się o „pamięci” jak o jednej wielkiej szufladzie. To nieprawda. HBM (High‑Bandwidth Memory) znajduje się tuż przy GPU (procesorze graficznym) i szybko „karmi” akceleratory AI danymi. DRAM (Dynamic Random‑Access Memory) pełni rolę szybkiej pamięci roboczej. Z kolei pamięć flash NAND to tańsza, gęstsza warstwa przechowywania danych, używana w dyskach SSD i innych zastosowaniach, w których liczy się pojemność.
TurboQuant zdaje się dotyczyć konkretnego problemu na etapie wnioskowania — czyli w momencie, gdy wytrenowany model odpowiada na realne pytania użytkowników. W uproszczeniu pomaga zredukować obciążenie pamięciowe związane z obsługą długich rozmów i dużych okien kontekstowych. Dlatego przecena najmocniej dotknęła spółki powiązane z przechowywaniem danych i pamięcią flash, podczas gdy wyraźnie mniej ucierpieli dostawcy pamięci klasy premium znajdującej się najbliżej GPU.
Ta różnica ma znaczenie. Inwestorzy zaczęli wyceniać wiele spółek pamięciowych tak, jakby wszystkie miały rosnąć razem. Wyceny producentów pamięci flash odskoczyły daleko od tradycyjnych liderów DRAM — aż do tego tygodniowego odwrócenia trendu. Najnowsze ogłoszenie Google'a pokazało, jak bardzo różne są to biznesy.
Tu robi się ciekawiej niż w przypadku prostej wyprzedaży. W branży półprzewodnikowej wzrost efektywności częściej przesuwa „wąskie gardło” niż je eliminuje. Jeśli uruchamianie AI stanieje, więcej firm będzie mogło sobie pozwolić na jej wdrożenie. Gdy wdrożeń przybędzie, łączny popyt na moc obliczeniową, infrastrukturę sieciową, zaawansowane pakowanie układów oraz pamięć klasy premium nadal może rosnąć.
To nie jest tylko teoria. Micron poinformował w ubiegłym tygodniu, że gwałtownie rosnący popyt związany z zastosowaniami AI przekłada się na rekordowe wyniki, a także podniósł plan wydatków inwestycyjnych na rok fiskalny 2026 do ponad 25 mld USD. W przygotowanych komentarzach Micron dodał, że szybki wzrost skali inferencji (wnioskowania) w AI wymusza powstawanie nowych architektur, a popyt na pamięć NAND dla centrów danych istotnie przewyższa dostępne moce produkcyjne. W tym samym czasie Samsung próbuje przejść z kluczowymi klientami na umowy 3–5‑letnie, a SK Hynix zgodził się kupić od ASML sprzęt do litografii EUV (extreme ultraviolet) o wartości 7,97 mld USD do 2027 r.
Innymi słowy, najwięksi gracze nie zachowują się tak, jakby popyt miał zniknąć. Zachowują się tak, jakby zwycięzcy mogli się zmienić, jakby architektura mogła ewoluować, a krzywa kosztów mogła przesunąć się w dół — a potrzeba znacznych mocy produkcyjnych w branży półprzewodnikowej pozostaje jak najbardziej realna.
Jest tu też mała ironia. Przełomowe rozwiązanie zaprojektowane po to, by zmniejszyć „pamięciożerność”, może ostatecznie przyspieszyć ekspansję rynku AI. Niższe koszty zwykle sprzyjają upowszechnianiu. Tańsze wnioskowanie może uczynić AI bardziej użyteczną w wyszukiwaniu, oprogramowaniu, obsłudze klienta, narzędziach dla programistów i funkcjach działających bezpośrednio na urządzeniu. Gdy tak się dzieje, jedna pozycja na rachunku maleje, ale liczba samych rachunków często się mnoży.
Ostatnie wiadomości z branży półprzewodnikowej sugerują, że rynek przechodzi od szerokiej narracji „AI dla wszystkich” ku bardziej selektywnej. Firmy powiązane z najbardziej krytycznymi częściami stosu technologicznego wciąż wypadają lepiej niż te, które korzystały głównie na niedoborach podaży i pędzie rynkowym. Dlatego dostawcy pamięci HBM, producenci zaawansowanego sprzętu oraz niektórzy dostawcy układów logicznych i akceleratorów mogą radzić sobie lepiej niż firmy bardziej eksponowane na towarowy segment przechowywania danych.
Nie czyni to sektora łatwym rynkiem. Segment pamięci ma długą historię sprawiania, że inwestorzy czują się genialni na szczycie i filozoficzni na dnie. Obecny cykl różni się jednak pod jednym ważnym względem. Zwycięzcami nie są po prostu spółki, które produkują więcej chipów. Są nimi ci, którzy kontrolują najbardziej dotkliwe wąskie gardła, podpisują dłuższe kontrakty i inwestują z przekonaniem, by przygotować się na lata popytu, a nie na jeden szczęśliwy kwartał.
Pierwsze ryzyko polega na tym, że podejście Google'a upowszechni się szybciej i szerzej niż rynek oczekuje. Jeśli TurboQuant lub podobne metody zaczną ograniczać zapotrzebowanie na kolejne warstwy pamięci, presja na ceny pamięci flash może utrzymywać się dłużej niż dwudniowa zadyszka.
Drugie ryzyko to stary problem w szatach AI: nadinwestowanie. Micron zwiększa wydatki. SK Hynix agresywnie zamawia sprzęt. Samsung mówi jak firma, która spodziewa się supercyklu. To działa, dopóki rynek jest napięty. Mniej przyjemnie robi się, gdy klienci wciskają pauzę, modele stają się wydajniejsze szybciej niż zakładano, a wdrażanie w firmach trwa dłużej niż oczekiwano.
Trzecie ryzyko to geopolityka. Kontrole eksportowe, cła, ograniczenia energetyczne i tarcia w łańcuchach dostaw wiszą nad całą branżą półprzewodnikową jak biurowa jarzeniówka — zawsze włączona, nigdy nie dodaje uroku.
Oddziel pamięć o ograniczonej podaży od łatwo zastępowalnej pamięci masowej. Nie każda „pamięć do AI” ma te same podstawy ekonomiczne.
Zwracaj uwagę na kontrakty i wydatki kapitałowe. Często dają sygnał wcześniej niż kursy akcji.
Śledź wnioskowanie równie uważnie jak trening modeli. Kolejni zwycięzcy mogą obsługiwać codzienne zastosowania, a nie tylko głośne premiery modeli.
Traktuj zmienność na rynku półprzewodników jako stały element, a nie niespodziankę.
Na pierwszy rzut oka ogłoszenie Google'a wygląda na złą wiadomość dla rynku chipów. To jednak nie takie proste. Lepiej traktować je jako czynnik porządkujący. TurboQuant nie zabija narracji o półprzewodnikach — skłania inwestorów do postawienia pytania: która część tej układanki wciąż generuje najwyższe marże, gdy AI staje się tańsza, szybsza i coraz szerzej używana?
Niektóre warstwy pamięci mogą stracić nieco blasku. Inne mogą stać się jeszcze istotniejsze. Zazwyczaj tak działa ten sektor: jedno wąskie gardło ustępuje, inne zyskuje na wartości, a rynek musi na nowo odczytać mapę. Na rynku półprzewodników mniejsze zużycie jednego elementu często przekłada się na większe zapotrzebowanie na inny.

Niniejszy materiał ma charakter marketingowy i nie powinien być traktowany jako porada inwestycyjna. Handel instrumentami finansowymi wiąże się z ryzykiem, a historyczne wyniki nie stanowią gwarancji przyszłych wyników.
Instrumenty, o których mowa w niniejszej treści, mogą być emitowane przez partnera, od którego Saxo otrzymuje opłaty promocyjne, płatności lub retrocesje. Chociaż Saxo może otrzymywać wynagrodzenie z tytułu tych partnerstw, wszystkie treści są tworzone w celu dostarczania klientom cennych informacji i opcje.