Szokujące prognozy
Podsumowanie: Szokujące prognozy na 2026 rok
Saxo Group
Strateg ds. inwestycji
Umowa Amazona z Anthropic pokazuje, że finansowanie sztucznej inteligencji w coraz większym stopniu przesuwa się w stronę chipów, chmury obliczeniowej i energii, a nie tylko oprogramowania.
ASML i TSMC pokazują, że budowa infrastruktury na potrzeby sztucznej inteligencji wciąż jest w pełnym toku, a ograniczone moce produkcyjne nadal pozwalają dostawcom dyktować ceny.
Nvidia wciąż ma znaczenie, ale chipy projektowane na zamówienie oraz długoterminowe kontrakty sprawiają, że tzw. strategia „kilofów i łopat” staje się coraz bardziej wyspecjalizowana.
Chatbot pisze wiersz, odpowiada na e‑mail i zbiera oklaski. Rachunek jednak często wystawiany jest gdzie indziej. Dlatego rozszerzone partnerstwo Amazona z Anthropic jest tak interesujące. 20 kwietnia 2026 r. Amazon ogłosił inwestycję sięgającą nawet 25 mld USD w Anthropic, a Anthropic zobowiązał się wydać w ciągu następnej dekady ponad 100 mld USD na usługi i infrastrukturę Amazon Web Services (AWS). To nie tyle klasyczna runda finansowania VC, ile długoterminowa rezerwacja mocy i infrastruktury, przebrana w start-upowe szaty.
Najważniejsza w ogłoszeniu Amazona i Anthropic nie jest kwota, lecz zaplecze techniczne. Anthropic zapowiedział zabezpieczenie do 5 gigawatów obecnej i przyszłej mocy dla układów Trainium, rozbudowę mocy inferencyjnych (czyli uruchamiania modeli po wytrenowaniu) w Azji i Europie oraz dalsze, pełniejsze wykorzystanie stosu technologicznego AWS. Amazon dodał, że już ponad 100 tys. klientów uruchamia dziś modele Claude w chmurze AWS. Brzmi to nie tyle jak wsparcie obiecującego laboratorium sztucznej inteligencji, ile raczej jak podpisanie wieloletniej umowy z dużym klientem przemysłowym.
To istotne, bo sztuczna inteligencja staje się kapitałochłonna w bardzo tradycyjny sposób. Oprogramowanie wciąż ma znaczenie, jasne. Ale kiedy popyt rośnie na masową skalę, często wygrywają firmy, które kontrolują rzadkie zasoby, a nie te z najbardziej efektownym pokazem. W obszarze sztucznej inteligencji tymi rzadkimi zasobami są moc obliczeniowa, zaawansowane układy scalone, sieci, chłodzenie oraz moce i powierzchnia centrów danych potrzebne, by to wszystko działało. Innymi słowy: chatbot może oczarować użytkownika, ale rachunek wystawia szafa serwerowa.
Najnowsze wieści z ASML i TSMC trudno zignorować. ASML podniosło prognozę przychodów na 2026 r., ponieważ klienci konsekwentnie realizują plany rozbudowy napędzane popytem na rozwiązania sztucznej inteligencji. Dzień później TSMC podniosło swoją prognozę wzrostu na cały rok i wskazało, że nakłady inwestycyjne znajdą się przy górnej granicy wskazanego przedziału. To nie brzmi jak branża, która łapie oddech. To brzmi jak budowlańcy proszący o więcej betonu, więcej stali i większy plac budowy.
To lepsza perspektywa dla inwestorów. Sztuczna inteligencja to już nie tylko opowieść o oprogramowaniu. Coraz bardziej przypomina wielką inwestycję infrastrukturalno‑przemysłową, z wąskimi gardłami, długimi czasami realizacji i ograniczeniami podaży. Widoczna część to wciąż chatbot, asystent i efektowne demo modelu. Mniej widoczna to fabryka półprzewodników (foundry), szafa serwerowa z chipami i rachunek za prąd. Gdy popyt wyprzedza podaż, firmy kontrolujące kluczowy sprzęt i moce produkcyjne częściej mają stabilniejszy, bardziej przewidywalny biznes niż te najbliżej użytkownika końcowego.
Nvidia wciąż pozostaje w centrum tego świata. Jej układy GPU pozostają punktem odniesienia do trenowania zaawansowanych modeli. Ale rynek przesuwa się w stronę inferencji, czyli uruchamiania modeli po ich wytrenowaniu. W tej części jeszcze bardziej liczą się szybkość, efektywność i koszt. To otwiera drogę alternatywom, takim jak jednostki TPU Google’a, chipy Trainium Amazona oraz inne, dedykowane układy zaprojektowane do węższych, bardziej wyspecjalizowanych zadań. Wyścig w obszarze sztucznej inteligencji wcale nie oddala się od infrastruktury — przeciwnie, coraz głębiej w nią wnika.
To właśnie tutaj stara rada „po prostu kupuj dostawców łopat” okazuje się zbyt uproszczona. Łopaty nie są już standardowym towarem. Broadcom podpisał wieloletnią umowę, obowiązującą do 2031 r., na opracowanie niestandardowych układów AI dla Google’a, a dodatkowo zobowiązał się do zapewnienia Anthropicowi — począwszy od 2027 r. — dostępu do ok. 3,5 GW mocy obliczeniowej na potrzeby AI. Google rozwija też kolejne projekty układów we współpracy z firmą Marvell, w tym jednostkę przetwarzania w pamięci (MPU, memory processing unit) oraz nową jednostkę TPU zaprojektowaną tak, by wydajniej uruchamiać modele.
To zmienia krajobraz inwestycyjny. Wcześniej „zakład na AI” był prosty: Nvidia sprzedawała potężne układy, wszyscy ustawiali się w kolejce — i tyle. Nowsza odsłona jest bardziej zatłoczona, bardziej wyspecjalizowana i bardziej strategiczna. Część klientów chce zmniejszyć zależność od zewnętrznych dostawców. Inni wolą układy dedykowane, które obniżają koszty realizacji konkretnych zadań. Jeszcze inni szukają ściśle zintegrowanych rozwiązań pakietowych, które łączą układy, oprogramowanie i infrastrukturę chmurową w jedną, trudną do porzucenia całość. Pula zysków nadal może leżeć po stronie „kilofów i łopat”, ale teraz narzędzia są na zamówienie, kontrakty są dłuższe, a koszty zmiany dostawcy mogą być równie ważne jak sam krzem. Może mniej poetycko, ale zdecydowanie bardziej użytecznie.
Wciąż czyha kilka oczywistych pułapek. Po pierwsze, niedobór mocy może utrzymywać się długo — aż nagle przestanie być problemem. Jeśli najwięksi dostawcy usług chmurowych (hiperskalerzy) zaczną ciąć nakłady inwestycyjne albo popyt ze strony firm okaże się słabszy niż się dziś zakłada, dzisiejsze braki mogą jutro przerodzić się w nadpodaż mocy. Po drugie, układy projektowane na zamówienie nie są magicznie „bezpieczniejsze” od standardowych. Wciąż grożą im opóźnienia, problemy po stronie oprogramowania i błędy projektowe. Sam fakt, że Google pracuje nad tym, by TPU lepiej współpracowały z popularnymi narzędziami programistycznymi, przypomina, że sam sprzęt nie wystarczy. Po trzecie, cały łańcuch dostaw pozostaje silnie skoncentrowany. Gdy wąskie gardła kontroluje niewielka liczba fabryk półprzewodników (foundry), producentów maszyn oraz platform chmurowych, każda awaria lub zator może szybko rozlać się po całym ekosystemie.
Oddziel zwycięzców po stronie modeli od tych, którzy zarabiają na infrastrukturze. Te grupy częściowo się nakładają, ale nie zawsze w oczywisty sposób.
Śledź wyniki hiperskalerów i zwracaj uwagę na moce obliczeniowe, stopień ich wykorzystania oraz inferencję (uruchamianie modeli po wytrenowaniu), a nie tylko na „przychody ze sztucznej inteligencji” w nagłówkach.
Traktuj układy szyte na miarę jako oznakę specjalizacji, a nie dowód, że era Nvidii dobiegła końca.
Patrz na cały pakiet: układy, chmurę, narzędzia programistyczne, a także dostęp do energii i powierzchni w centrach danych.
Najprostsza interpretacja tej chwili jest zarazem najpraktyczniejsza. Na ekranie sztuczna inteligencja wciąż wygląda jak magia, ale pod spodem coraz bardziej zachowuje się jak ciężki przemysł. Umowa Amazon–Anthropic sugeruje, że prawdziwy wyścig to nie tylko ten o „najmądrzejszy” model. Chodzi też o to, kto zabezpieczy moc obliczeniową, zarezerwuje moce na lata i utrzyma infrastrukturę w ciągłym ruchu. To nie znaczy, że chatbot jest nieistotny. To znaczy, że ekonomika może ostatecznie sprzyjać firmom, które kontrolują tory, po których to wszystko jeździ. W tej fazie wyścigu sztucznej inteligencji najbystrzejsza odpowiedź wciąż może pochodzić z modelu — ale najgrubsza faktura może przyjść z maszynowni.
Niniejszy materiał ma charakter marketingowy i nie powinien być traktowany jako porada inwestycyjna. Handel instrumentami finansowymi wiąże się z ryzykiem, a historyczne wyniki nie stanowią gwarancji przyszłych wyników.
Instrumenty, o których mowa w niniejszej treści, mogą być emitowane przez partnera, od którego Saxo otrzymuje opłaty promocyjne, płatności lub retrocesje. Chociaż Saxo może otrzymywać wynagrodzenie z tytułu tych partnerstw, wszystkie treści są tworzone w celu dostarczania klientom cennych informacji i opcje.