đ Google vs Nvidia: dove può nascondersi la prossima storia che âavremmo voluto comprare primaâ.
In questa newsletter spieghiamo che cosa sono CPU, GPU, TPU e ASIC, perchĂŠ tutti ne parlano nei board delle big tech e dove può nascondersi la prossima storia che âavremmo voluto comprare primaâ.
Autori: Stefano Reali (Portfolio Manager - Pharus Asset Management S.A.), Riccardo Volpi (Portfolio Manager - Pharus Asset Management S.A.), Riccardo Morini (Stock Analyst - Pharus Asset Management S.A.), Andrea Guitta (Portfolio Manager - Pharus Management Lux S.A. - Milan Branch), William Trevisan (Portfolio Manager - Pharus Management Lux S.A. - Milan Branch) | Persona Giuridica: Pharus Management Lux S.A. Sede di Milano | AutoritĂ Competente: Banca DâItalia, CSSF | Raccomandazione Ultimata: 05.12.2025 ore 18:00 | Prima diffusione della raccomandazione: 09.12.2025 ore 06:30 | Data e ora Prezzi: 05.12.2025 ore 18:00 | Informazioni secondo il Regolamento Delegato (UE) 2016/958 âRaccomandazione in materia di investimentiâ sono a questo link.
Caro fuoriclasse,
in questa newsletter guardiamo allâintelligenza artificiale da unâangolazione diversa dal solito. Di solito si parla di modelli, di chatbot, di applicazioni. Oggi invece andiamo sotto il cofano, dove pochi guardano: nel mondo dei chip che alimentano lâAI.
Nvidia la conoscono tutti: se pensiamo allâAI pensiamo ad Nvidia ed è, dal punto di vista di performance borsistica, il grande rimpianto di molti.
Quello che in pochi stanno guardando, però, è cosa sta succedendo adesso dietro le quinte dellâintelligenza artificiale.
Mentre il mercato è ipnotizzato dal grafico di Nvidia, dietro le quinte si sta giocando una partita diversa: la guerra per i chip che alimentano lâAI nei data center.
Qui non parliamo di chatbot o app alla moda, ma dellâhardware che decide chi comanda davvero nella nuova economia dellâintelligenza artificiale.
Alcuni grandi player tecnologici stanno costruendo alternative concrete al dominio delle GPU di Nvidia, ridisegnando gli equilibri di potere e â soprattutto â i flussi di profitti dei prossimi anni. Chi investe guardando solo al âsolitoâ titolo rischia di perdere dove si sta spostando il valore.
Conosci davvero le nuove architetture pensate solo per lâAI?
Sai che esistono chip diversi dalle GPU che stanno entrando nei data center dei colossi del cloud?
E sai perchĂŠ potrebbero cambiare la mappa delle opportunitĂ per gli investitori?
In questa newsletter del Fuoriclasse ti portiamo dentro questa trasformazione: ti spiego, in modo semplice, che cosa sono CPU, GPU, TPU e ASIC, perchĂŠ tutti ne parlano nei board delle big tech e dove, in questo scenario, può nascondersi la prossima storia che âavremmo voluto comprare primaâ.
Cominciamo!
Partiamo dalle basi: CPU, GPU, TPU e ASIC non sono tutte uguali per lâAI.
Per farlo, immaginiamo una grande cucina di un ristorante.
La CPU è lo chef principale. Ă quello che decide cosa fare, organizza il lavoro, gestisce le preparazioni piĂš delicate. Ă molto flessibile, può fare tante cose diverse, ma una alla volta. Nei computer è il processore âclassicoâ, quello che governa il sistema e coordina tutto.
La GPU è una grande brigata di cuochi che può preparare moltissime porzioni dello stesso piatto in parallelo. Quando bisogna ripetere la stessa operazione migliaia di volte, come succede nellâAI, è perfetta. Originariamente era pensata per la grafica, ma proprio questa capacitĂ di lavorare âin massaâ lâha resa ideale per lâaddestramento dei modelli.
La TPU è una macchina professionale che fa una sola cosa, ma la fa velocissima e senza stancarsi. Possiamo immaginarla come la macchina che produce pasta fresca in serie, tutto il giorno. Le TPU sono chip creati da Google apposta per lâintelligenza artificiale: sono meno versatili delle GPU, ma spesso piĂš efficienti quando il lavoro è molto ripetitivo e su grande scala.
Infine, gli ASIC sono qualsiasi macchina o attrezzo costruito su misura per un compito preciso. Tecnicamente la sigla significa âApplication-Specific Integrated Circuitâ. Le TPU sono un tipo di ASIC: chip fatti esattamente per il tipo di calcoli che servono allâAI.
Con questa metafora in mente, il quadro diventa piĂš chiaro: Nvidia ha costruito il suo impero vendendo la âbrigata di cuochiâ (le GPU), mentre Google, insieme a Broadcom, sta puntando su una âmacchina industrialeâ su misura (TPU/ASIC).
PerchĂŠ Nvidia ha dominato finora
Il dominio di Nvidia non è stato casuale. Le sue GPU si sono rivelate perfette per addestrare reti neurali, perchÊ permettono di eseguire in parallelo un numero enorme di calcoli simili. In piÚ Nvidia non ha venduto solo hardware, ma anche un ecosistema software, in particolare CUDA, che ha reso facile per ricercatori e aziende sfruttare quella potenza.
Per anni, chi voleva fare sul serio con lâAI partiva quasi automaticamente da lĂŹ. Nel mondo dellâhardware per lâintelligenza artificiale, Nvidia è stata âlâunico gioco in cittĂ â per un periodo sorprendentemente lungo.
Dove entra in scena Google (e perchĂŠ câentra Broadcom)
A un certo punto Google ha iniziato a porsi una domanda molto pragmatica: se stiamo spendendo miliardi per addestrare i nostri modelli, ha senso usare gli stessi chip generici che usano tutti, oppure conviene avere un chip cucito su misura per il nostro tipo di lavoro?
Da questa domanda nascono le TPU. Google progetta questi chip pensando esattamente ai calcoli che servono per lâAI, e Broadcom li trasforma in prodotti industriali pronti per essere installati nei data center. Invece di una brigata di cuochi che può fare un poâ di tutto, si sceglie una macchina che fa esattamente quel piatto, ma in modo piĂš rapido e con meno sprechi.
Le nuove generazioni di TPU, e in particolare la v7, segnano un salto rispetto al passato: piÚ memoria, migliore efficienza energetica, un rapporto tra costo e prestazioni molto competitivo rispetto alle GPU piÚ recenti di Nvidia. Se guardiamo i numeri in modo molto semplificato, una GPU top di gamma Nvidia può superare i 36.000 dollari a pezzo, mentre una TPU v7 si colloca intorno ai 12.000. Per chi gestisce data center con centinaia di migliaia di chip, questa differenza non è un dettaglio.
La dipendenza da un solo fornitore inizia a pesare
Oggi nel mondo ci sono milioni di GPU Nvidia installate per lâAI e un numero piĂš ridotto, ma in crescita veloce, di TPU Google. FinchĂŠ lâAI era una nicchia, avere un unico grande fornitore di riferimento era quasi un vantaggio. Ora che le esigenze di calcolo esplodono, diventa un rischio.
Gli hyperscaler si stanno accorgendo che dipendere troppo da Nvidia è pericoloso: se Nvidia non riesce a consegnare abbastanza chip, i loro piani rallentano; se i prezzi salgono troppo, i margini si comprimono. Di qui la scelta di costruire architetture âmulti-chipâ, in cui GPU, TPU e altri chip su misura convivono nello stesso data center.
In questo scenario, Google sta facendo una scelta molto netta: sta addestrando la famiglia di modelli Gemini principalmente su TPU e sta costruendo un ecosistema in cui modelli, hardware e software crescono insieme. Lâimpostazione ricorda quella di Apple con i suoi processori: controllare sempre di piĂš la filiera, dal chip allâesperienza finale.
Gli altri attori della partita
Il quadro competitivo non è piĂš semplicemente âNvidia contro il resto del mondoâ.
Nvidia rimane il punto di riferimento per la performance pura e per lâecosistema software. Offre sistemi che funzionano molto bene âchiavi in manoâ e questo resta un vantaggio notevole. Allo stesso tempo, però, proprio la sua posizione dominante spinge i clienti piĂš grandi a cercare attivamente alternative.
Broadcom è il grande beneficiario della nuova fase. Grazie al lavoro sulle TPU di Google e alla forza storica nel networking e negli switch per data center, si trova al centro della nuova architettura AI. à uno dei pochi gruppi in grado di progettare e produrre chip su misura per clienti come Google, e nel medio periodo anche per altri grandi nomi come Meta e OpenAI.
AMD si muove come seconda fonte credibile sul fronte GPU. La collaborazione con OpenAI e i progressi della serie MI300 le hanno dato molta visibilità . Oggi rimane piÚ piccola di Nvidia, ma in un mondo in cui tutti vogliono almeno due fornitori, il suo ruolo è destinato a crescere.
Marvell, al contrario, fatica di piĂš a trovare una posizione chiara in questo contesto. Alcune collaborazioni importanti non si sono tradotte in una leadership nellâAI, e la strategia dellâazienda su questo fronte appare meno definita. MediaTek ha un ruolo piĂš di supporto tecnico in alcune parti della filiera, incluse certe componenti legate alle TPU, ma non è oggi uno dei protagonisti di questa corsa.
Cosa possiamo aspettarci nei prossimi anni
Guardando al 2025â2026, è probabile che il mercato vada nella direzione di una maggiore diversificazione. Vedremo data center che combinano GPU Nvidia, GPU AMD, TPU Google e altri chip custom prodotti da Broadcom e da altri fornitori. Lâobiettivo sarĂ ridurre il rischio, gestire meglio i costi e non essere ostaggi di un unico partner.
Se Google riuscirĂ a scalare rapidamente lâuso delle TPU v7 allâinterno della propria infrastruttura e nei servizi cloud, Broadcom ne uscirĂ come uno dei grandi vincitori, con benefici giĂ prima della fine del decennio. Nvidia rimarrĂ centrale, ma inserita in un contesto piĂš simile a un oligopolio che a un quasi-monopolio.
Conclusione
Per anni, parlare di hardware per lâAI ha voluto dire praticamente parlare solo di Nvidia. Oggi quella fase si sta lentamente chiudendo.
Google porta sul tavolo chip altamente efficienti e li utilizza per addestrare i propri modelli di punta. Broadcom diventa lâingranaggio fondamentale che permette a questi chip di esistere e di scalare. AMD rafforza il suo ruolo di seconda fonte GPU. Gli hyperscaler costruiscono architetture multi-fornitore per non dipendere piĂš da un singolo player.
Non è la âfine del regno Nvidiaâ, ma è lâinizio di un nuovo equilibrio: un mercato dellâhardware AI piĂš grande, piĂš diversificato e piĂš competitivo, in cui Google non è solo un utente avanzato di intelligenza artificiale, ma uno degli architetti dellâinfrastruttura su cui lâAI del futuro andrĂ a girare.
Inizia a raggiungere i tuoi obiettivi.
Abbonati e scopri i titoli da Fuoriclasse.
Cosa comprende il PIANO PLAYER
(abbonamento a 39 Euro/mese)*
Tutto quanto riportato nel PIANO GRATUITO
In aggiunta:
âď¸ Accesso a 3 e-mail Settimanali Complete. Riceverai la newsletter di Fuoriclasse il martedĂŹ, una il giovedĂŹ e una la domenica con Accesso completo a tutte le newsletter presenti e passate! Ogni volta che ci sarĂ una notizia importante sui mercati, una azienda o un settore interessante per fuoriclasse, promozioni di fuoriclasse, ti verrĂ inviata una email dedicata.
đ¤đť Partecipi ogni mese al âFuoritalksâ: incontro esclusivo online con gli analisti di Fuoriclasse.
Cosa comprende il PIANO PRO
(abbonamento a 900 Euro/anno)*
Tutto quanto riportato nel PIANO PLAYER
In aggiunta:
đ Accesso Esclusivo al Portafoglio Fuoriclasse
đ Analisi complete di tutti i titoli allâinterno del portafoglio Fuoriclasse
đĽď¸ âMeet The Greatâ - Incontro trimestrale con i Gestori.
*Puoi disdire ognuno di questi abbonamenti in qualsiasi momento.


