👊 Google vs Nvidia: dove può nascondersi la prossima storia che “avremmo voluto comprare prima”.
In questa newsletter spieghiamo che cosa sono CPU, GPU, TPU e ASIC, perché tutti ne parlano nei board delle big tech e dove può nascondersi la prossima storia che “avremmo voluto comprare prima”.
Caro fuoriclasse,
in questa newsletter guardiamo all’intelligenza artificiale da un’angolazione diversa dal solito. Di solito si parla di modelli, di chatbot, di applicazioni. Oggi invece andiamo sotto il cofano, dove pochi guardano: nel mondo dei chip che alimentano l’AI.
Nvidia la conoscono tutti: se pensiamo all’AI pensiamo ad Nvidia ed è, dal punto di vista di performance borsistica, il grande rimpianto di molti.
Quello che in pochi stanno guardando, però, è cosa sta succedendo adesso dietro le quinte dell’intelligenza artificiale.
Mentre il mercato è ipnotizzato dal grafico di Nvidia, dietro le quinte si sta giocando una partita diversa: la guerra per i chip che alimentano l’AI nei data center.
Qui non parliamo di chatbot o app alla moda, ma dell’hardware che decide chi comanda davvero nella nuova economia dell’intelligenza artificiale.
Alcuni grandi player tecnologici stanno costruendo alternative concrete al dominio delle GPU di Nvidia, ridisegnando gli equilibri di potere e – soprattutto – i flussi di profitti dei prossimi anni. Chi investe guardando solo al “solito” titolo rischia di perdere dove si sta spostando il valore.
Conosci davvero le nuove architetture pensate solo per l’AI?
Sai che esistono chip diversi dalle GPU che stanno entrando nei data center dei colossi del cloud?
E sai perché potrebbero cambiare la mappa delle opportunità per gli investitori?
In questa newsletter del Fuoriclasse ti portiamo dentro questa trasformazione: ti spiego, in modo semplice, che cosa sono CPU, GPU, TPU e ASIC, perché tutti ne parlano nei board delle big tech e dove, in questo scenario, può nascondersi la prossima storia che “avremmo voluto comprare prima”.
Cominciamo!
Partiamo dalle basi: CPU, GPU, TPU e ASIC non sono tutte uguali per l’AI.
Per farlo, immaginiamo una grande cucina di un ristorante.
La CPU è lo chef principale. È quello che decide cosa fare, organizza il lavoro, gestisce le preparazioni più delicate. È molto flessibile, può fare tante cose diverse, ma una alla volta. Nei computer è il processore “classico”, quello che governa il sistema e coordina tutto.
La GPU è una grande brigata di cuochi che può preparare moltissime porzioni dello stesso piatto in parallelo. Quando bisogna ripetere la stessa operazione migliaia di volte, come succede nell’AI, è perfetta. Originariamente era pensata per la grafica, ma proprio questa capacità di lavorare “in massa” l’ha resa ideale per l’addestramento dei modelli.
La TPU è una macchina professionale che fa una sola cosa, ma la fa velocissima e senza stancarsi. Possiamo immaginarla come la macchina che produce pasta fresca in serie, tutto il giorno. Le TPU sono chip creati da Google apposta per l’intelligenza artificiale: sono meno versatili delle GPU, ma spesso più efficienti quando il lavoro è molto ripetitivo e su grande scala.
Infine, gli ASIC sono qualsiasi macchina o attrezzo costruito su misura per un compito preciso. Tecnicamente la sigla significa “Application-Specific Integrated Circuit”. Le TPU sono un tipo di ASIC: chip fatti esattamente per il tipo di calcoli che servono all’AI.
Con questa metafora in mente, il quadro diventa più chiaro: Nvidia ha costruito il suo impero vendendo la “brigata di cuochi” (le GPU), mentre Google, insieme a Broadcom, sta puntando su una “macchina industriale” su misura (TPU/ASIC).
Perché Nvidia ha dominato finora
Il dominio di Nvidia non è stato casuale. Le sue GPU si sono rivelate perfette per addestrare reti neurali, perché permettono di eseguire in parallelo un numero enorme di calcoli simili. In più Nvidia non ha venduto solo hardware, ma anche un ecosistema software, in particolare CUDA, che ha reso facile per ricercatori e aziende sfruttare quella potenza.
Per anni, chi voleva fare sul serio con l’AI partiva quasi automaticamente da lì. Nel mondo dell’hardware per l’intelligenza artificiale, Nvidia è stata “l’unico gioco in città” per un periodo sorprendentemente lungo.
Dove entra in scena Google (e perché c’entra Broadcom)
A un certo punto Google ha iniziato a porsi una domanda molto pragmatica: se stiamo spendendo miliardi per addestrare i nostri modelli, ha senso usare gli stessi chip generici che usano tutti, oppure conviene avere un chip cucito su misura per il nostro tipo di lavoro?
Da questa domanda nascono le TPU. Google progetta questi chip pensando esattamente ai calcoli che servono per l’AI, e Broadcom li trasforma in prodotti industriali pronti per essere installati nei data center. Invece di una brigata di cuochi che può fare un po’ di tutto, si sceglie una macchina che fa esattamente quel piatto, ma in modo più rapido e con meno sprechi.
Le nuove generazioni di TPU, e in particolare la v7, segnano un salto rispetto al passato: più memoria, migliore efficienza energetica, un rapporto tra costo e prestazioni molto competitivo rispetto alle GPU più recenti di Nvidia. Se guardiamo i numeri in modo molto semplificato, una GPU top di gamma Nvidia può superare i 36.000 dollari a pezzo, mentre una TPU v7 si colloca intorno ai 12.000. Per chi gestisce data center con centinaia di migliaia di chip, questa differenza non è un dettaglio.
La dipendenza da un solo fornitore inizia a pesare
Oggi nel mondo ci sono milioni di GPU Nvidia installate per l’AI e un numero più ridotto, ma in crescita veloce, di TPU Google. Finché l’AI era una nicchia, avere un unico grande fornitore di riferimento era quasi un vantaggio. Ora che le esigenze di calcolo esplodono, diventa un rischio.
Gli hyperscaler si stanno accorgendo che dipendere troppo da Nvidia è pericoloso: se Nvidia non riesce a consegnare abbastanza chip, i loro piani rallentano; se i prezzi salgono troppo, i margini si comprimono. Di qui la scelta di costruire architetture “multi-chip”, in cui GPU, TPU e altri chip su misura convivono nello stesso data center.
In questo scenario, Google sta facendo una scelta molto netta: sta addestrando la famiglia di modelli Gemini principalmente su TPU e sta costruendo un ecosistema in cui modelli, hardware e software crescono insieme. L’impostazione ricorda quella di Apple con i suoi processori: controllare sempre di più la filiera, dal chip all’esperienza finale.
Gli altri attori della partita
Il quadro competitivo non è più semplicemente “Nvidia contro il resto del mondo”.
Nvidia rimane il punto di riferimento per la performance pura e per l’ecosistema software. Offre sistemi che funzionano molto bene “chiavi in mano” e questo resta un vantaggio notevole. Allo stesso tempo, però, proprio la sua posizione dominante spinge i clienti più grandi a cercare attivamente alternative.
Broadcom è il grande beneficiario della nuova fase. Grazie al lavoro sulle TPU di Google e alla forza storica nel networking e negli switch per data center, si trova al centro della nuova architettura AI. È uno dei pochi gruppi in grado di progettare e produrre chip su misura per clienti come Google, e nel medio periodo anche per altri grandi nomi come Meta e OpenAI.
AMD si muove come seconda fonte credibile sul fronte GPU. La collaborazione con OpenAI e i progressi della serie MI300 le hanno dato molta visibilità. Oggi rimane più piccola di Nvidia, ma in un mondo in cui tutti vogliono almeno due fornitori, il suo ruolo è destinato a crescere.
Marvell, al contrario, fatica di più a trovare una posizione chiara in questo contesto. Alcune collaborazioni importanti non si sono tradotte in una leadership nell’AI, e la strategia dell’azienda su questo fronte appare meno definita. MediaTek ha un ruolo più di supporto tecnico in alcune parti della filiera, incluse certe componenti legate alle TPU, ma non è oggi uno dei protagonisti di questa corsa.
Cosa possiamo aspettarci nei prossimi anni
Guardando al 2025–2026, è probabile che il mercato vada nella direzione di una maggiore diversificazione. Vedremo data center che combinano GPU Nvidia, GPU AMD, TPU Google e altri chip custom prodotti da Broadcom e da altri fornitori. L’obiettivo sarà ridurre il rischio, gestire meglio i costi e non essere ostaggi di un unico partner.
Se Google riuscirà a scalare rapidamente l’uso delle TPU v7 all’interno della propria infrastruttura e nei servizi cloud, Broadcom ne uscirà come uno dei grandi vincitori, con benefici già prima della fine del decennio. Nvidia rimarrà centrale, ma inserita in un contesto più simile a un oligopolio che a un quasi-monopolio.
Conclusione
Per anni, parlare di hardware per l’AI ha voluto dire praticamente parlare solo di Nvidia. Oggi quella fase si sta lentamente chiudendo.
Google porta sul tavolo chip altamente efficienti e li utilizza per addestrare i propri modelli di punta. Broadcom diventa l’ingranaggio fondamentale che permette a questi chip di esistere e di scalare. AMD rafforza il suo ruolo di seconda fonte GPU. Gli hyperscaler costruiscono architetture multi-fornitore per non dipendere più da un singolo player.
Non è la “fine del regno Nvidia”, ma è l’inizio di un nuovo equilibrio: un mercato dell’hardware AI più grande, più diversificato e più competitivo, in cui Google non è solo un utente avanzato di intelligenza artificiale, ma uno degli architetti dell’infrastruttura su cui l’AI del futuro andrà a girare.
Inizia a raggiungere i tuoi obiettivi.
Abbonati e scopri i titoli da Fuoriclasse.
Cosa comprende il PIANO PLAYER
(abbonamento a 39 Euro/mese)*
Tutto quanto riportato nel PIANO GRATUITO
In aggiunta:
✉️ Accesso a 3 e-mail Settimanali Complete. Riceverai la newsletter di Fuoriclasse il martedì, una il giovedì e una la domenica con Accesso completo a tutte le newsletter presenti e passate! Ogni volta che ci sarà una notizia importante sui mercati, una azienda o un settore interessante per fuoriclasse, promozioni di fuoriclasse, ti verrà inviata una email dedicata.
🤝🏻 Partecipi ogni mese al “Fuoritalks”: incontro esclusivo online con gli analisti di Fuoriclasse.
Cosa comprende il PIANO PRO
(abbonamento a 900 Euro/anno)*
Tutto quanto riportato nel PIANO PLAYER
In aggiunta:
👔 Accesso Esclusivo al Portafoglio Fuoriclasse
📃 Analisi complete di tutti i titoli all’interno del portafoglio Fuoriclasse
🖥️ “Meet The Great” - Incontro trimestrale con i Gestori.
*Puoi disdire ognuno di questi abbonamenti in qualsiasi momento.


