
Verso la fine del 2025 Alex Karp, il CEO di Palantir Technologies, ha pronunciato una frase che ha iniziato a circolare con una certa insistenza negli ambienti tecnologici e finanziari. Come spesso accade quando a parlare è uno dei protagonisti più eccentrici della Silicon Valley, molti l’hanno inizialmente interpretata come una provocazione retorica, una di quelle affermazioni volutamente estreme che funzionano bene su un palco o in un’intervista ma che raramente descrivono davvero l’architettura economica che si sta formando sotto la superficie.
Karp disse che nel prossimo decennio le culture tecnologiche realmente dominanti sarebbero state soltanto due: quella americana e quella cinese. Tutto il resto del mondo, implicitamente, si sarebbe trovato a vivere dentro infrastrutture progettate da qualcun altro, utilizzando modelli, piattaforme e standard tecnologici sviluppati altrove. A prima vista può sembrare una semplificazione geopolitica, quasi una frase pensata per alimentare il dibattito sulla competizione tra grandi potenze. Ma se si osserva con attenzione ciò che sta accadendo attorno all’intelligenza artificiale, la scala degli investimenti, il coinvolgimento sempre più diretto degli Stati, la concentrazione dell’hardware critico e la velocità con cui si stanno consolidando pochi grandi poli industriali, diventa difficile ignorare la logica economica sottostante.
Molte rivoluzioni tecnologiche del passato hanno generato ecosistemi relativamente aperti, nei quali il numero di attori in grado di partecipare alla corsa era molto più ampio. L’industria automobilistica del Novecento, per esempio, ha visto nascere decine di produttori nazionali tra Europa, Stati Uniti e Giappone. L’industria elettronica degli anni Ottanta e Novanta ha prodotto cluster industriali distribuiti tra Stati Uniti, Europa, Giappone, Corea del Sud e Taiwan. Anche Internet, pur essendo dominato da alcune grandi piattaforme americane, ha lasciato spazio a ecosistemi regionali capaci di sviluppare le proprie aziende leader. In altre parole, l’innovazione si è diffusa lungo molte geografie contemporaneamente.
L’intelligenza artificiale potrebbe invece seguire una traiettoria molto diversa, e per una ragione piuttosto semplice: il costo di accesso alla frontiera tecnologica sta aumentando a una velocità che non ha precedenti nella storia dell’industria software. I modelli di frontiera richiedono quantità di capitale che fino a pochi anni fa erano riservate quasi esclusivamente ai governi o a grandi programmi spaziali. Secondo diverse stime, il costo di addestramento dei modelli più avanzati ha già superato diverse centinaia di milioni di dollari per singolo ciclo di training, mentre l’infrastruttura hardware necessaria per sostenere questa potenza computazionale richiede investimenti dell’ordine di decine di miliardi.

Il supercomputer utilizzato da xAI per addestrare i propri modelli, ad esempio, è costruito attorno a cluster di oltre centomila GPU prodotte da NVIDIA. Ogni singola GPU di fascia alta può superare facilmente i trentamila dollari di costo unitario e rappresenta solo una frazione dell’investimento complessivo. Quando si aggiungono infrastruttura elettrica, sistemi di raffreddamento, networking ad altissima velocità, gestione e archiviazione dei dati, il costo complessivo di un singolo cluster di nuova generazione può superare con relativa facilità i cinque o sei miliardi di dollari, trasformando i data center per l’intelligenza artificiale in qualcosa di molto più simile a grandi impianti industriali che non a semplici infrastrutture digitali.
Un livello di intensità di capitale di questo tipo tende naturalmente a restringere il numero di attori che possono competere ai livelli più avanzati della tecnologia. Ed è proprio qui che l’immagine utilizzata da Karp acquista un significato molto più concreto. Nel mondo dell’intelligenza artificiale potrebbe davvero non esistere una medaglia di bronzo. Potrebbero emergere uno o due ecosistemi tecnologici dominanti, dotati delle infrastrutture, dei capitali e delle catene di approvvigionamento necessarie per sostenere lo sviluppo dei modelli più avanzati, mentre una lunga coda di economie, aziende e perfino interi settori industriali finirà inevitabilmente per operare sopra piattaforme costruite altrove, adattandosi a standard tecnologici che non controlla direttamente.
Il punto interessante, dal nostro punto di vista di investitori, è che gran parte dei mercati finanziari sembra ancora lontana dall’aver interiorizzato pienamente questa dinamica. Quando si guarda alla narrativa dominante sull’intelligenza artificiale si parla spesso di produttività, di applicazioni software, di nuovi servizi digitali. Molto meno frequentemente si discute della struttura industriale che si sta formando sotto la superficie e di come questa struttura possa ridefinire la distribuzione del potere economico tra aziende, settori e Paesi. Ed è proprio in queste frizioni tra narrativa e realtà industriale che, molto spesso, emergono le opportunità di investimento più interessanti.
Nelle nostre analisi analizziamo proprio queste dinamiche infrastrutturali con un approccio quantitativo basato sui dati di mercato.
Se si osserva la conversazione dominante a Wall Street emerge una domanda ricorrente che negli ultimi trimestri è diventata quasi un riflesso automatico tra analisti e commentatori: i grandi gruppi tecnologici stanno spendendo troppo? L’esplosione degli investimenti in data center, semiconduttori e infrastrutture digitali viene spesso descritta come un possibile segnale di eccesso, una dinamica che molti osservatori leggono attraverso la lente familiare dei cicli di sovrainvestimento che punteggiano la storia dei mercati finanziari. Il ragionamento, in fondo, è semplice e in parte comprensibile: quando interi settori iniziano a mobilitare capitali su scala gigantesca, l’istinto degli investitori è quello di chiedersi se la domanda futura sarà davvero sufficiente a giustificare quella capacità produttiva.

La storia offre diversi esempi che alimentano questa cautela. Alla fine degli anni Novanta, durante la grande espansione della rete Internet, le società di telecomunicazioni investirono centinaia di miliardi di dollari nella costruzione di dorsali in fibra ottica che, dopo lo scoppio della bolla dot-com, rimasero in gran parte inutilizzate per anni. In molti casi quelle infrastrutture si rivelarono economicamente premature rispetto alla domanda reale del mercato. Anche nel settore energetico si sono verificati cicli simili: l’espansione dello shale americano ha generato fasi di sovrainvestimento che hanno distrutto valore per numerosi operatori prima che il settore trovasse un nuovo equilibrio tra offerta, prezzi e disciplina finanziaria.
Eppure i numeri che stanno emergendo oggi hanno una scala che rende il paragone con molti cicli del passato solo parzialmente utile. Alphabet ha indicato piani di investimento che si avvicinano ai 180 miliardi di dollari l’anno, una cifra che equivale a quasi il doppio dell’intero budget annuale per la difesa di paesi come Francia o Regno Unito. Amazon ha parlato di cifre nell’ordine dei 200 miliardi, gran parte delle quali destinate alla costruzione di infrastrutture per l’intelligenza artificiale e all’espansione della propria rete globale di data center. Meta Platforms sta attraversando una delle più grandi trasformazioni infrastrutturali della propria storia, con investimenti superiori ai 100 miliardi destinati alla sostituzione dell’intera architettura di calcolo per supportare carichi AI sempre più intensivi. Nel frattempo Microsoft continua ad espandere la propria rete globale di data center con una velocità che non ha precedenti nella sua storia, firmando contratti energetici pluridecennali e arrivando perfino a investire direttamente nella costruzione di nuova capacità di generazione elettrica per assicurarsi l’energia necessaria a sostenere la crescita dell’intelligenza artificiale.
Se si sommano queste cifre si arriva facilmente a diverse centinaia di miliardi di dollari di investimenti annuali, una scala che rende questa fase di espansione infrastrutturale una delle più grandi mobilitazioni di capitale privato mai viste nell’industria tecnologica. Non sorprende quindi che una parte di Wall Street tenda a descrivere questa dinamica con etichette come “capex heavy” o “investment bubble”, interpretandola come l’ennesimo ciclo di euforia destinato prima o poi a scontrarsi con i limiti della domanda reale.
Ma osservata da una prospettiva leggermente più ampia, la questione è molto diversa da come viene raccontata nella narrativa dominante dei mercati. Perché ciò che stiamo osservando non è semplicemente una corsa agli investimenti dettata dall’entusiasmo tecnologico del momento, bensì l’inizio di qualcosa di molto più strutturale: la costruzione di un’infrastruttura industriale destinata a definire i rapporti di forza della prossima era digitale. In altre parole, ciò che molti investitori stanno interpretando come un possibile eccesso di capitale è in realtà essere la fase iniziale di un progetto di sovranità tecnologica su scala globale, una competizione in cui le aziende che riusciranno a controllare le infrastrutture critiche dell’intelligenza artificiale potrebbero trovarsi, nei prossimi anni, in una posizione di vantaggio che i mercati oggi stanno solo iniziando a intravedere.
Uno degli errori più comuni nel modo in cui l’intelligenza artificiale viene interpretata dai mercati riguarda la sua natura tecnologica. Per oltre vent’anni il settore tecnologico è stato dominato da modelli di business relativamente leggeri dal punto di vista del capitale, nei quali il valore si concentrava soprattutto nel software, nella distribuzione e negli effetti di rete. Le aziende più celebrate erano quelle capaci di crescere rapidamente senza dover investire in asset materiali significativi: piattaforme digitali che potevano scalare su centinaia di milioni di utenti senza dover costruire fabbriche, reti energetiche o infrastrutture fisiche particolarmente complesse. È stata la stagione in cui il capitale intellettuale sembrava aver definitivamente sostituito quello industriale.
L’intelligenza artificiale rompe completamente questa logica e riporta la tecnologia dentro una dimensione molto più simile a quella delle grandi industrie del passato. Costruire sistemi di AI di frontiera richiede infatti una catena industriale estremamente complessa, nella quale ogni anello è caratterizzato da barriere all’ingresso enormi. Il processo inizia con la progettazione dei semiconduttori, un settore dominato da poche aziende globali come NVIDIA, AMD e Broadcom, che sviluppano architetture di calcolo sempre più specializzate per sostenere i carichi di lavoro dell’intelligenza artificiale. Da lì si passa alla fase di produzione, che dipende da un numero ancora più ristretto di fabbriche avanzate, tra cui spiccano quelle di TSMC e Samsung Electronics, le uniche realtà al mondo in grado di produrre su scala i nodi tecnologici più avanzati.
Il livello di capitale necessario per sostenere questa infrastruttura è enorme. Solo la costruzione di una singola fabbrica di semiconduttori di ultima generazione può costare tra i 20 e i 40 miliardi di dollari, trasformando ogni nuovo impianto in uno dei progetti industriali più costosi della sua epoca. Il nuovo complesso produttivo che TSMC sta costruendo in Arizona, ad esempio, rappresenta uno dei più grandi investimenti industriali mai realizzati negli Stati Uniti nel settore tecnologico, un progetto che coinvolge governi, catene di fornitura globali e una quantità di capitale che fino a pochi anni fa sarebbe stata associata più facilmente all’industria energetica o aerospaziale che non al mondo del software.

Ma la catena non si ferma alla produzione dei chip. A valle di questo processo si trovano i data center, che stanno rapidamente evolvendo da semplici infrastrutture digitali a veri e propri complessi industriali su scala energetica. I nuovi campus di calcolo progettati per addestrare e far funzionare i modelli di intelligenza artificiale richiedono livelli di potenza che fino a poco tempo fa sarebbero stati associati a grandi impianti industriali. Alcuni progetti in fase di sviluppo prevedono capacità elettriche superiori a un gigawatt, una quantità di energia comparabile a quella necessaria per alimentare una città di medie dimensioni, con implicazioni che riguardano non solo l’informatica ma anche le reti elettriche, la produzione di energia e perfino la pianificazione territoriale.
In altre parole, la tecnologia sta tornando a essere profondamente industriale. Dietro l’apparente leggerezza delle applicazioni di intelligenza artificiale che utilizziamo ogni giorno si sta formando una delle infrastrutture fisiche più costose e complesse mai costruite dall’industria tecnologica, una rete globale di fabbriche, chip, data center ed energia che potrebbe ridefinire il modo in cui il potere economico viene distribuito nei prossimi decenni. Ed è proprio questa dimensione industriale, ancora sorprendentemente sottovalutata in molte narrazioni di mercato, che sta iniziando a creare alcune delle asimmetrie più interessanti per chi osserva i mercati con uno sguardo di lungo periodo.
C’è un altro aspetto che raramente entra davvero nelle analisi finanziarie tradizionali quando si parla di intelligenza artificiale, ed è probabilmente uno dei più importanti per comprendere la direzione che sta prendendo questa tecnologia. L’AI non è soltanto una tecnologia economica destinata ad aumentare la produttività o a trasformare alcuni modelli di business. Sta emergendo sempre più chiaramente come una tecnologia strategica, capace di influenzare non solo la competizione tra aziende ma anche quella tra Stati.
Storicamente alcune innovazioni hanno avuto un impatto quasi esclusivamente economico, trasformando la produzione, i consumi o l’organizzazione delle imprese senza alterare direttamente gli equilibri geopolitici. Altre, invece, hanno modificato in modo profondo la struttura della competizione internazionale e la natura stessa della potenza strategica. L’elettricità, per esempio, ha rivoluzionato l’industria, i trasporti e la vita quotidiana, ma non ha cambiato direttamente il modo in cui gli Stati si confrontano sul piano militare. Al contrario, tecnologie come il radar, la crittografia digitale o l’energia nucleare hanno avuto un impatto immediato sugli equilibri strategici, ridefinendo le capacità difensive e offensive delle grandi potenze e creando nuovi livelli di competizione tecnologica.
L’intelligenza artificiale appartiene con ogni probabilità a questa seconda categoria. La stessa infrastruttura tecnologica che oggi permette di generare immagini, tradurre testi o scrivere codice può essere utilizzata per analizzare enormi volumi di dati di intelligence, identificare schemi invisibili all’analisi umana, coordinare sistemi autonomi o supportare decisioni operative in contesti militari estremamente complessi. Non è un caso che diverse aziende protagoniste dello sviluppo dell’AI abbiano iniziato a collaborare sempre più strettamente con il settore della difesa. Aziende come Palantir Technologies sono diventate partner tecnologici di numerose agenzie governative proprio perché la capacità di analizzare dati su scala massiva è ormai una componente centrale delle operazioni strategiche contemporanee.

Negli Stati Uniti, il Dipartimento della Difesa degli Stati Uniti ha già identificato l’intelligenza artificiale come una delle tecnologie decisive per i futuri sistemi di comando e controllo, riconoscendo che la velocità con cui i dati possono essere raccolti, elaborati e trasformati in decisioni operative rappresenterà uno dei principali fattori di vantaggio strategico nei conflitti del futuro. Allo stesso tempo, in Cina, la strategia nazionale sull’intelligenza artificiale pubblicata nel 2017 ha indicato esplicitamente l’obiettivo di raggiungere la leadership globale nel settore entro il 2030, proprio in virtù delle implicazioni economiche, industriali e militari di questa tecnologia.
Quando una tecnologia assume questa natura duale, civile e strategica allo stesso tempo, la scala degli investimenti smette di essere valutata soltanto sulla base del ritorno economico immediato. Le decisioni di allocazione del capitale iniziano a essere influenzate da considerazioni molto più ampie, che includono la sicurezza nazionale, la resilienza delle infrastrutture critiche e la capacità di mantenere un vantaggio tecnologico rispetto ai potenziali rivali. In altre parole, l’investimento tecnologico smette di essere soltanto una questione di mercato e diventa parte integrante di una competizione sistemica tra grandi blocchi economici e politici.
Ed è proprio in questo contesto che le cifre che oggi vediamo nel settore tecnologico assumono un significato completamente diverso. Se l’intelligenza artificiale rappresenta davvero una delle infrastrutture strategiche del XXI secolo, allora i centinaia di miliardi che oggi vengono investiti in semiconduttori, data center ed energia potrebbero non sono semplicemente il riflesso di un ciclo tecnologico particolarmente euforico, ma piuttosto le prime fasi di una corsa globale per il controllo delle fondamenta della prossima architettura economica e geopolitica. Ed è qui che, per chi osserva i mercati con uno sguardo più ampio, la narrativa dominante inizia a mostrare alcune crepe interessanti.
Se si osserva il comportamento delle grandi aziende tecnologiche emerge una dinamica che ricorda molto da vicino quella descritta nella teoria dei giochi come dilemma del prigioniero. In condizioni normali, ogni azienda presa singolarmente preferirebbe probabilmente un percorso di investimento più graduale: margini più stabili, minori pressioni sugli utili nel breve periodo e una maggiore prevedibilità per gli azionisti. È il tipo di equilibrio che per anni ha caratterizzato buona parte della grande tecnologia americana, dove la disciplina del capitale e l’attenzione alla redditività sono diventate quasi una virtù strutturale nella gestione delle società quotate.
Ma quando una tecnologia assume una dimensione strategica e i vantaggi competitivi iniziano ad accumularsi rapidamente attorno a chi investe per primo, la prudenza può trasformarsi improvvisamente in una scelta rischiosa. In un contesto di questo tipo il problema non è più soltanto quanto investire, ma soprattutto quando farlo. Se un attore decide di accelerare mentre gli altri rimangono cauti, il vantaggio competitivo che ne deriva può diventare estremamente difficile da recuperare. Ed è proprio questo il meccanismo che sta iniziando a emergere nella corsa globale all’intelligenza artificiale.

Nel caso dell’AI questo effetto viene amplificato da alcuni fattori strutturali che tendono a rafforzare la posizione di chi si muove per primo. Il primo riguarda i dati. I modelli di intelligenza artificiale migliorano con l’esperienza e con l’accesso a quantità sempre più grandi di informazioni. Chi accumula dati più velocemente non costruisce semplicemente un vantaggio temporaneo, ma un patrimonio informativo che tende ad autoalimentarsi nel tempo, perché modelli migliori attraggono più utenti, più applicazioni e quindi ancora più dati con cui continuare ad allenarsi.
Il secondo fattore riguarda l’infrastruttura computazionale. Addestrare modelli sempre più complessi richiede potenze di calcolo gigantesche, accesso a semiconduttori avanzati e la capacità di orchestrare cluster di calcolo su scala senza precedenti. Le aziende che riescono a costruire per prime queste infrastrutture hanno la possibilità di iterare molto più rapidamente: possono testare nuovi modelli, migliorare le architetture esistenti e ridurre i tempi di sviluppo mentre i concorrenti stanno ancora cercando di costruire la base tecnologica necessaria per competere. È una dinamica che crea un vantaggio temporale che, nel mondo dell’intelligenza artificiale, può trasformarsi rapidamente in un vantaggio strutturale.
Il terzo elemento riguarda l’ecosistema software. Una volta che sviluppatori, aziende e istituzioni iniziano a costruire applicazioni sopra una determinata piattaforma tecnologica, si crea un effetto di rete che rende sempre più costoso e complesso spostarsi verso alternative. Le librerie software, gli strumenti di sviluppo, i dataset e perfino la formazione degli ingegneri tendono ad allinearsi attorno alle piattaforme che raggiungono per prime una massa critica, consolidando ulteriormente il vantaggio degli attori iniziali.
Il risultato è che la competizione, quasi inevitabilmente, tende ad accelerare gli investimenti. Anche le aziende che inizialmente preferirebbero un approccio più prudente si trovano progressivamente costrette ad aumentare la velocità per non rischiare di rimanere indietro in una corsa tecnologica che potrebbe definire gli equilibri dell’intero settore per i prossimi decenni. Quando tutti gli attori principali iniziano a ragionare in questi termini, la dinamica diventa auto-rinforzante: ogni nuova ondata di investimenti da parte di un concorrente spinge gli altri ad accelerare ulteriormente.
Ed è proprio così che, spesso quasi senza che nessuno lo abbia pianificato esplicitamente, nasce un capex supercycle. Una fase in cui interi settori industriali iniziano a mobilitare capitali su scala straordinaria non perché ogni singolo attore lo desideri davvero, ma perché nessuno può permettersi di restare indietro in una competizione che sta rapidamente ridisegnando la struttura stessa dell’economia tecnologica globale.
Per gran parte dell’ultimo decennio il sentimento dominante nei mercati finanziari è stato guidato da una dinamica psicologica relativamente semplice: la FOMO, la fear of missing out, la paura di perdere il prossimo grande rally. I cicli tecnologici degli anni 2010 sono stati dominati da aziende capaci di crescere a velocità straordinaria grazie a modelli di business estremamente scalabili, spesso costruiti attorno al software e agli effetti di rete. In quel contesto molti investitori erano disposti ad accettare valutazioni molto elevate pur di non rimanere esclusi da quelle traiettorie di crescita, nella convinzione che i leader tecnologici avrebbero continuato ad espandere la propria influenza su interi settori dell’economia digitale.
Nel mondo dell’intelligenza artificiale, però, sembra emergere una dinamica psicologica leggermente diversa. Sempre più consigli di amministrazione non sembrano essere guidati soltanto dalla FOMO degli investitori, ma da una forma più profonda di FOBO: la fear of becoming obsolete, la paura di diventare irrilevanti. La logica che sta guidando molte decisioni di investimento non è semplicemente quella di partecipare alla prossima fase di crescita tecnologica, ma piuttosto quella di evitare di trovarsi, tra qualche anno, in una posizione strutturalmente svantaggiata rispetto a concorrenti che hanno integrato l’intelligenza artificiale nei propri modelli operativi molto più rapidamente.
Questo tipo di timore è particolarmente potente perché non riguarda soltanto l’opportunità di crescita, ma la sopravvivenza competitiva nel lungo periodo. Le aziende non investono soltanto perché intravedono nuove fonti di ricavo, ma perché temono che i concorrenti possano ridurre drasticamente i costi, accelerare l’innovazione o migliorare l’efficienza decisionale grazie all’uso sistematico dell’intelligenza artificiale. In altre parole, l’AI non viene percepita soltanto come una tecnologia abilitante, ma come una leva potenzialmente destabilizzante per interi modelli di business.
Ed è proprio per questo che il fenomeno non riguarda più soltanto il settore tecnologico. Nell’industria manifatturiera, per esempio, diverse aziende stanno già integrando sistemi di intelligenza artificiale nei processi di progettazione e produzione, utilizzando modelli generativi per accelerare lo sviluppo dei prodotti e sistemi predittivi per ottimizzare la manutenzione degli impianti. Nella logistica, l’automazione guidata da modelli di machine learning sta ridisegnando intere catene di distribuzione, migliorando la previsione della domanda e l’allocazione delle risorse lungo reti globali sempre più complesse. Nel settore finanziario, algoritmi sempre più sofisticati stanno trasformando il modo in cui vengono analizzati i rischi, valutati i portafogli e allocato il capitale, aprendo la strada a modelli decisionali che integrano capacità di analisi molto più avanzate rispetto a quelle tradizionali.
In un contesto di questo tipo il rischio percepito cambia profondamente natura. Non è più soltanto quello, familiare agli investitori, di inseguire una tecnologia sopravvalutata o di partecipare a un ciclo di investimenti eccessivamente ambizioso. Sempre più spesso il rischio che le aziende percepiscono è esattamente l’opposto: quello di investire troppo poco, di muoversi troppo lentamente e di scoprire, quando il nuovo paradigma tecnologico sarà ormai consolidato, che la distanza accumulata dai leader dell’intelligenza artificiale è diventata improvvisamente molto più difficile da colmare.
Se questa dinamica continuerà a svilupparsi con l’intensità che stiamo iniziando a osservare oggi, i mercati potrebbero trovarsi davanti a qualcosa di più di un semplice nuovo ciclo tecnologico. Potrebbero trovarsi davanti a un cambiamento di paradigma macroeconomico. Per oltre un decennio gran parte del dibattito economico globale è stato interpretato attraverso una lente fortemente influenzata dalle politiche di gestione della domanda aggregata. In questo quadro la crescita economica veniva osservata con una certa ambivalenza: da un lato necessaria per sostenere occupazione e investimenti, dall’altro potenzialmente problematica perché una domanda troppo forte poteva trasformarsi rapidamente in pressioni inflazionistiche difficili da controllare.
È una visione che ha dominato buona parte della fase successiva alla crisi finanziaria globale e che è riemersa con ancora più forza dopo la pandemia, quando l’accelerazione della domanda e le strozzature nelle catene di approvvigionamento hanno riportato l’inflazione al centro delle preoccupazioni delle banche centrali. In questo contesto, una crescita economica troppo rapida è stata spesso interpretata come un fattore da raffreddare attraverso politiche monetarie più restrittive.

Ma se una nuova ondata tecnologica fosse davvero in grado di aumentare in modo significativo la produttività dell’economia reale, la relazione tra crescita e inflazione potrebbe cambiare in modo sostanziale. Le economie che riescono a produrre di più con le stesse risorse, o addirittura con meno risorse, possono sostenere livelli più elevati di attività economica senza generare automaticamente le stesse pressioni sui prezzi. In altre parole, quando la produttività accelera, lo spazio per una crescita non inflazionistica tende ad ampliarsi.
Un precedente interessante si trova proprio nella rivoluzione dell’information technology degli anni Novanta. Tra il 1995 e il 2000 la produttività del lavoro negli Stati Uniti accelerò in modo significativo grazie alla diffusione dei computer personali, delle reti digitali e dei primi sistemi software avanzati che iniziarono a trasformare il modo in cui le aziende gestivano la produzione, la logistica e le informazioni. Quella fase permise all’economia americana di crescere rapidamente per diversi anni senza generare immediatamente le pressioni inflazionistiche che molti economisti si aspettavano, creando uno dei cicli economici più dinamici della fine del XX secolo.
Oggi sempre più osservatori iniziano a chiedersi se qualcosa di simile possa accadere con l’intelligenza artificiale. Se l’AI dovesse effettivamente aumentare la produttività in settori chiave come la progettazione industriale, la ricerca scientifica, la gestione delle catene di approvvigionamento o l’analisi dei dati complessi, potremmo trovarci di fronte a un’accelerazione diffusa dell’efficienza economica. Processi che oggi richiedono settimane potrebbero essere compressi in giorni, attività altamente specializzate potrebbero essere amplificate da sistemi di supporto intelligenti e intere fasi di sviluppo tecnologico potrebbero diventare significativamente più rapide.

In uno scenario di questo tipo la crescita economica potrebbe tornare a essere interpretata in modo molto diverso da come è stata letta negli ultimi anni. Non più soltanto come una possibile fonte di squilibri macroeconomici da contenere, ma come parte della soluzione ai problemi strutturali delle economie avanzate. Se la produttività torna ad accelerare, la crescita non è necessariamente la causa dell’inflazione: può diventare, al contrario, uno degli strumenti più potenti per contenerla. Ed è proprio questo tipo di cambiamento di prospettiva che i mercati, spesso concentrati sulle dinamiche di breve periodo, tendono a riconoscere solo quando il nuovo paradigma è ormai già in pieno sviluppo.
Per comprendere meglio il regime economico che potrebbe emergere attorno a questo ciclo di investimenti è utile fare un passo indietro nella storia del pensiero economico americano, in un momento in cui gli Stati Uniti erano ancora una nazione fragile, con istituzioni finanziarie in costruzione e un’economia lontana dalla potenza industriale che sarebbe diventata in seguito. Nel 1781 Alexander Hamilton scrisse una frase che sarebbe rimasta famosa nella storia finanziaria degli Stati Uniti: un debito nazionale, se non eccessivo, poteva rappresentare una benedizione. Non era una provocazione intellettuale, né tantomeno un invito all’indisciplina fiscale. Hamilton stava cercando di spiegare qualcosa di molto più concreto e, per certi versi, profondamente pragmatico.
Un Paese giovane, appena uscito dalla guerra d’indipendenza e con un sistema economico ancora fragile, aveva bisogno di costruire rapidamente infrastrutture, industria e istituzioni finanziarie credibili. Senza una rete di porti efficienti, senza canali navigabili, senza una base manifatturiera e senza un sistema di credito affidabile, l’economia americana sarebbe rimasta marginale nel sistema commerciale globale dominato dalle potenze europee. Il credito pubblico, se utilizzato correttamente, poteva diventare lo strumento per accelerare questo processo di costruzione economica.
Hamilton comprese con notevole lucidità che il problema non era semplicemente la dimensione del debito. Il vero problema era l’uso che si faceva di quel debito. Se il capitale raccolto veniva impiegato per costruire capacità produttiva, porti, canali, infrastrutture di trasporto, manifattura, istituzioni finanziarie, allora il debito poteva contribuire ad aumentare la ricchezza futura del paese. In questo caso il debito non era soltanto un peso contabile, ma una leva per ampliare la base economica che avrebbe poi reso sostenibile quel debito stesso. Se invece il capitale veniva utilizzato per sostenere spese improduttive o puramente consumistiche, allora la dinamica diventava inevitabilmente instabile.
Questa distinzione tra debito produttivo e debito improduttivo è rimasta, in forme diverse, una delle linee guida implicite di gran parte della storia economica americana. Durante il XIX secolo il paese mobilitò enormi quantità di capitale per costruire infrastrutture su scala continentale: la rete ferroviaria che collegò le coste dell’Atlantico con il Midwest e poi con il Pacifico, l’espansione industriale delle regioni centrali e lo sviluppo di un sistema energetico e minerario capace di sostenere una crescita senza precedenti. Alla fine dell’Ottocento la rete ferroviaria americana superava i 300.000 chilometri, più di tutta quella europea combinata, e quei binari non rappresentavano soltanto un’infrastruttura di trasporto ma l’ossatura stessa di una nuova economia industriale. Nel giro di poche decadi gli Stati Uniti passarono dall’essere un’economia agricola relativamente periferica a diventare la più grande potenza industriale del mondo.
Anche nel secondo dopoguerra il debito pubblico americano aumentò in modo significativo, ma una parte rilevante di quel capitale fu indirizzata verso investimenti che avrebbero ridefinito la struttura economica del paese per i decenni successivi. Il sistema autostradale interstatale, finanziato a partire dagli anni Cinquanta, trasformò la logistica e la mobilità su scala nazionale. I programmi federali di ricerca scientifica alimentarono innovazioni fondamentali in settori come l’elettronica, l’aerospazio e l’informatica. Perfino la nascita della futura Silicon Valley fu in larga parte sostenuta da investimenti pubblici legati alla ricerca militare e universitaria, che crearono l’ecosistema tecnologico da cui sarebbero poi emerse alcune delle aziende più importanti del mondo.
Se si osserva il ciclo di investimenti che sta emergendo oggi attorno all’intelligenza artificiale, il parallelismo storico diventa difficile da ignorare. La domanda centrale non è semplicemente quanta leva finanziaria stia entrando nel sistema o quanto rapidamente stiano crescendo i bilanci delle grandi aziende tecnologiche. La domanda più interessante riguarda ciò che quella leva finanziaria sta effettivamente finanziando. Sempre più spesso la risposta rimanda a infrastrutture estremamente concrete: fabbriche di semiconduttori, reti energetiche dedicate ai data center, giganteschi complessi di calcolo, sistemi logistici automatizzati e piattaforme software progettate per integrare l’intelligenza artificiale nei processi industriali.
Non è difficile capire perché alcuni osservatori inizino a vedere in questo processo una versione contemporanea della logica hamiltoniana. Se il capitale che oggi sta affluendo nel settore tecnologico contribuisce davvero a costruire una nuova infrastruttura produttiva globale, una sorta di rete industriale dell’intelligenza artificiale fatta di chip, energia, dati e software, allora il dibattito sul debito, sugli investimenti e sulla leva finanziaria potrebbe assumere una prospettiva molto diversa da quella che ha dominato il pensiero economico degli ultimi anni. Perché, esattamente come intuì Hamilton più di due secoli fa, non è soltanto la dimensione del debito a determinare il futuro di un’economia. È soprattutto ciò che quel debito rende possibile costruire.
Questo cambiamento non riguarda soltanto il settore privato. Negli ultimi anni anche i governi hanno iniziato a intervenire in modo sempre più diretto nello sviluppo delle tecnologie strategiche, segnando un’evoluzione che fino a poco tempo fa sarebbe stata difficile da immaginare nelle principali economie occidentali. La corsa globale all’intelligenza artificiale, ai semiconduttori avanzati e alle infrastrutture digitali ha progressivamente riportato al centro del dibattito un concetto che per decenni era rimasto ai margini del pensiero economico dominante: la politica industriale.
Negli Stati Uniti questo cambiamento è diventato particolarmente evidente negli ultimi anni. Il CHIPS and Science Act ha stanziato oltre 50 miliardi di dollari per sostenere la produzione domestica di semiconduttori e incentivare la costruzione di nuove fabbriche avanzate sul territorio americano. Allo stesso tempo l’Inflation Reduction Act ha mobilitato centinaia di miliardi di dollari in incentivi fiscali destinati alla transizione energetica, alla produzione industriale e allo sviluppo di nuove tecnologie strategiche. Accanto a questi programmi, diverse iniziative di reshoring stanno cercando di riportare all’interno dei confini nazionali segmenti critici delle catene di approvvigionamento tecnologiche, riducendo la dipendenza da infrastrutture produttive localizzate in altre regioni del mondo.

Anche in Europa si osserva un tentativo di muoversi nella stessa direzione. L’European Chips Act è stato concepito proprio con l’obiettivo di rafforzare la capacità produttiva del continente nel settore dei semiconduttori, cercando di recuperare parte del terreno perso negli ultimi decenni rispetto agli Stati Uniti e all’Asia. Nel frattempo la Cina continua a investire somme enormi nello sviluppo del proprio ecosistema tecnologico domestico, sostenendo direttamente aziende, università e centri di ricerca con l’obiettivo dichiarato di ridurre la dipendenza dalle tecnologie occidentali e conquistare una posizione di leadership nei settori chiave della nuova economia digitale.
Questa evoluzione rappresenta una rottura significativa rispetto al paradigma economico che ha dominato gran parte degli ultimi trent’anni. Dopo la fine della Guerra Fredda, l’idea che i governi dovessero intervenire in modo diretto nella politica industriale era stata progressivamente ridimensionata nelle principali economie occidentali. Il consenso prevalente era che il mercato globale fosse in grado di allocare capitale in modo più efficiente, distribuendo produzione, ricerca e innovazione lungo catene di valore internazionali sempre più integrate. In quel contesto l’intervento statale veniva spesso visto come una distorsione potenzialmente inefficiente rispetto alla logica competitiva del mercato.
La crescente competizione tecnologica tra grandi potenze ha iniziato lentamente a cambiare questa percezione. Quando alcune tecnologie diventano cruciali non soltanto per la crescita economica ma anche per la sicurezza industriale, energetica e militare di un paese, lasciare il loro sviluppo esclusivamente alle dinamiche del mercato globale può apparire improvvisamente molto più rischioso. La pandemia, le tensioni geopolitiche e le interruzioni delle catene di approvvigionamento hanno ulteriormente rafforzato questa consapevolezza, mostrando quanto vulnerabili possano diventare le economie avanzate quando segmenti critici della produzione sono concentrati in poche aree del mondo.
L’intelligenza artificiale rientra sempre più chiaramente in questa categoria. Non è soltanto una tecnologia destinata a creare nuovi prodotti digitali o nuovi servizi software, ma una piattaforma industriale capace di influenzare produttività, difesa, energia, ricerca scientifica e organizzazione delle catene globali del valore. Ed è proprio per questo che, sempre più spesso, lo sviluppo dell’AI non viene più osservato soltanto come una questione di innovazione tecnologica o di competizione tra aziende, ma come uno degli elementi centrali della nuova politica industriale del XXI secolo.
Un altro aspetto interessante di questo nuovo scenario riguarda il ruolo della politica monetaria e, in particolare, il modo in cui le banche centrali potrebbero interpretare un ciclo di investimenti industriali di dimensioni molto più ampie rispetto a quelli a cui ci siamo abituati negli ultimi anni. Dopo la crisi finanziaria del 2008 molte banche centrali hanno adottato politiche monetarie estremamente accomodanti per stabilizzare il sistema finanziario e sostenere la domanda aggregata. Più recentemente, durante la pandemia, gli stessi strumenti sono stati utilizzati ancora una volta per evitare che lo shock economico globale si trasformasse in una recessione prolungata.
In questo quadro la politica monetaria ha spesso svolto un ruolo quasi compensativo rispetto alla debolezza strutturale della crescita. Tassi di interesse molto bassi, programmi di acquisto di titoli e condizioni finanziarie particolarmente favorevoli sono stati utilizzati per sostenere l’attività economica in un mondo in cui la produttività cresceva lentamente e gli investimenti industriali rimanevano relativamente contenuti rispetto alle grandi fasi di espansione del passato.
Un ciclo di investimenti industriali su larga scala, guidato da tecnologie come l’intelligenza artificiale, potrebbe però modificare parte di queste dinamiche. Se l’economia globale dovesse davvero entrare in una fase di espansione significativa della capacità produttiva, con nuovi data center, fabbriche di semiconduttori, infrastrutture energetiche e sistemi logistici avanzati, la relazione tra crescita economica, inflazione e politica monetaria potrebbe diventare più complessa. In un contesto in cui l’aumento della domanda è accompagnato da un’espansione parallela dell’offerta e della produttività, le autorità monetarie potrebbero trovarsi davanti a un equilibrio diverso rispetto a quello che ha dominato il dibattito macroeconomico negli ultimi anni.
In uno scenario simile le banche centrali potrebbero essere relativamente più tolleranti verso livelli moderati di inflazione, soprattutto se questi sono accompagnati da forti aumenti della produttività e da investimenti infrastrutturali capaci di rafforzare il potenziale di crescita dell’economia nel lungo periodo. L’inflazione, in questo caso, non verrebbe interpretata esclusivamente come il risultato di squilibri tra domanda e offerta, ma anche come una possibile fase di transizione all’interno di una trasformazione tecnologica più ampia.
Questo tipo di approccio non sarebbe del tutto senza precedenti. Negli anni Novanta Alan Greenspan si trovò ad affrontare una situazione in parte simile quando la diffusione delle tecnologie informatiche iniziò ad accelerare la produttività dell’economia americana. In quel periodo la Federal Reserve decise di non frenare prematuramente la crescita economica, riconoscendo che la rivoluzione dell’information technology stava modificando in modo sostanziale il potenziale produttivo degli Stati Uniti. La banca centrale scelse quindi di osservare con attenzione l’evoluzione dei dati sulla produttività prima di reagire in modo aggressivo con una stretta monetaria.
Se l’intelligenza artificiale dovesse produrre un aumento comparabile della produttività, accelerando l’innovazione, riducendo i costi in diversi settori e aumentando l’efficienza di intere filiere produttive, è possibile che le banche centrali si trovino nuovamente di fronte a una scelta simile. In quel caso la sfida non sarà soltanto controllare l’inflazione nel breve periodo, ma comprendere se sotto la superficie dell’economia globale stia emergendo una trasformazione tecnologica capace di modificare, ancora una volta, i limiti stessi della crescita economica.
Quando i sistemi economici attraversano grandi cicli infrastrutturali, anche l’architettura finanziaria tende a evolvere. È in questo contesto che alcuni asset digitali stanno iniziando a occupare un ruolo inatteso.
Un aspetto curioso di questa trasformazione riguarda il ruolo che alcuni asset digitali stanno iniziando a giocare all’interno del sistema finanziario globale. Per molti anni Bitcoin è stato percepito soprattutto come un simbolo di opposizione al sistema monetario tradizionale: un esperimento tecnologico e ideologico progettato per esistere al di fuori delle istituzioni finanziarie, delle banche centrali e delle politiche monetarie statali. La narrativa dominante nelle sue fasi iniziali era quella di una moneta alternativa, costruita per funzionare in modo indipendente dall’architettura finanziaria esistente.
Negli ultimi anni questa narrativa ha iniziato lentamente a evolvere. L’ingresso progressivo di operatori istituzionali, la maturazione delle infrastrutture di mercato e una maggiore chiarezza regolatoria in alcune giurisdizioni hanno contribuito a cambiare il modo in cui Bitcoin viene osservato dagli investitori professionali. Un passaggio simbolicamente molto importante in questa direzione è arrivato con l’approvazione negli Stati Uniti dei primi ETF spot su Bitcoin da parte della Securities and Exchange Commission, un evento che ha aperto l’accesso all’asset anche a una parte molto più ampia dell’industria del risparmio gestito.
Parallelamente sono cresciute le infrastrutture di custodia regolamentate, i servizi di trading istituzionale e le piattaforme di investimento che permettono a fondi, banche e family office di esporsi a Bitcoin all’interno di strutture finanziarie tradizionali. In questo senso l’asset non è più soltanto un fenomeno periferico legato al mondo delle criptovalute, ma sta progressivamente entrando nelle stesse reti istituzionali che per anni erano state considerate l’antitesi del progetto originario.
Questo non significa che Bitcoin abbia perso la sua natura originale o la filosofia che ne ha accompagnato la nascita. La sua offerta limitata, la struttura decentralizzata e l’assenza di un’autorità monetaria centrale rimangono caratteristiche fondamentali del protocollo. Quello che sta cambiando, piuttosto, è il modo in cui i mercati finanziari lo interpretano e lo utilizzano. Sempre più spesso Bitcoin viene trattato come una forma di asset digitale scarso, una sorta di equivalente digitale delle riserve di valore tradizionali, potenzialmente utile come componente di portafoglio in un contesto caratterizzato da trasformazioni monetarie, tecnologiche e geopolitiche sempre più profonde.
In altre parole, un asset nato ai margini del sistema finanziario globale sta iniziando a essere progressivamente incorporato nella sua architettura. Non più soltanto come strumento di contestazione o come esperimento tecnologico isolato, ma come una nuova classe di asset che alcuni investitori stanno iniziando a considerare all’interno della più ampia evoluzione delle infrastrutture finanziarie del XXI secolo. E proprio per questo motivo, man mano che il sistema economico globale entra in una fase di trasformazione industriale e tecnologica più ampia, diventa sempre più interessante osservare quale ruolo potrebbero assumere asset digitali nati in un contesto completamente diverso ma che oggi iniziano a interagire con le stesse dinamiche macroeconomiche che stanno ridefinendo il funzionamento dei mercati.
Se davvero stiamo entrando in una fase di trasformazione industriale guidata dall’intelligenza artificiale, allora la domanda più importante per gli investitori cambia radicalmente. Per molti anni il focus principale dei mercati è stato individuare le aziende capaci di crescere più velocemente nel settore tecnologico, spesso misurando il successo attraverso metriche come l’espansione degli utenti, la scalabilità del software o la velocità con cui nuovi modelli di business digitali riuscivano a conquistare quote di mercato. Quel paradigma ha definito gran parte del ciclo tecnologico degli ultimi quindici anni. Il ciclo dell’intelligenza artificiale, tuttavia, potrebbe spostare l’attenzione verso un terreno leggermente diverso.
La storia economica suggerisce infatti che i grandi cicli tecnologici tendono a creare valore non soltanto nelle applicazioni visibili al grande pubblico, ma soprattutto nelle infrastrutture che rendono possibile l’esistenza stessa di quelle tecnologie. Nel XIX secolo furono le reti ferroviarie a collegare mercati che fino a quel momento erano rimasti isolati, trasformando il commercio e accelerando l’integrazione economica su scala nazionale e poi globale. Nel XX secolo l’elettrificazione e lo sviluppo delle reti energetiche crearono le fondamenta dell’industria moderna, permettendo l’espansione della produzione di massa e la nascita di nuovi modelli industriali. Negli anni Novanta, con la diffusione di Internet, furono le infrastrutture digitali e le reti di telecomunicazione a creare la base su cui si sarebbe sviluppata l’intera economia tecnologica contemporanea.
L’intelligenza artificiale potrebbe rappresentare una nuova fase di questo stesso processo storico. Data center sempre più potenti, semiconduttori avanzati progettati specificamente per il calcolo parallelo, infrastrutture energetiche capaci di sostenere enormi carichi computazionali, piattaforme software industriali e reti di dati globali stanno diventando progressivamente i nodi centrali della nuova economia digitale. Aziende come NVIDIA nel campo dei chip, TSMC nella produzione avanzata di semiconduttori o i grandi operatori cloud come Microsoft, Amazon e Alphabet stanno costruendo alcune delle infrastrutture su cui verranno sviluppate le applicazioni dell’intelligenza artificiale nei prossimi decenni.
E come spesso accade nelle grandi trasformazioni industriali, il mercato tende a riconoscere pienamente l’importanza di queste infrastrutture soltanto dopo che una parte significativa del valore è già stata creata. Nelle fasi iniziali l’attenzione si concentra sulle applicazioni più visibili o sulle narrative più immediate, mentre l’infrastruttura che sostiene l’intero sistema economico cresce spesso lontano dai riflettori principali. È esattamente su questo tipo di dinamiche che concentriamo gran parte del nostro lavoro di ricerca, cercando di osservare non soltanto ciò che è già evidente nel consenso di mercato, ma soprattutto ciò che potrebbe diventarlo nei prossimi anni.
Tornando alla frase iniziale pronunciata da Alex Karp, è possibile che la sua provocazione contenga più verità di quanto molti siano disposti ad ammettere. L’intelligenza artificiale non è soltanto una nuova generazione di software o un insieme di applicazioni digitali più sofisticate. Sta assumendo sempre più chiaramente le caratteristiche di una piattaforma industriale, energetica e strategica capace di ridefinire la struttura stessa dell’economia globale.
Se questo scenario dovesse materializzarsi, i prossimi anni potrebbero essere ricordati come l’inizio di uno dei più grandi cicli di investimento infrastrutturale dell’era moderna, una fase in cui enormi quantità di capitale vengono mobilitate per costruire la base tecnologica su cui si svilupperà la prossima fase della crescita economica globale. E come spesso accade nei grandi cambiamenti storici, il momento in cui questi processi diventano davvero evidenti raramente coincide con il momento in cui iniziano.
Molto spesso, quando il consenso dei mercati si accorge della portata di una trasformazione, il mondo reale ha già iniziato a cambiare da tempo. La vera domanda, quindi, non è semplicemente se l’intelligenza artificiale rappresenti una bolla o l’ennesima moda tecnologica destinata a ridimensionarsi. La domanda è molto più semplice e allo stesso tempo molto più difficile.
Chi possiederà le infrastrutture su cui verrà costruita la prossima architettura economica globale?
È esattamente questa domanda che guida il nostro lavoro di ricerca.
👉 Prenota subito una call conoscitiva per scoprire come accedere alla nostra ricerca QUI
👉Numero Verde: 800 657 110
👉Email: info@trendpositioning.com
Efisio Garau
Head of Fundamental Analysis
TPRI | TP Invest