L'IA costa poco perché qualcuno ci sta rimettendo. Non durerà
I laboratori di intelligenza artificiale bruciano miliardi per tenere bassi i prezzi. La strategia è la stessa di Netflix e Amazon: prima si conquista il mercato, poi si alza il prezzo.
Ogni volta che si invia una richiesta complessa a un chatbot, il laboratorio che lo gestisce perde denaro sulla transazione. Non è un’esagerazione: i margini dei principali laboratori di intelligenza artificiale sono ancora negativi, secondo PitchBook.
OpenAI prevede di bruciare 14 miliardi di dollari nel 2026, in aumento rispetto agli 8-9 miliardi del 2025. Anthropic ha compiuto un balzo impressionante, passando da margini del -94% nel 2024 a circa il +40% nel 2025.
La redditività però resta fragile: i costi di inferenza (la potenza di calcolo necessaria per generare ogni singola risposta) si sono infatti rivelati più alti del previsto.
Il prezzo unitario dei token, i frammenti di testo (parole o parti di parole) in cui i modelli scompongono ogni conversazione, è sceso grazie a modelli più efficienti e chip più performanti. Ma il costo per token non è il costo totale. Più l’uso cresce, più la spesa complessiva sale. E l’uso sta esplodendo.
Un’industria sovvenzionata dal venture capital
A tenere in piedi questa economia in perdita strutturale è il venture capital. A febbraio, il 90% dei finanziamenti VC è andato a startup di intelligenza artificiale. OpenAI e Anthropic, da sole, hanno catturato il 74% del totale, secondo Crunchbase.
Ma c’è di più. I laboratori ottengono potenza di calcolo a prezzi scontati attraverso partnership strategiche che a Wall Street vengono descritte, senza troppi giri di parole, come finanziamento circolare: Microsoft investe in OpenAI e contemporaneamente le fornisce infrastruttura cloud a tariffe inferiori a quelle di mercato.
Il denaro esce da una porta e rientra dall’altra. Anche con questi sconti, però, i conti non tornano. Gli abbonamenti a basso costo per il grande pubblico sono tra i prodotti più pesantemente sovvenzionati.
Secondo Ramp, che monitora le spese aziendali, a febbraio il 28% della spesa aziendale per ChatGPT passava attraverso abbonamenti consumer individuali anziché dai piani enterprise, che costano di più ma offrono gestione centralizzata degli utenti, garanzie sulla protezione dei dati e margini più alti per OpenAI.
I dipendenti si abbonano per conto proprio, prima ancora che l’azienda attivi un contratto dedicato e questo per Sam Altman significa incassare meno proprio dalla fascia di clienti più redditizia. Nel segmento enterprise vero e proprio, è Anthropic a catturare la maggioranza della spesa aziendale.
Il film che abbiamo già visto
La Silicon Valley conosce bene questo copione. Lo ha scritto Amazon, che ha costruito il suo dominio con prezzi sottocosto, spedizioni gratuite e, per anni, nessuna imposta sulle vendite nella maggior parte degli Stati americani.
Lo ha replicato Netflix, che per un decennio ha offerto un catalogo sterminato a pochi euro al mese, bruciando miliardi in contenuti originali per conquistare abbonati. Poi i prezzi sono saliti, sono arrivati i piani con pubblicità, le restrizioni sulla condivisione degli account.
Chi gioca ai videogiochi ha visto la stessa dinamica con Xbox Game Pass: lancio a prezzo stracciato, catalogo generoso, e poi aumenti progressivi una volta consolidata la base utenti. La logica è sempre la stessa: prima si conquista il mercato, poi si alza il prezzo. L’intelligenza artificiale non fa eccezione.
L’orizzonte IPO e il conto da pagare
Il punto di svolta è la quotazione in borsa. Sia OpenAI che Anthropic sono ampiamente attese sui mercati pubblici. E gli investitori pubblici non sono venture capitalist: chiedono crescita degli utili, margini in espansione, un percorso credibile verso la redditività.
Anche se i chip diventano più efficienti, la spesa totale continua a salire: i laboratori di IA hanno bisogno di più capacità, più aggiornamenti, più fornitura per soddisfare una domanda che cresce più velocemente delle ottimizzazioni. “Queste aziende di LLM andranno in borsa e alzeranno i prezzi perché dovranno farlo,” ha sintetizzato May Habib, CEO di Writer.
Che questa sia l’aria che tira, lo conferma un altro indizio che abbiamo già raccontato: la pubblicità dentro i chatbot. Google ha aperto il suo assistente IA agli inserzionisti, OpenAI ha iniziato a testare annunci su ChatGPT, Meta si è riservata il diritto di usare le conversazioni con la propria IA per targettizzare la pubblicità su Facebook e Instagram.
Controcorrente Perplexity, che dopo essere stata la prima a sperimentare, ha fatto marcia indietro: se un chatbot consiglia un prodotto o una soluzione, l’utente deve potersi fidare che sia la risposta migliore, non quella pagata da un inserzionista.
Ma la pubblicità, anche se segnalata, introdurrebbe un dubbio che riguarderebbe ogni risposta. E per Perplexity, la fiducia degli utenti vale più dei ricavi pubblicitari.
I costi scendono, la spesa sale
I costi unitari dell’IA continueranno a calare. Su questo c’è poco da discutere: i chip migliorano, i modelli diventano più efficienti, l’inferenza si ottimizza. Ma la spesa totale dei clienti dovrà continuare a salire se le aziende di intelligenza artificiale vogliono diventare redditizie e se gli investitori vogliono un ritorno sui loro enormi investimenti.
È la stessa tensione che ha definito ogni grande piattaforma digitale degli ultimi vent’anni. La differenza è che stavolta il sussidio non finanzia corse in taxi o serie televisive. Finanzia uno strumento che centinaia di milioni di persone stanno iniziando a usare per lavorare, studiare, decidere.
E quando il prezzo salirà, perché salirà, l’impatto si sentirà ovunque.
Stefano Silvestri



