Global Soul Limited liyi@gs-smt.com 86-755-27962186
A gennaio di quest'anno, la startup di intelligenza artificiale DeepSeek ha rilasciato due scoperte rivoluzionarie attraverso il suo nuovo modello R1, ridefinendo silenziosamente l'economia dell'intelligenza artificiale. Questo modello raggiunge prestazioni di vertice a 1/40 del costo del modello precedente. A dicembre 2024, il modello linguistico di grandi dimensioni V3 di DeepSeek ha ridotto i costi di addestramento di oltre il 90%.
Due delle scoperte di DeepSeek hanno attirato un'attenzione diffusa: Innanzitutto, DeepSeek ha rivelato che chiedere ai modelli di IA di elaborare i loro processi di ragionamento - un approccio di ricerca noto come chain-of-thought prompting - ha migliorato l'accuratezza e l'efficienza. In secondo luogo, DeepSeek utilizza l'intelligenza artificiale per generare i propri set di dati, completamente indipendenti dall'etichettatura manuale dei dati. Sebbene ci siano argomentazioni sul fatto che DeepSeek non sia così economico come afferma, queste scoperte hanno certamente inaugurato una nuova era dell'economia dell'IA.
La struttura dei costi dell'intelligenza artificiale sta cambiando radicalmente. Ogni dollaro di aumento delle prestazioni ha avuto un profondo impatto sulle startup, sulle applicazioni aziendali e sugli investimenti infrastrutturali. Questo cambiamento potrebbe sconvolgere le forze di mercato, aiutando in definitiva le startup agili a raggiungere i giganti della tecnologia nel breve termine, aumentando al contempo i margini di profitto.
I giganti della tecnologia hanno già investito più di 100 miliardi di dollari nello sviluppo di infrastrutture di IA, e la cifra continua ad aumentare. Ora devono considerare come generare un ritorno su questi enormi investimenti e mantenere un vantaggio sugli algoritmi contro concorrenti di mercato più agili e piccoli. Di fronte a un ambiente in rapida evoluzione, sia i giganti della tecnologia che le startup si trovano di fronte a un segnale chiaro: cogliere rapidamente l'opportunità del progresso tecnologico, o essere eliminati.
Prima dell'ascesa di DeepSeek, le startup faticavano a competere con le spese infrastrutturali dei giganti della tecnologia, che hanno investito miliardi di dollari nella costruzione di enormi data center ogni trimestre e hanno ottenuto enormi vantaggi dai progressi della tecnologia dell'intelligenza artificiale. Questi giganti non solo hanno ingenti risorse di dati, ma raccolgono anche un gran numero di talenti con dottorato di ricerca, e il progresso degli algoritmi dipende anche dalla loro forte forza tecnica. Inoltre, le reti di distribuzione consolidate consentono loro di spostare rapidamente i prodotti ai clienti esistenti e accelerare il progresso tecnologico attraverso cicli di feedback.
Oggi, tuttavia, le startup sono abbastanza grandi da competere con i giganti della tecnologia. Solo entro il 2025, il costo dell'addestramento dei modelli scenderà del 95%, riducendo significativamente il vantaggio infrastrutturale dei giganti della tecnologia. I costi di ragionamento sono crollati di quasi mille volte negli ultimi tre anni e si prevede che diminuiranno ulteriormente in futuro. La durata del vantaggio algoritmico è stata ridotta a 45-100 giorni e potrebbe continuare a diminuire.
Quando i costi di addestramento non sono più un collo di bottiglia chiave, le prestazioni di inferenza (ovvero, quanto bene i modelli di IA si comportano nelle applicazioni in tempo reale) diventano un nuovo focus. Stiamo entrando in una nuova fase: modelli più piccoli ed economici che offrono una potenza paragonabile a quella dei modelli più grandi e possono essere eseguiti su GPU a prestazioni inferiori, prolungando la vita delle GPU più vecchie. Se i prodotti di IA più intelligenti possono essere consegnati a un costo molto basso, allora le startup hanno finalmente la possibilità di superare i giganti della tecnologia, aumentando al contempo i profitti.
Un'efficiente allocazione della manodopera rafforza ulteriormente il vantaggio dello sfidante. Non avendo più bisogno di assumere un gran numero di talenti a livello di dottorato per assemblare un team di IA competitivo, le startup possono sviluppare, ottimizzare e distribuire modelli a un costo molto inferiore rispetto ai giganti della tecnologia. E, poiché sono in gran parte focalizzati a livello applicativo, gli sfidanti sono in grado di godere di margini di profitto più elevati nello stesso modo in cui le startup cloud hanno ottenuto un vantaggio migliorando l'economia unitaria 15 anni fa.
Questa tendenza non è solo positiva per le startup. Mette anche aziende come Nvidia a maggior rischio. Dopo l'annuncio di DeepSeek, il prezzo delle azioni di Nvidia è sceso del 12%, anche se da allora si è ripreso. I rischi per i produttori di chip sono aumentati perché la domanda si sta spostando dall'hardware incentrato sull'addestramento a soluzioni di inferenza più efficienti. L'ascesa delle unità di elaborazione neurale (NPU) di livello consumer potrebbe accelerare questo cambiamento, consentendo ai modelli di IA di essere eseguiti nativamente su dispositivi come smartphone e laptop.
Ciò che è positivo per gli sfidanti è negativo per i giganti della tecnologia. I giganti dell'IA hanno quasi istintivamente legato il dominio di DeepSeek alle implicazioni per la sicurezza nazionale nel tentativo di raccogliere sostegno per lo sviluppo di una tecnologia simile, ignorando il fatto che i ricercatori statunitensi, anche alla Stanford University, sono stati in grado di replicare e persino superare la tecnologia di DeepSeek. Guardando al futuro, le aziende che investono ingenti somme in progetti infrastrutturali di dati potrebbero chiedersi: la spesa enorme per la ricerca e lo sviluppo di modelli di IA è stata sprecata? Se la tecnologia economica funziona altrettanto bene della tecnologia costosa, perché spendere così tanti soldi?
Le tendenze storiche suggeriscono che la maggior parte dei progressi dell'IA si sono effettivamente basati su eccessivi investimenti di capitale su scala. L'architettura Transformer ha avuto successo grazie all'overtraining, superando ciò che all'epoca era considerato algoritmicamente ottimale. I nuovi progressi tecnologici stanno dimostrando che possiamo ottenere le stesse prestazioni a un costo inferiore. Sebbene soluzioni efficienti come DeepSeek abbiano migliorato significativamente l'efficienza, anche così, l'espansione dei fornitori di cloud su larga scala richiede ancora data center più grandi e deve sopportare costi di inferenza in aumento.
Tuttavia, i giganti della tecnologia non stanno con le mani in mano. Stiamo già assistendo a una corsa agli armamenti per i risultati di DeepSeek, con modelli come Gemini di Google, Azure AI Foundry di Microsoft e LLaMA open source di Meta che si contendono il dominio. I modelli open source possono svolgere un ruolo chiave. Mark Zuckerberg, CEO di Meta, ha sottolineato l'importanza dell'IA personalizzata - ovvero, modelli su misura per le esigenze, la cultura e le preferenze dei singoli utenti. Questa visione si allinea a una tendenza più ampia nello sviluppo dell'IA: modelli più piccoli e specializzati in grado di offrire prestazioni elevate senza la necessità di una massiccia infrastruttura cloud.
Allo stesso tempo, i giganti open source e closed source hanno obiettivi diversi, migliorando ulteriormente il vantaggio dello sfidante. I modelli open source creati da aziende come Meta continueranno a competere e a ridurre i costi in tutto l'ecosistema, mentre i modelli closed source cercano di addebitare commissioni più elevate attraverso una tecnologia migliore. Le startup possono sfruttare la concorrenza tra i due campi per ottenere il miglior rapporto prezzo/prestazioni per ogni utilizzo, aumentando al contempo i margini di profitto.
Indipendentemente dalle dimensioni dell'azienda, il messaggio è chiaro: approfittare rapidamente dei vantaggi specifici a loro disposizione - dinamiche di mercato, potenza di calcolo e talento - o affrontare il fallimento. Il ciclo del progresso tecnologico si sta accorciando, dai mesi o addirittura anni che ci volevano per stabilire nuovi standard di prestazioni, alla svolta tecnologica di DeepSeek che suggerisce che ora potrebbe richiedere solo 41 giorni. L'innovazione sta avanzando a un ritmo senza precedenti e lo spazio di tolleranza agli errori si sta riducendo rapidamente.