Global Soul Limited liyi@gs-smt.com 86-755-27962186
En janvier de cette année, la startup d'intelligence artificielle DeepSeek a réalisé deux percées grâce à son nouveau modèle R1, redéfinissant discrètement l'économie de l'intelligence artificielle. Ce modèle atteint des performances de pointe pour 1/40 du coût du modèle précédent. En décembre 2024, le grand modèle de langage V3 de DeepSeek a réduit les coûts de formation de plus de 90 %.
Deux des percées de DeepSeek ont attiré une attention généralisée : Premièrement, DeepSeek a révélé que demander aux modèles d'IA d'élaborer leurs processus de raisonnement - une approche de recherche connue sous le nom de chain-of-thought prompting - améliorait la précision et l'efficacité. Deuxièmement, DeepSeek utilise l'intelligence artificielle pour générer ses propres ensembles de données, indépendamment de l'étiquetage manuel des données. Bien qu'il y ait des arguments selon lesquels DeepSeek n'est pas aussi bon marché qu'il le prétend, ces percées ont certainement inauguré une nouvelle ère de l'économie de l'IA.
La structure des coûts de l'intelligence artificielle est en train de changer radicalement. Chaque dollar de progression des performances a eu un impact profond sur les startups, les applications d'entreprise et les investissements en infrastructure. Ce changement pourrait bouleverser les forces du marché, aidant finalement les startups agiles à rattraper les géants de la technologie à court terme tout en augmentant les marges bénéficiaires.
Les géants de la technologie ont déjà investi plus de 100 milliards de dollars dans le développement de l'infrastructure d'IA, et cela continue d'augmenter. Ils doivent maintenant réfléchir à la manière de générer un retour sur ces énormes investissements et de conserver un avantage sur les algorithmes face à des concurrents de marché plus agiles et plus petits. Face à un environnement en évolution rapide, les géants de la technologie et les startups sont confrontés à un signal clair : saisir rapidement l'opportunité du progrès technologique, ou être éliminés.
Avant l'ascension de DeepSeek, les startups avaient du mal à rivaliser avec les dépenses d'infrastructure des géants de la technologie, qui ont investi des milliards de dollars dans la construction d'énormes centres de données chaque trimestre et ont tiré d'énormes avantages des progrès de la technologie de l'intelligence artificielle. Ces géants disposent non seulement de ressources de données massives, mais rassemblent également un grand nombre de talents de niveau doctoral, et les progrès des algorithmes dépendent également de leur forte force technique. De plus, des réseaux de distribution établis de longue date leur permettent de déplacer rapidement les produits vers les clients existants et d'accélérer le progrès technologique grâce aux boucles de rétroaction.
Aujourd'hui, cependant, les startups sont suffisamment grandes pour rivaliser avec les géants de la technologie. Rien qu'en 2025, le coût de la formation des modèles chutera de 95 %, réduisant considérablement l'avantage en matière d'infrastructure des géants de la technologie. Les coûts de raisonnement ont chuté de près de mille fois au cours des trois dernières années et devraient encore baisser à l'avenir. La durée de l'avantage algorithmique a été réduite à 45 à 100 jours et pourrait continuer à diminuer.
Lorsque les coûts de formation ne sont plus un goulot d'étranglement clé, les performances d'inférence (c'est-à-dire la performance des modèles d'IA dans les applications en temps réel) deviennent un nouveau centre d'intérêt. Nous entrons dans une nouvelle phase : des modèles plus petits et moins chers qui offrent une puissance comparable à celle des modèles plus grands et peuvent fonctionner sur des GPU moins performants, prolongeant la durée de vie des anciens GPU. Si des produits d'IA plus intelligents peuvent être livrés à très faible coût, les startups ont enfin une chance de surpasser les géants de la technologie tout en augmentant leurs bénéfices.
Une allocation efficace de la main-d'œuvre renforce encore l'avantage du challenger. N'ayant plus besoin d'embaucher un grand nombre de talents de niveau doctorat pour constituer une équipe d'IA compétitive, les startups peuvent développer, optimiser et distribuer des modèles à un coût beaucoup plus faible que les géants de la technologie. Et, comme ils se concentrent en grande partie sur le niveau de l'application, les challengers sont en mesure de profiter de marges bénéficiaires plus élevées de la même manière que les startups cloud ont gagné un avantage en améliorant l'économie unitaire il y a 15 ans.
Cette tendance n'est pas seulement bonne pour les startups. Elle met également des entreprises comme Nvidia en plus grand danger. Après l'annonce de DeepSeek, le cours de l'action de Nvidia a chuté de 12 %, bien qu'il se soit depuis redressé. Les risques pour les fabricants de puces sont accrus car la demande passe du matériel axé sur la formation à des solutions d'inférence plus efficaces. L'essor des unités de traitement neuronal (NPU) grand public pourrait accélérer ce changement, permettant aux modèles d'IA de fonctionner nativement sur des appareils tels que les smartphones et les ordinateurs portables.
Ce qui est bon pour les challengers est mauvais pour les géants de la technologie. Les géants de l'IA ont presque instinctivement lié la domination de DeepSeek aux implications pour la sécurité nationale dans le but de susciter un soutien pour le développement d'une technologie similaire, ignorant le fait que les chercheurs américains, y compris ceux de l'université de Stanford, ont été en mesure de reproduire et même de surpasser la technologie de DeepSeek. À l'avenir, les entreprises qui investissent d'énormes sommes dans des projets d'infrastructure de données pourraient se demander : les énormes dépenses en recherche et développement de modèles d'IA ont-elles été gaspillées ? Si une technologie bon marché fonctionne aussi bien qu'une technologie coûteuse, pourquoi dépenser autant d'argent ?
Les tendances historiques suggèrent que la plupart des progrès de l'IA ont en effet reposé sur des investissements en capital excessifs à grande échelle. L'architecture Transformer a réussi grâce au surentraînement, dépassant ce qui était considéré comme optimal sur le plan algorithmique à l'époque. Les nouvelles avancées technologiques prouvent que nous pouvons obtenir les mêmes performances à moindre coût. Bien que des solutions efficaces comme DeepSeek aient considérablement amélioré l'efficacité, même ainsi, l'expansion des fournisseurs de cloud à très grande échelle nécessite toujours des centres de données plus grands et doit supporter des coûts d'inférence en forte augmentation.
Cependant, les géants de la technologie ne restent pas les bras croisés. Nous assistons déjà à une course à l'armement pour les réalisations de DeepSeek, avec des modèles tels que Gemini de Google, Azure AI Foundry de Microsoft et LLaMA open source de Meta, tous en lice pour la domination. Les modèles open source peuvent jouer un rôle clé. Mark Zuckerberg, PDG de Meta, a souligné l'importance de l'IA personnalisée - c'est-à-dire des modèles adaptés aux besoins, à la culture et aux préférences des utilisateurs individuels. Cette vision s'aligne sur une tendance plus large du développement de l'IA : des modèles plus petits et plus spécialisés capables d'offrir des performances élevées sans avoir besoin d'une infrastructure cloud massive.
Dans le même temps, les géants open source et closed source ont des objectifs différents, ce qui renforce encore l'avantage du challenger. Les modèles open source créés par des entreprises comme Meta continueront de concurrencer et de réduire les coûts dans tout l'écosystème, tandis que les modèles closed source essaient de facturer des frais plus élevés grâce à une meilleure technologie. Les startups peuvent tirer parti de la concurrence entre les deux camps pour obtenir le meilleur rapport qualité/prix pour chaque utilisation, tout en augmentant les marges bénéficiaires.
Quelle que soit la taille de l'entreprise, le message est clair : profitez rapidement des avantages spécifiques qui leur sont offerts - la dynamique du marché, la puissance de calcul et les talents - ou faites face à l'échec. Le cycle du progrès technologique se raccourcit, passant des mois, voire des années, qu'il fallait autrefois pour établir de nouvelles normes de performance, à la percée technologique de DeepSeek suggérant qu'il pourrait désormais ne falloir que 41 jours. L'innovation progresse à un rythme sans précédent, et l'espace de tolérance aux pannes se rétrécit rapidement.