Global Soul Limited liyi@gs-smt.com 86-755-27962186
В январе этого года стартап в области искусственного интеллекта DeepSeek выпустил два прорывных решения с помощью своей новой модели R1, тихо переопределив экономику искусственного интеллекта. Эта модель достигает наилучших показателей при 1/40 стоимости предыдущей модели. По состоянию на декабрь 2024 года большая языковая модель V3 от DeepSeek снизила затраты на обучение более чем на 90%.
Два прорыва DeepSeek привлекли всеобщее внимание: Во-первых, DeepSeek показала, что просьба к моделям ИИ уточнять свои процессы рассуждения - исследовательский подход, известный как цепочка рассуждений (chain-of-thought prompting) - повысила точность и эффективность. Во-вторых, DeepSeek использует искусственный интеллект для генерации собственных наборов данных, полностью независимо от ручной разметки данных. Хотя есть аргументы, что DeepSeek не так дешев, как утверждает, эти прорывы, безусловно, открыли новую эру экономики ИИ.
Структура затрат на искусственный интеллект резко меняется. Каждый доллар прироста производительности оказывает глубокое влияние на стартапы, корпоративные приложения и инвестиции в инфраструктуру. Этот сдвиг может перевернуть рыночные силы, в конечном итоге помогая гибким стартапам догнать технологических гигантов в краткосрочной перспективе, одновременно увеличивая норму прибыли.
Технологические гиганты уже инвестировали более 100 миллиардов долларов в развитие инфраструктуры ИИ, и эта сумма продолжает расти. Теперь они должны подумать о том, как получить отдачу от этих огромных инвестиций и сохранить преимущество над алгоритмами по сравнению с более гибкими, небольшими конкурентами на рынке. Перед лицом быстро меняющейся среды как технологические гиганты, так и стартапы сталкиваются с четким сигналом: используйте возможности технологического прогресса быстро или будьте устранены.
До появления DeepSeek стартапы изо всех сил пытались конкурировать с расходами на инфраструктуру со стороны технологических гигантов, которые вкладывали миллиарды долларов в строительство огромных центров обработки данных каждый квартал и получали огромные преимущества от достижений в области технологий искусственного интеллекта. Эти гиганты не только обладают огромными ресурсами данных, но и собирают большое количество докторантов, а прогресс алгоритмов также зависит от их сильной технической мощи. Кроме того, давно сложившиеся сети дистрибуции позволяют им быстро перемещать продукты к существующим клиентам и ускорять технологический прогресс посредством петель обратной связи.
Однако сегодня стартапы достаточно велики, чтобы конкурировать с технологическими гигантами. Только к 2025 году стоимость обучения моделей упадет на 95%, что значительно снизит преимущество в инфраструктуре технологических гигантов. Затраты на рассуждения упали почти в тысячу раз за последние три года и, как ожидается, будут снижаться и дальше. Продолжительность алгоритмического преимущества сократилась до 45–100 дней и может продолжать уменьшаться.
Когда затраты на обучение перестают быть ключевым узким местом, производительность вывода (то есть то, насколько хорошо модели ИИ работают в приложениях реального времени) становится новым фокусом. Мы вступаем в новую фазу: меньшие, более дешевые модели, которые предлагают сопоставимую мощность с более крупными моделями и могут работать на менее производительных графических процессорах, продлевая срок службы старых графических процессоров. Если более умные продукты ИИ можно будет поставлять по очень низкой цене, то у стартапов наконец-то появится шанс превзойти технологических гигантов, одновременно увеличивая прибыль.
Эффективное распределение рабочей силы еще больше усиливает преимущество претендента. Больше не нуждаясь в найме большого количества талантов уровня PhD для создания конкурентоспособной команды ИИ, стартапы могут разрабатывать, оптимизировать и распространять модели по гораздо меньшей цене, чем технологические гиганты. И, поскольку они в основном ориентированы на уровень приложений, претенденты могут получать более высокую норму прибыли таким же образом, как стартапы в облачной сфере получили преимущество, улучшив экономику единицы продукции 15 лет назад.
Эта тенденция хороша не только для стартапов. Она также подвергает компании, такие как Nvidia, большему риску. После объявления DeepSeek цена акций Nvidia упала на 12%, хотя с тех пор она восстановилась. Риски для производителей чипов возрастают, поскольку спрос смещается с оборудования, ориентированного на обучение, на более эффективные решения для вывода. Рост потребительских блоков обработки нейронных сетей (Npu) может ускорить этот сдвиг, позволяя моделям ИИ работать в нативном режиме на таких устройствах, как смартфоны и ноутбуки.
Что хорошо для претендентов, плохо для технологических гигантов. Гиганты ИИ почти инстинктивно связали доминирование DeepSeek с последствиями для национальной безопасности, пытаясь заручиться поддержкой разработки аналогичных технологий, игнорируя тот факт, что американские исследователи, в том числе из Стэнфордского университета, смогли воспроизвести и даже превзойти технологию DeepSeek. Заглядывая в будущее, компании, инвестирующие огромные суммы в проекты инфраструктуры данных, могут задаться вопросом: были ли огромные расходы на исследования и разработки моделей ИИ потрачены впустую? Если дешевая технология работает так же хорошо, как и дорогая, зачем тратить столько денег?
Исторические тенденции показывают, что большинство достижений в области ИИ действительно зависели от чрезмерных капиталовложений в масштабирование. Архитектура Transformer была успешной из-за переобучения, превышающего то, что считалось алгоритмически оптимальным в то время. Новые технологические достижения доказывают, что мы можем достичь той же производительности при меньших затратах. Хотя эффективные решения, такие как DeepSeek, значительно повысили эффективность, даже при этом расширение гипермасштабируемых поставщиков облачных услуг по-прежнему требует больших центров обработки данных и должно нести растущие затраты на вывод.
Однако технологические гиганты не сидят сложа руки. Мы уже наблюдаем гонку вооружений за достижениями DeepSeek, когда такие компании, как Google с моделью Gemini, Microsoft с Azure AI Foundry и Meta с открытым исходным кодом LLaMA, борются за доминирование. Модели с открытым исходным кодом могут сыграть ключевую роль. Марк Цукерберг, генеральный директор Meta, подчеркнул важность персонализированного ИИ — то есть моделей, адаптированных к потребностям, культуре и предпочтениям отдельных пользователей. Это видение соответствует более широкой тенденции в разработке ИИ: меньшие, более специализированные модели, способные обеспечивать высокую производительность без необходимости огромной облачной инфраструктуры.
В то же время гиганты с открытым и закрытым исходным кодом преследуют разные цели, что еще больше усиливает преимущество претендента. Модели с открытым исходным кодом, созданные такими компаниями, как Meta, будут продолжать конкурировать и снижать затраты во всей экосистеме, в то время как модели с закрытым исходным кодом пытаются взимать более высокую плату за счет лучших технологий. Стартапы могут использовать конкуренцию между двумя лагерями для достижения наилучшего соотношения цены и производительности для каждого использования, одновременно увеличивая норму прибыли.
Независимо от размера бизнеса, сообщение ясно: воспользуйтесь конкретными преимуществами, доступными им — динамикой рынка, вычислительной мощностью и талантами — быстро или столкнитесь с неудачей. Цикл технологического прогресса становится короче: от месяцев или даже лет, которые раньше требовались для установления новых стандартов производительности, до технологического прорыва DeepSeek, предполагающего, что теперь это может занять всего 41 день. Инновации развиваются беспрецедентными темпами, а пространство для отказов быстро сокращается.