Вместе из AI 305 миллионов долларов: модели рассуждения с увеличением DeepSeek-R1, а не уменьшение, спрос на графический процессор


Присоединяйтесь к нашим ежедневным и еженедельным информационным бюллетеням для последних обновлений и эксклюзивного контента в индустрии AI-лидирования. Узнать больше


Когда впервые появился Deepseek-R1, правящий страх, что встряхнула отрасль, заключалась в том, что усовершенствованные рассуждения могут быть достигнуты за счет меньшей инфраструктуры.

Как выясняется, это не обязательно происходит. По крайней мере, согласно вместе ИИ, рост и рассуждения Deepseek о росте и с открытым исходным кодом имели правильный противоположный эффект: вместо того, чтобы уменьшить необходимость в инфраструктуре, это увеличивает его.

Этот повышенный спрос помог стимулировать рост платформы ИИ и бизнеса. Сегодня компания объявила 305 миллионов долларов от B-раунда финансирования, во главе с General Catalyst и под руководством Prosperity7. Вместе ИИ впервые появился в 2023 году с целью упрощения корпоративного использования моделей крупных языков с открытым исходным кодом (LLMS). Компания расширилась в 2024 году с корпоративной платформой вместе, которая позволяет AI-Falce в виртуальное частное облако (VPC) и местные среды. В 2025 году вместе ИИ снова выращивает свою платформу с рассуждениями и возможностями ИИ.

Компания утверждает, что ее платформа развертывания ИИ насчитывает более 450 000 зарегистрированных застройщиков и что компания выросла в 6 раз через год. Клиенты компании включают предприятия, а также станции искусственного интеллекта, такие как Creative AI, подписи и пряные лаборатории.

«Сейчас мы обслуживаем модели во всех категориях: языковые и рассуждения, а также изображения, а также видео и видео», – сказал VentureBeat Випул Пракаш, генеральный директор AI Socyal Ai.

Огромное воздействие DeepSeek-R1 оказывает на требования к инфраструктуре ИИ

DeepSeek-R1 был очень неодобрительным, когда он впервые дебютировал, по какой-то причинам из них было подразумевание, что основная модель рассуждения с открытым исходным кодом могла быть построена и развернута с меньшей инфраструктурой, чем ее собственная модель.

Тем не менее, объяснил Пракаш, вместе ИИ частично увеличил свою инфраструктуру, чтобы помочь поддержать повышенный спрос на рабочие нагрузки, связанные с Deepseek-R1.

«Это довольно дорогая модель для контроля вывода», – сказал он. «Он имеет 671 миллиард параметров, и вы должны распространять его через несколько серверов. И, поскольку качество выше, на верхнем конце требуется больше спроса, что означает, что вам нужно больше емкости».

Кроме того, он отметил, что DeepSeek-R1, как правило, имеет более длительные запросы, которые могут занять от двух до трех минут. Ужасное требование пользователя на DeepSeek-R1 еще больше подталкивает необходимость в большей инфраструктуре.

Чтобы удовлетворить это требование, вместе ИИ разработал услугу, которую он называет «рассуждениями», которые обеспечивают выделенную мощность от 128 до 2000 чипов, чтобы лучше всего использовать модели.

Как вместе ИИ помогает организациям использовать AI разведка

Есть некоторые конкретные области, где вместе ИИ видят использование моделей рассуждений. К ним относятся:

  • Кодирующие агенты: Модели рассуждений помогают разрушить большие проблемы в шагах.
  • Уменьшить галлюцинации: Процесс рассуждения помогает контролировать результаты моделей, тем самым уменьшая галлюцинации, что важно для приложений, где важна точность.
  • Улучшить нерезонансные модели: Клиенты перегоняют и улучшают качество нерезонансных моделей.
  • Обеспечение самосовершенствования: Использование укрепления обучения с помощью моделей рассуждений позволяет моделям рекурсивно самостоятельно подниматься, не полагаясь на большие количества данных, названных человеком.

Агент ИИ также стимулирует увеличение инфраструктуры спроса на ИИ

Вместе ИИ также видит повышенный спрос на инфраструктуру, потому что его пользователи охватывают действия.

Пракаш объяснил, что рабочие процессы агента, где один пользователь -приводит к тысячам вызовов API для выполнения задачи, ставит более вычислительные требования к инфраструктуре ИИ вместе.

Чтобы помочь поддержке рабочих нагрузок агента AI, AI недавно приобрел CodeSandbox, чья технология предоставляет легкие, быстро выпившие виртуальные машины (VMS) для выполнения произвольного, безопасного кода в облаке ИИ, где также живут языковые модели. Это позволяет ИИ уменьшить задержку между кодом действия и моделями, которые должны быть вызваны, улучшая производительность рабочих процессов агента.

Nvidia Blackwell уже оказывает влияние

Все ИИ -Платформы сталкиваются с повышенными требованиями.

Это одна из причин, по которой Nvidia продолжает катить новый кремнезем, который обеспечивает большую производительность. Последний чип продукта Nvidia – это GPU Blackwell, который теперь развернут вместе с ИИ.

Пракаш сказал, что Nvidia Blackwell стоит примерно на 25% больше, чем предыдущее поколение, но обеспечивает 2 раза производительность. Платформа GB 200 с чипсами Blackwell особенно подходит для обучения и вывода смесей опытных моделей (MOE), которые обучаются через несколько серверов, подключенных к инфинибанд. Он отметил, что чипы Blackwell также ожидают большего повышения производительности для вывода более крупных моделей по сравнению с более мелкими моделями.

Конкурентная ландшафт действенного ИИ

Рынок ИИ – это инфраструктурные платформы является значительно конкурентоспособным.

Вместе ИИ сталкивается с конкуренцией как со стороны известных поставщиков облаков, так и от компаний по инфраструктуре искусственного интеллекта. Все гиперски, в том числе Microsoft, AWS и Google, имеют платформы искусственного интеллекта. Существует также появляющаяся категория игроков с фокусом AI, таких как Groq и Samba Nova, все из которых нацелены на кусок прибыльного рынка.

Вместе ИИ имеет полное предложение стека, в том числе инфраструктуру графических процессоров со уровнями программной платформы выше. Это позволяет клиентам легко строить с помощью моделей с открытым исходным кодом или разрабатывать свои собственные модели на платформе AI вместе. Компания также сосредоточена на разработке исследований оптимизации и ускоренном времени броска для вывода и обучения.

«Например, мы обслуживаем модель DeepSeek-R1 на уровне 85 токенов в секунду, а Azure обслуживает ее в 7 токенах в секунду»,-сказал Пракаш. «Существует довольно расширяющийся разрыв в производительности и стоимости, которые мы можем доставить нашим клиентам».


Source link
Scroll to Top