Китайский ИИ-стартап DeepSeek представил свою новейшую экспериментальную языковую модель V3.2-exp, разработанную для сокращения затрат на вывод для задач с длинным контекстом почти вдвое.
Модель, анонсированная в понедельник, направлена на решение одной из самых насущных проблем в крупномасштабном внедрении ИИ: затраты на обработку расширенных входных данных.
V3.2-exp использует новую систему под названием DeepSeek Sparse Attention, которая объединяет "lightning indexer" с вторичным модулем для детального выбора токенов.
Вместе эти инновации позволяют модели сосредоточиться на наиболее релевантных фрагментах, одновременно управляя деталями на уровне токенов с точностью. Ранние внутренние тесты показывают, что система может значительно снизить нагрузку на серверы, при этом затраты на API потенциально снижаются на 50% для операций с длинным контекстом.
В отличие от многих коммерческих выпусков ИИ, которые остаются закрытыми, V3.2-exp была запущена как модель с открытым весом. Она теперь доступна на Hugging Face, предоставляя исследователям, разработчикам и предприятиям возможность проводить независимые оценки.
Это решение подчеркивает постоянное стремление DeepSeek к прозрачности и сотрудничеству, особенно когда компании все больше проверяют заявления об эффективности и производительности.
Открытый выпуск модели также соответствует предыдущей стратегии DeepSeek с моделью R1 ранее в этом году, где открытый бенчмаркинг позволил сообществу проверить ее возможности рассуждения. Применяя тот же подход для V3.2-exp, DeepSeek сигнализирует о уверенности в своих прорывах в эффективности.
Запуск V3.2-exp происходит после серии обновлений и экспериментов от DeepSeek в последние месяцы. Ранее в сентябре компания представила DeepSeek-V3.1-Terminus, усовершенствование, направленное на улучшение производительности агента и решение сообщаемых проблем, таких как нечитаемые символы и непоследовательное переключение языков.
Хотя это обновление принесло небольшие улучшения в таких бенчмарках, как Humanity's Last Exam и задачах кодирования, некоторые проблемы остались, особенно в производительности на китайском языке.
Между тем, отраслевые отчеты показали, что DeepSeek работает над моделью следующего поколения, ориентированной на агентов, запланированной к представлению в четвертом квартале 2025 года. Проект отражает более широкий отраслевой сдвиг в сторону автономных ИИ-систем, способных выполнять многоэтапные задачи с минимальным человеческим надзором. Выпуск V3.2-exp, по-видимому, дополняет эту траекторию, укрепляя технологическую основу компании в эффективности перед внедрением более продвинутых функций агента.
Инновация DeepSeek приходит в то время, когда конкуренция в китайском секторе ИИ усиливается. Конкурирующие фирмы, такие как Alibaba и Tencent, значительно увеличивают свои инвестиции в ИИ, при этом Alibaba обещает более 380 миллиардов юаней (52,9 миллиардов $) в облачную и ИИ-инфраструктуру.
Хотя DeepSeek был отмечен за достижение экономически эффективных результатов с относительно скромными ресурсами, аналитики предупреждают, что компания должна поддерживать темп, чтобы избежать затмения своими богатыми конкурентами.
Пост "Новая модель DeepSeek вдвое сокращает затраты на API для расширенных контекстов" впервые появился на CoinCentral.


