DeepSeek представляет модели V3.2, устанавливая новые стандарты эффективности для передовых ИИ
Отредактировано: Veronika Radoslavskaya
Искусственный интеллект компания DeepSeek, базирующаяся в Ханчжоу, объявила 1 декабря 2025 года о выпуске двух новых экспериментальных моделей ИИ: DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Этот запуск выводит разработчика открытого исходного кода на прямую конкуренцию с проприетарными флагманами, устанавливая новые ориентиры эффективности и достигая паритета в производительности в определенных областях. DeepSeek утверждает, что интеграция усовершенствованных возможностей рассуждения с автономным выполнением задач представляет собой значительный архитектурный прорыв для их платформы, подтверждая, что системы с открытым исходным кодом остаются мощными конкурентами ведущим закрытым моделям из Кремниевой долины.
Ключевым технологическим достижением, лежащим в основе этой эффективности, является механизм DeepSeek Sparse Attention (DSA). Это архитектурное новшество снижает вычислительную сложность, которая обычно связана с обработкой длинных контекстов. В результате модель сохраняет высокую скорость инференса, одновременно значительно сокращая вычислительные затраты. Основная итерация, DeepSeek-V3.2, использует эту архитектуру DSA и опирается на функциональность использования инструментов, представленную в V3.1. Эта новая версия поддерживает применение внешних утилит, таких как исполнители кода, калькуляторы и поисковые системы, предлагая гибкость как в режимах работы с «размышлением», так и без него. Модель демонстрирует убедительные результаты в реальных задачах по программированию, например, в SWE-bench Verified, и высоко оценивается сообществом в соревновательных средах, что закрепляет ее в сегменте высокой производительности для сбалансированных общих рабочих нагрузок.
Специализированный вариант, DeepSeek-V3.2-Speciale, разработан для достижения максимальной производительности в сложных математических вычислениях и многоэтапных задачах на рассуждение. DeepSeek заявляет, что эта версия Speciale демонстрирует показатели, сопоставимые с Google Gemini-3 Pro в ряде оценок, связанных с рассуждением. Более того, компания сообщает, что DeepSeek-V3.2-Speciale достигла золотого уровня производительности на эталонных наборах данных, имитирующих итерации 2025 года престижных мировых соревнований, включая Международную математическую олимпиаду (IMO) и Международную олимпиаду по информатике (IOI).
Доступ к высокопроизводительной модели DeepSeek-V3.2-Speciale в настоящее время ограничен временной конечной точкой API до 15 декабря 2025 года, что указывает на фазу контролируемого развертывания. Стандартная модель V3.2 немедленно доступна через подачу заявки и веб-интерфейс. Этот ускоряющийся темп развития ИИ сигнализирует о том, что фреймворки с открытым исходным кодом стремительно становятся функционально конкурентоспособными с проприетарными системами в сложных областях. Это, безусловно, важная веха для всего сообщества разработчиков.
Внедрение DSA является не просто оптимизацией; это смена парадигмы в том, как модели обрабатывают информацию. Способность эффективно управлять длинными контекстами без значительных потерь в скорости — это то, что долгое время было камнем преткновения для многих архитектур. DeepSeek, похоже, нашла ключ к более экономичному и масштабируемому искусственному интеллекту. Это открывает новые горизонты для развертывания мощных моделей в условиях более скромных вычислительных ресурсов, что является настоящим подарком для исследователей по всему миру.
Источники
Gestión
DeepSeek - Wikipedia
DeepSeek-V3.2 Release
2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community
DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint
DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE
Читайте больше новостей по этой теме:
Вы нашли ошибку или неточность?
Мы учтем ваши комментарии как можно скорее.
