
Китайская компания DeepSeek презентовала новую линейку языковых моделей DeepSeek-V3.2. Старшая версия модели обошла GPT-5 от OpenAI в задачах на логику и программирование, получив признание на IMO 2025 и IOI 2025. Модели V3.2 теперь доступны исследователям.
Китайская корпорация DeepSeek представила новую серию больших языковых моделей под названием DeepSeek-V3.
2, которая использует технологию разреженного внимания с целью повышения производительности. В соответствии с техническим документом, опубликованным разработчиками, старшая модель этой серии преодолела показатели GPT-5 от OpenAI в задачах, связанных с логикой и программированием. Компания заявляет: "DeepSeek-V3.2-Speciale демонстрирует исключительные аналитические способности, достигнув уровня золотой медали на Международной математической олимпиаде (IMO 2025) и Международной олимпиаде по информатике (IOI 2025)".Инженеры компании утверждают, что интеграция механизма DSA (DeepSeek Sparse Attention) значительно снизила вычислительные издержки, при этом сохраняя точность обработки длинных контекстов. Согласно бенчмаркам, модель V3.2-Speciale достигла результатов, сравнимых с системой Gemini-3.0-Pro от Google, в то время как базовая версия V3.2 рассматривается как более эффективная альтернатива GPT-5.
Компания DeepSeek из Китая делает акцент на открытости своих решений: веса моделей V3.2 уже доступны исследовательскому сообществу.
Свежие комментарии