На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 247 подписчиков

Свежие комментарии

  • Виктор Иванов
    Три зарплаты Сечина, а ущерба на порядок больше... Нет слов, одна гордость.Суд взыскал 404,3...
  • Геннадий Свешников
    Новый Гайдар вместе с Немцовым, упокой Господь-душегубов.😇🙏Максим Решетников...
  • надежда белугина
    "он преградил движение автомобилю Hyundai, в котором находился судья Тришкин". Думаю, это можно истолковать, как напа...Судья произвел вы...

DeepSeek выпустила модели V3.2, превосходящие GPT-5 в логике

Китайская компания DeepSeek презентовала новую линейку языковых моделей DeepSeek-V3.2. Старшая версия модели обошла GPT-5 от OpenAI в задачах на логику и программирование, получив признание на IMO 2025 и IOI 2025. Модели V3.2 теперь доступны исследователям.

Китайская корпорация DeepSeek представила новую серию больших языковых моделей под названием DeepSeek-V3.

2, которая использует технологию разреженного внимания с целью повышения производительности. В соответствии с техническим документом, опубликованным разработчиками, старшая модель этой серии преодолела показатели GPT-5 от OpenAI в задачах, связанных с логикой и программированием.

Компания заявляет: "DeepSeek-V3.2-Speciale демонстрирует исключительные аналитические способности, достигнув уровня золотой медали на Международной математической олимпиаде (IMO 2025) и Международной олимпиаде по информатике (IOI 2025)".

Инженеры компании утверждают, что интеграция механизма DSA (DeepSeek Sparse Attention) значительно снизила вычислительные издержки, при этом сохраняя точность обработки длинных контекстов. Согласно бенчмаркам, модель V3.2-Speciale достигла результатов, сравнимых с системой Gemini-3.0-Pro от Google, в то время как базовая версия V3.2 рассматривается как более эффективная альтернатива GPT-5.

Компания DeepSeek из Китая делает акцент на открытости своих решений: веса моделей V3.2 уже доступны исследовательскому сообществу.

 

Ссылка на первоисточник
наверх