На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

6 841 подписчик

Свежие комментарии

  • владимир трофимов
    Надо олигархов тряхануть,они в курсе должны быть."Прошли сутки. Вс...
  • Фаина Юсупова
    Соболезную всем родным и близким погибших лесников.Царствие небесное.Калужская область...
  • Юрий Вершинин
    Что даванков, что котяков - два недоумка."Трогать руками н...

За сутки китайская нейросеть обошла аналоги: Она быстрее, дешевле и умеет рассуждать

За сутки китайская языковая модель DeepSeek-R1 завоевала популярность по всему миру, обрушив акции Nvidia на $600 миллиардов и став серьёзным конкурентом ChatGPT. Нейросеть отличает то, что она быстрее и дешевле аналогов, а также, по заверениям разработчиков, умеет рассуждать.

В последние годы искусственный интеллект стал ключевым элементом мирового технологического ландшафта.

Среди наиболее известных ИИ-моделей можно выделить ChatGPT от OpenAI, Google Gemini, Anthropic Claude и другие. Однако на международной арене неожиданно появилась китайская модель DeepSeek-R1 от компании DeepSeek, обладающая способностью "рассуждать", которая произвела настоящий фурор. По утверждению самой нейросети, R1 обозначает номер модели, где буква R - начальная буква слова reasoning ("рассуждение").

На китайском рынке существует множество локальных нейросетей, разработанных компаниями с миллиардными бюджетами, такими как Alibaba Cloud Qwen, Baidu Ernie Bot и ByteDance Doubao. Тем не менее лишь DeepSeek смогла быстро завоевать признание на глобальной арене.

В конце января DeepSeek привела к резкому падению акций таких технологических гигантов, как Nvidia, ASML и Siemens Energy, а также к снижению капитализации криптовалют, связанных с ИИ. Акции Nvidia упали на 17,8% за один день, а рыночная стоимость крупнейшего производителя ИИ-чипов сократилась почти на $600 миллиардов, составив $2,89 трлн, - это рекордное падение в истории компании.

Причиной падения стало сообщение о том, что разработка DeepSeek обходится значительно дешевле, чем аналогичные проекты. Обучение языковой модели V3, предшествующей R1, стоило компании всего $5,58 млн при использовании 2048 чипов Nvidia H800 и небольшой команде из менее чем 200 человек (однако доказательства этих данных отсутствуют). Для сравнения: в OpenAI трудится 4500 человек, а обучение GPT-4 обошлось в $100 млн; количество использованных чипов при этом не раскрыто.

Ещё одним важным преимуществом DeepSeek является её высокая скорость работы и низкие требования к ресурсам, что делает модель более доступной для компаний по сравнению с западными аналогами.

Что касается функционала DeepSeek, то она представляет собой модель, ориентированную на рассуждения и предназначенную для выполнения задач, требующих логического мышления и самопроверки. Однако стоит отметить, что база знаний чат-бота ограничена данными до июля 2024 года.

ЧИТАЙТЕ ТАКЖЕ:

 

Ссылка на первоисточник
наверх