Новое исследование выявило, что ИИ-модель OpenAI GPT-5 Orion не улучшилась по сравнению с GPT-4, достигнув предела обучения на 20%. Специалисты предупреждают об исчерпании данных для обучения, что влияет на развитие всех языковых моделей.
В соответствии с результатами июньского исследования "Закончатся ли у нас данные?
Пределы масштабирования LLM на основе данных, созданных человеком", новая модель ИИ OpenAI, названная GPT-5 Orion, достигла уровня развития GPT-4, пройдя лишь 20% обучения. Однако дальнейшего прироста производительности не ожидается, что является основной проблемой не только для OpenAI, но и для всех существующих моделей ИИ.Изучив параметры модели, стало ясно, что Orion не превосходит GPT-4 в решении определенных задач. Хотя модель показывает высокую эффективность в решении языковых задач, в сфере кодирования она не превосходит даже GPT-3. По мнению инженеров, прирост производительности модели GPT-5 относительно GPT-4 ожидается меньшим, чем у GPT-4 по сравнению с GPT-3.
Общая проблема индустрии заключается в исчерпании высококачественных данных, необходимых для обучения ИИ.
"Наши результаты демонстрируют, что текущие тенденции развития LLM (больших языковых моделей) не могут поддерживаться исключительно за счет обычного масштабирования данных", — отмечают авторы исследования.
Свежие комментарии