- PVSM.RU - https://www.pvsm.ru -
Компания OpenAI подтвердила, что её новая языковая модель GPT-4.5 генерирует недостоверные ответы в 37% случаев, согласно внутреннему инструменту оценки фактологичности SimpleQA. Эти данные, озвученные в официальном релизе, вызвали дискуссию о надёжности современных алгоритмов ИИ.
Несмотря на заявления о прогрессе — предыдущие версии GPT-4o и o3-mini демонстрировали 61,8% и 80,3% галлюцинаций соответственно, — эксперты подчёркивают, что даже «лучшие модели» остаются неточными.
«Сейчас даже самые продвинутые системы способны генерировать текст без вымысла лишь в 35% случаев», — заявила Вентинг Чжао, соавтор исследования о галлюцинациях ИИ из Корнеллского университета. Её комментарий подтверждает системную проблему отрасли: дорогостоящие модели, позиционируемые как инструменты с «человекообразным интеллектом», часто ошибаются в базовых фактах.
OpenAI, оцениваемая в сотни миллиардов долларов, пытается смягчить реакцию, акцентируя внимание на снижении ошибок по сравнению с прошлыми версиями. Однако критики отмечают, что подобные сравнения лишь маскируют стагнацию в развитии технологий. После впечатляющего старта ChatGPT компания столкнулась с замедлением прогресса, и GPT-4.5, судя по данным, не стал прорывом.
Эксперты сходятся во мнении: для преодоления кризиса доверия индустрии необходимы фундаментальные улучшения, а не косметические апдейты. Пока же пользователи вынуждены мириться с тем, что нейросети регулярно «придумывают» факты — будь то ответ на простой вопрос или анализ сложных данных.
Источник [2]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/news/412316
Ссылки в тексте:
[1] Image: #
[2] Источник: https://www.ixbt.com/news/2025/03/02/openai-gpt-4-5-37.html
Нажмите здесь для печати.