- PVSM.RU - https://www.pvsm.ru -
Эксперт по искусственному интеллекту Майлз Брендедж, ранее занимавшийся разработкой политики в OpenAI, публично обвинил компанию в искажении истории создания модели GPT-2 и недостаточном внимании к вопросам безопасности.
Поводом стала публикация документа OpenAI, в котором компания представила стратегию «поэтапного» подхода к созданию общего искусственного интеллекта (AGI). В материале утверждается, что постепенное развёртывание технологий позволит выявлять угрозы на каждом этапе, а разработка GPT-2 описывается как «прерывистая» и изначально скрытая из-за «опасений вредоносного использования».
Брендедж, участвовавший в релизе GPT-2, раскритиковал эту позицию, заявив, что OpenAI ещё пять лет назад применяла итеративный подход.
«Выпуск GPT-2 полностью соответствовал текущей философии компании: модель распространялась поэтапно, с публикацией уроков безопасности на каждом шаге. Тогда эксперты хвалили нас за осторожность», — написал он в соцсети X. По его мнению, нынешний документ переписывает прошлое, создавая ложное впечатление, что OpenAI только сейчас переходит к продуманной стратегии.
Особое возмущение экс-сотрудника вызвал раздел документа, посвящённый оценке рисков. В нём, как отметил Брендедж, компания предлагает действовать только при наличии «неопровержимых доказательств неминуемой опасности», что, по его словам, формирует опасный прецедент: «Это подход, при котором продолжается выпуск систем, пока кто-то не докажет, что они точно взорвут мир. Для продвинутых ИИ такая логика неприемлема».
Критика прозвучала на фоне растущих претензий к OpenAI со стороны экспертного сообщества. Ранее компанию обвиняли в недостаточной прозрачности разработки, использовании конфиденциальных данных и приоритезации «блестящих продуктов» над безопасностью. Например, ChatGPT и аналогичные инструменты неоднократно распространяли опасные рекомендации — от советов есть камни до инструкций по мошенничеству. Кроме того, нейросети всё чаще становятся инструментом дезинформации и манипуляций.
Несмотря на заявленные в документе меры, такие как партнёрство с независимыми аудиторами и создание механизмов обратной связи, скептики указывают на противоречия в логике OpenAI. Компания продолжает ускоренное внедрение ИИ-продуктов, тогда как её подход к оценке угроз остаётся реактивным, а не превентивным. Как подчеркнул Брендедж, «безопасность требует активного поиска уязвимостей, а не их игнорирования до тех пор, пока они не станут очевидными для всех».
В условиях растущего регулирования отрасли подобные конфликты могут повлиять не только на репутацию организации, но и на развитие технологий в целом.
Источник [2]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/news/412974
Ссылки в тексте:
[1] Image: #
[2] Источник: https://www.ixbt.com/news/2025/03/09/openai-gpt-2.html
Нажмите здесь для печати.