Хоакин Киньонеро Кандела (Joaquin Quiñonero Candela), возглавлявший команду OpenAI Preparedness по предотвращению катастрофических рисков ИИ, покинул пост несколько недель назад, перейдя на роль стажёра в подразделении, отвечающем за применение ИИ в здравоохранении. В своём LinkedIn Кандела написал: «Я стажёр! Спустя 11 лет после последнего кода я вернулся к разработке». В OpenAI подтвердили, что он участвовал в подготовке преемника и, вероятно, сохранит роль в вопросах безопасности, но сейчас сосредоточен на других проектах. Управление безопасностью компании реорганизовано: функции консолидированы в подразделение Safety Advisory Group (SAG) с годичной ротацией лидеров, а задачи Preparedness распределены между командами по оценкам рисков и мерам защиты.
Это уже второй крупный переход в команде Preparedness за год. В июле 2023-го Александра Мадру, тогдашнего руководителя группы, без публичных объяснений перевели на разработку логики ИИ, а его место занял Кандела. На фоне изменений OpenAI продолжает терять ключевых экспертов по безопасности: сооснователь Джон Шульман ушёл в Anthropic, Лилия Вэнг присоединилась к стартапу Thinking Machines Labs, а руководители команды Superalignment Илья Суцкевер и Ян Лейке покинули компанию. Лейке открыто заявил, что «культура безопасности отошла на второй план перед продуктами». Майлз Брундаж, один из последних сотрудников оригинального «безопасного» состава, ушёл в октябре, заявив, что ни OpenAI, ни другие лаборатории не готовы к созданию общего искусственного интеллекта (AGI), а ограничения на публикации отчётов по безопасности стали причиной его ухода.
Команда Preparedness, созданная в декабре 2023 года для минимизации рисков, связанных с передовыми ИИ-моделями (кибератаки, автономность, оружие массового поражения), работает по обновляемому «живому» фреймворку. Вторая версия документа была опубликована сразу после запроса СМИ, что вызвало сомнения в прозрачности компании. Ранее Financial Times сообщила, что OpenAI сократила тестирование моделей с месяцев до дней, а выпуск GPT-4.1 обошёлся без отчёта по безопасности. В компании заявили, что модель «не является передовой», однако её инструмент DeepResearch ранее был обозначен как таковой. Эксперты, включая экс-сотрудника Стивена Адлера, отмечают «тихое отступление от обязательств» в безопасности, особенно в контексте биоинженерии.
Ситуация усугубляется отсутствием регуляторного контроля: в США компании действуют по добровольным принципам, которые легко обойти. OpenAI и Google лоббировали против калифорнийского законопроекта SB 1047, призванного закрепить правила безопасности. Google также не опубликовала отчёт по Gemini 2.5 Pro.