
Сервисы с ИИ развиваются стремительно — сегодня почти каждый продукт старается встроить в себя хотя бы один нейросетевой‑модуль. Иногда достаточно одной фразы «Мы используем искусственный интеллект», чтобы привлечь внимание аудитории и повысить интерес к продукту.
Однако чем глубже ИИ встраивается в реальные бизнес‑процессы, тем выше становится запрос на его ответственное использование и управление им. Возникает очевидный вопрос: как убедиться, что такие системы этичны, устойчивы и безопасны?
Для крупных разработчиков LLM доверие стало одной из ключевых целей. Чтобы его добиться, компании стремятся продемонстрировать прозрачность работы моделей, объясняют их решения, применяют механизмы обеспечения справедливости и недискриминации, а также используют стратегию управления рисками.
Меня зовут Анна Зинчук, я руководитель службы комплаенса и обучения информационной безопасности. В статье я расскажу, как измерить доверие к ИИ и закрепить его.
Почему доверие к ИИ так важно
Чтобы пользователи чувствовали себя увереннее при работе с ИИ, важно закрывать сразу несколько критичных вопросов. В первую очередь — конфиденциальность и безопасность.
Не менее важно, чтобы работа была прозрачной: люди хотят понимать, как устроена модель и на чём основаны её ответы. Возможность верификации информации — например, наличие ссылок на источники — тоже играет большую роль в формировании доверия.
Многие компании дополнительно предоставляют опцию локального использования: развёртывание on‑premises внутри периметра организации помогает снизить риски утечек. Отдельный блок — инструменты RAG (retrieval‑augmented generation) и гибкие ограничения по домену знаний: они позволяют задавать чёткие рамки, в которых ИИ формирует ответы, например только в рамках юридической тематики.
Наконец, важны открытость компании в разборе инцидентов и подтверждение качества решений — будь то экспертные оценки или сертификация по отраслевым стандартам.
Можно выделить шесть основных рисков, связанных с ИИ:
-
Зависимость и потеря навыков. Кажется, такой же риск видели для библиотек, когда появился интернет. Люди боятся, что ИИ их заменит или они перестанут критически мыслить.
-
Этические риски. Что, если модель будет кого‑то дискриминировать, обижать, окажется токсичной? Кто несёт ответственность за вредный совет?
-
Галлюцинации. GPT может уверенно выдумывать информацию, особенно если не знает ответа или вопрос некорректен. Наверное, многие слышали, как модели выдумывали цитаты, которые никогда не звучали на самом деле.
-
Конфиденциальность и утечка данных. Люди боятся, что введённая ими или другими пользователями информация может быть включена в выдачу. Особенно этого опасаются корпоративные клиенты, медицинские и юридические организации.
-
Манипуляции и влияние на мнение. GPT выдаёт очень убедительные ответы, что может искажать факты и распространять неверную информацию.
-
Непонятные источники. Людям непонятно, откуда модель взяла такой ответ, где первоисточник и на какой ресурс она опирается. Это снижает доверие к ответам моделей.
Сертификация ISO 42001: дополнительная гарантия надёжности
Доверие к ИИ‑сервисам сегодня строится не только на внутренних регламентах компаний, но и на прозрачных, внешне подтверждённых стандартах. Технологии развиваются довольно быстро, поэтому отраслевые стандарты становятся важным инструментом для пользователей и бизнеса.
В конце 2023 года был принят первый международный стандарт управления ИИ — ISO 42 001. Уже к середине 2025 года по нему сертифицированы Amazon Bedrock, Textract, Anthropic, Microsoft Copilot и ряд других решений крупных игроков.
И мы не отстаём от мирового опыта: в июне 2025 года YandexGPT успешно прошла сертификацию ISO 42 001. В область сертификации вошли все ключевые процессы разработки модели и её предоставления через сервис Yandex Cloud AI Studio. Для пользователей это означает, что у сервиса есть понятные механизмы обеспечения безопасности, конфиденциальности и этичного применения ИИ — и всё это проверено независимым аудитом.
Что такое ISO/IEC 42001 и что он учитывает
ISO/IEC 42 001 — это первый международный стандарт, который задаёт понятные рамки для управления технологиями искусственного интеллекта. Он предлагает системный подход: от этики и прозрачности до защиты данных и ответственности всех участников процесса. По сути, этот стандарт помогает встроить ИИ в бизнес так, чтобы риски были осознанными и управляемыми.
ISO 42 001 охватывает все ключевые области:
-
ведение инвентаризации компонентов разработки модели;
-
описание архитектуры и всех элементов системы управления;
-
чёткую политику использования ИИ, включая принципы этики и оценки влияния на людей, группы и общество в целом;
-
оценку рисков и баланса между позитивным и негативным влиянием технологий;
-
описание роли человека в системе с ИИ;
-
правила жизненного цикла модели и механизм проверки их соблюдения;
-
безопасную разработку и управление уязвимостями;
-
политику управления данными, на которых обучается модель, и их использованием;
-
правила информирования пользователей и третьих сторон о том, как ИИ влияет на них и что происходит в случае инцидентов;
-
понимание и описание зон применения ИИ — от экологии и финансов до политики и медицины;
-
участие третьих сторон в жизненном цикле модели;
-
соответствие действующему законодательству.
Важно, что ISO 42 001 не живёт в вакууме: при работе с этим стандартом компании начинают с определения ролей в системе ИИ. Таких ролей — шесть, и они подробно описаны в связанном стандарте ISO/IEC 22 989.
|
Роль |
Описание |
|
AI Provider |
Предоставляет платформы или ИИ‑продукты/сервисы |
|
AI Producer |
Разрабатывает и тестирует ИИ‑решения |
|
AI Customer |
Заказывает или использует ИИ, но не участвует в разработке |
|
AI Partner |
Интегрирует, обучает, аудитирует ИИ |
|
AI Subject |
На кого влияет ИИ (люди, данные и т. п.) |
|
Relevant Authorities |
Регулируют, устанавливают политику и контроль за использованием ИИ |
Сертифицироваться по ISO 42 001 можно на любую роль или их комбинацию — главное, чтобы в компании была выстроена система управления ИИ (AIMS). В нашем случае в область сертификации попали сразу две ключевые роли: разработка самой модели (AI Producer) и предоставление платформы на базе Yandex Cloud (AI Provider).
Набор требований стандарта напрямую зависит от того, какие роли включены в скоуп сертификации. На практике это важно: требования к процессам разработки и обучению модели сильно отличаются от требований к системе, которая эту модель использует.
Нам близок подход, при котором сертифицируется именно компания и её процессы, а не конкретная «установка» модели. Такой подход позволяет технологиям развиваться гибко, следуя за рынком, но при этом — в понятных и проверяемых рамках.
Почему YandexGPT понадобилась сертификация
Сертификация YandexGPT не возникла на пустом месте. Мы и раньше придерживались принципов ответственного подхода к разработке продуктов и развитию технологий ИИ. В 2021 году Яндекс участвовал в разработке Кодекса этики в сфере ИИ в составе Альянса в области ИИ, а также компания подписала Декларацию об ответственном генеративном ИИ. А ещё внутри Яндекса действует этический комитет, закреплены принципы ответственного ИИ, которым мы неотступно следуем, а процессы управления данными для обучения и тестирования моделей встроены во все этапы разработки.
Что касается информационной безопасности, то к ИИ мы всегда относились так же серьёзно, как и к любому другому нашему продукту. С самого начала был налажен процесс управления уязвимостями, архитектура проходила аудит в рамках SDLC, а внутренняя экспертиза по безопасности покрывала как разработку, так и внедрение моделей.
Сама сертификация не была «волшебной кнопкой», но стала точкой роста: параллельно с ней мы серьёзно укрепили безопасность решений с ИИ внутри. Например, мы описали существующие атаки на генеративные LLM и наладили обмен знаниями внутри команды, внедрили AI Threat Modelling (OWASP AI Matrix), усилили правила работы с чувствительными данными, создали чек‑листы для проверки сервисов с ML и отдельные процессы реагирования на инциденты — в том числе в случаях, если модель начнёт выдавать неожиданные или нежелательные ответы.
Некоторые практики уже применялись, но не были формализованы. Например, управление рисками и оценка влияния продукта на разные группы пользователей. Готовясь к сертификации, мы оформили эти практики в отдельные процессы. Появился даже новый формат — оценка воздействия: ключевые сотрудники из разных направлений собираются и обсуждают, как развитие ИИ может повлиять на людей, компании и общество.
Недавно мы запустили отдельную инициативу в рамках программы «Охота за ошибками» — AI / ML Security. Мы пригласили исследователей находить уязвимости в системах и приложениях, использующих генеративные нейросети. Это включает как потенциальные проблемы в самих ML‑моделях, так и ошибки конфигурации в инфраструктуре, которая обеспечивает их работу.
Процесс сертификации от идеи до сертификационного аудита занял чуть меньше года. Это стандартно для прохождения всех этапов развития систем управления. Мы начали с внешнего GAP‑анализа и посмотрели на общую картину с точки зрения стандарта ISO. Обучили своих специалистов ISO 42 001. Сделали очередную итерацию оценки рисков — это уже сложившаяся практика в компании. Затем небольшая магия с документами, которые требуются по стандарту. Описание процессов управления данными, обучения и тестирования модели, процессы безопасной разработки и этические принципы у нас уже были из коробки. Завершал процесс внутренний аудит и затем уже внешний сертификационный.
Итоги
Внедрять и проходить сертификацию по совершенно новому, ещё только формирующемуся международному стандарту — особенно в такой быстро меняющейся области, как ИИ, — действительно было непросто. Но в итоге сертификат ISO 42 001:
-
дал возможность для клиентов, которые покупают или получают доступ к API нашей GPT‑модели, строить собственные ИИ‑системы, опираясь на прозрачную и формально подтверждённую базу;
-
стал доказательством того, что мы управляем рисками — этично, прозрачно и с учётом безопасности;
-
подтвердил нашу экспертизу в разработке надёжных и безопасных решений на базе ИИ.
И, наконец, полученный сертификат — признание того, что мы развиваем технологии в одной парадигме с мировыми лидерами.
Автор: irm1n
