Рубрика «AI Security»
Хакнуть ИИ: обзор игры «Защищ[AI]» — киберполигона для изучения промт-инъекций
2026-02-11 в 8:00, admin, рубрики: AI, AI Security, llm, selectel, ИИ, промт, Промт-инъекцииRLM-Toolkit v1.2.1: Теоретические основы и оригинальные разработки
2026-01-19 в 14:27, admin, рубрики: AES-256, AI Security, Information Bottleneck, llm, MCP, rag, RLM, Sentinel, криптография, сжатие контекстаНаучное исследование архитектурных решений в контексте теории информации, криптографии и когнитивных систем
📌 Это продолжение статьи RLM-Toolkit: Полное руководство по обработке 10M+ токенов
Первая часть охватывала практические аспекты. Здесь — глубокий теоретический анализ: от теории Шеннона до когнитивной архитектуры памяти.
Аннотация
Настоящая работа представляет комплексный анализ архитектурных решений RLM-Toolkit v1.2.1, разработанного в рамках проекта SENTINEL AI Security Platform.
Мы демонстрируем:
-
Криптографическую необходимостьЧитать полностью »
Почему ваша нейросеть всегда предаст вас ради вежливого хакера с плохими намерениями?
2026-01-16 в 23:26, admin, рубрики: AI Security, alignment, jailbreak, prompt injection, red teaming, RLHF, tokenization, transformerДисклеймер: Эта статья — не руководство по взлому (How-to) и не сборник эксплойтов. Это попытка системного анализа архитектурных ограничений LLM, которые делают промпт-инъекции фундаментальной проблемой на текущем этапе развития технологий. Мы рассмотрим уязвимости через призму механики Attention, токенизации и RLHF, чтобы понять, почему классические детерминированные методы защиты (Black Box) здесь перестают работать.
Прошло уже больше 3 лет с момента появления первой промпт-инъекции. Кажется, что за это время было сделано всё возможное, были потрачены бюджеты небольших стран на Red TeamingЧитать полностью »
Тестирование AI-систем и роль MCP-сервера: теория и практика глазами QA
2025-11-04 в 11:15, admin, рубрики: AI Security, AI-тестирование, MCP, model context protocol, Neon MCP, qa, qa testing, безопасность AI«Машина может пересчитать все звёзды на небе, но не может понять, зачем человек смотрит на них».
— Айзек Азимов
В одну из пятниц у нас была обычная онлайн‑встреча. Еженедельный обмен знаниями, так сказать. Коллега решил показать что‑то «интересное про MCP» — и началось всё безобидно, с классического объяснения теоретической части. Но спустя час было очень тихо на звонке. Никто не перебивал, не шутил, не задавал вопросов, просто все слушали и пытались осознать происходящее. Тема оказалась куда глубже, чем мы ожидали, и, как выяснилось, напрямую касается того, чем мы занимаемся каждый день.
Как построить безопасный MLOps-pipeline: Tier-уровни зрелости, принципы и реальные инструменты
2025-06-26 в 9:12, admin, рубрики: AI safety, AI Security, DevSecOps, Kubernetes ML, mlops, mlsecops, безопасная разработка ML, жизненный цикл ML моделиМодели машинного обучения (ML) становятся ключевой частью современных продуктов и сервисов, и вопросы их безопасной разработки выходят на первый план. Однако на практике у многих команд нет понимания, как именно выстраивать защиту — на каких этапах, с помощью каких инструментов и против каких угроз.
Меня зовут Александр Серов, я ведущий специалист по безопасности больших языковых моделей в Swordfish Security. В этой статье я покажу, как подходить к безопасности ML-систем системно — через уровни зрелости, жизненный цикл моделей и реальные практики.
Илон Маск заинтересовался взломом AI-агента на $50000
2025-02-23 в 15:40, admin, рубрики: AI Security, ai-агенты, безопасность, вызовы функций, искусственный интеллектAI-агенты, способные самостоятельно обращаться к функциям системы для решения задач, набирают популярность. На прошлой неделе OWASP опубликовал гайд об угрозах для AI-агентов и примеры уязвимостей на базе популярных фреймворков: LangChain, LangGraph, CrewAI, OpenAI Swarm. Участник лаборатории ИТМО AI Security Lab Александр Буянтуев предложил версию криптоагента FreysaЧитать полностью »
DeepSeek vs Mixtral: что безопаснее использовать для корпоративного чат-бота?
2025-02-05 в 10:05, admin, рубрики: AI RedTeaming, AI Security, deepseek, llm, mixtral, ragЯзыковая модель DeepSeek R1 наделала много шума в начале этого года. Сначала в AI-сообществе с восхищением обсуждали, как китайцам удалось получить качество генерации текста на уровне передовых западных моделей при меньших затратах на обучение. Затем восторг сменился жёсткой критикой о политической предвзятости, копировании моделей OpenAI и доступности истории запросовЧитать полностью »
Под микроскопом: AI Product Hack
2024-10-29 в 19:57, admin, рубрики: AI Security, BERT, llm, lora, mlops, nlp (natural language processing)Сколько раз вы были свидетелями судейства на хакатонах, которое, на первый взгляд, казалось неверным? Думаем, таких случаев было много.
Сегодня мы посмотрим на результаты AI Product Hack и постараемся разобраться в том, кто после присуждения мест оказался прав: раздосадованные поражением участники команд или судьи.
В частности мы будем рассматривать кейс компании Raft - “Мониторинг токсичного контента в AI-продуктах”.

![Хакнуть ИИ: обзор игры «Защищ[AI]» — киберполигона для изучения промт-инъекций - 1 Хакнуть ИИ: обзор игры «Защищ[AI]» — киберполигона для изучения промт-инъекций - 1](https://www.pvsm.ru/images/2026/02/11/haknut-ii-obzor-igry-zashish-AI--kiberpoligona-dlya-izucheniya-promt-inekcii.png)