Команда AI for Devs подготовила перевод краткой выжимки свежих статей о безопасности LLM. Meta предлагает «Правило двух» — архитектурный принцип, ограничивающий права AI-агентов, чтобы защитить их от prompt injection. А исследователи из OpenAI, Anthropic и Google DeepMind показывают: все существующие защиты легко обходятся адаптивными атаками.
На этих выходных мне попались две интересные работы о безопасности LLM и атаках через prompt injection.
Agents Rule of Two: Практический подход к безопасности AI-агентов
Первая статья — Agents Rule of Two: A Practical Approach to AI Agent SecurityЧитать полностью »




