Основные выводы
-
В этом исследовании мы рассмотрели уязвимости, которые влияют на любые агенты на базе Large Language Model (LLM), которые могут выполнять код, загружать документы и получать доступ в Интернет.
-
Они могут позволить злоумышленникам запускать несанкционированный код, вставлять вредоносный контент в файлы, получать контроль и допускать утечку конфиденциальной информации.
-
Организациям, использующим искусственный интеллект (ИИ) для математических вычислений, анализа данных и других сложных процессов, следует проявлять бдительность в отношении связанных с этим рисков безопасности.




