Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь, третью часть — здесь). В этой, четвертой части авторы совсем скромненько, словно тренировались заполнять налоговую декларацию, разбирают технологии аугментации извлеченных данных.
Рубрика «llm-агент» - 4
Часть 4. Обзор технологий RAG для LLM: аугментация извлеченных данных
2025-05-16 в 20:29, admin, рубрики: llm, llm-агент, llm-архитектура, llm-модели, llm-приложения, rag, rag pipeline, retrieval, retrieval augmented generation, языковые моделиLLM пайплайны укрощают сложность баз данных, или как мы подружили ИИ с БД без ИБД
2025-05-07 в 18:20, admin, рубрики: cypher, llm-агент, postgresql, rag, sql, генерация cypher, генерация sql, генерация кода, искусственный интеллект, СУБДБольшие языковые модели (Large Language Model, LLM) используют в разных областях: с их помощью генерируют программный код, ищут информацию, озвучивают реплики чат-ботов. А вот при работе с реляционными данными языковые модели часто ошибаются.
Современные уязвимости современных LLM-агентов
2025-05-05 в 11:15, admin, рубрики: gpt, grok, llama, llm, llm-attack, llm-агент, безопасностьИнструменты, задачи, рассуждения: как понять, на что способен твой LLM-агент
2025-05-01 в 11:00, admin, рубрики: AI, ai agent, DeepEval, llm, llm-агент, rag, ИИ, ии-агентыЧасть 2. Обзор технологий RAG для LLM: поиск и извлечение информации
2025-04-21 в 20:23, admin, рубрики: llm, llm-агент, llm-архитектура, llm-модели, llm-приложения, rag, terminology, языковые моделиПродолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (первую часть см. здесь) Во второй части авторы разбирают технологии оптимизации поиска и извлечения данных. Поскольку материал я готовил в первую очередь для начинающих ИТ-переводчиков, сложные и специальные термины я сопровождал английским переводом и краткими пояснениями в инфобоксах (появляются по наведению курсора). Картинок не было, не обессудьте.
Как тестировать промпты и чейны (Ручная разметка-BERTScore-LLM as judge)
2025-04-15 в 18:54, admin, рубрики: bertscore, LangChain, llm, llm-агентГод назад я написал статью “Почему важно тестировать промпты и как это делать”. В ней я рассказывал про библиотеку promptfoo, которая предлагает различные способы проверки ответов, генерируемых моделью. Сейчас рынок уже находится на другом этапе: почти никому не нужно объяснять, зачем тестировать LLM при её интеграции в продукт, однако вопрос «как именно это делать» всё ещё остаётся открытым. Причём он стал ещё острее — ведь объём тестовых запросов вырос с 30 штук до 4 тысяч.
API против GUI: Сравниваем новое поколение LLM-агентов
2025-04-05 в 6:30, admin, рубрики: api, GUI, llm, llm-агент, ИИ
Большие языковые модели (LLM) научились не только генерировать текст, но и выполнять реальные задачи, используя команды на естественном языке. Это открыло новую эру в автоматизации, породив так называемых LLM-агентов. Исследование "API Agents vs. GUI Agents: Divergence and Convergence"Читать полностью »
Исследование уязвимостей LLM-агентов: опыт Red Teaming
2025-03-30 в 15:17, admin, рубрики: gpt, llm, llm-attack, llm-агент, безопасностьПривет!
Сначала об определениях. LLM Red teaming — практика тестирования больших языковых моделей (например, GPT), направленная на выявление уязвимостей, нежелательного поведения и способов их взлома (jailbreak). Суть в том, чтобы через специальные подсказки или методы обойти защитные механизмы и ограничения LLM.


