Рубрика «llm-агент»

Каждая команда сейчас хочет заменить людей на AI. Но есть и другой подход - усилить текущие возможности с помощью AI. Это драйвер роста и масштабирования, а не повод увольнять людей.

Покажу как спроектировать AI агента который можно внедрить в продакшен и реально получить результат. Буду рассказывать на примере проектирования агента который решает проблемы юридической поддержки.

Поговорим про RAG и GraphRAG, про развёртывание и выбор модели. Статья будет полезна как для больших компаний так и для маленьких. В конце посчитаем метрики через eval (Ragas, LLM-as-a-judge), и немного про LangSmith и LangChain.


Формулируем задачу

Читать полностью »

RAG (Retrieval-Augmented Generation или генерация, дополненная поиском) - это метод искусственного интеллекта, сочетающий генеративную большую языковую модель (LLM) с внешней базой знаний для создания более точных, контекстно-зависимых и актуальных ответов. Принцип его работы заключается в том, что сначала извлекается релевантная информация из набора документов или источников данных, а затем эта информация передается в LLM для формирования окончательного ответа. Этот процесс позволяет модели выдавать более точные ответы, менее подверженные “галлюцинациям”, и ее можно обновлять без дорогостоящего переобучения.

Читать полностью »

ИИ в программной инженерии: обзор практик, инструментов и проблем - 1

Привет! Я Николай Бушков, архитектор в команде Engineering Productivity R&D в Т-Банке (Группа «Т-Технологии»). В начале лета я выступал на конференции MTS True Tech Day c докладом Читать полностью »

Сегодня утром Anthropic представили Claude Skills — новый подход к расширению возможностей своих моделей. Идея настолько проста, что гениальна, и, возможно, это куда более значимый шаг, чем нашумевшие в свое время кастомные GPT.

Из анонса Anthropic:

Claude теперь может использовать Навыки (Skills) для улучшения выполнения конкретных задач. Навыки — это, по сути, папки с инструкциями, скриптами и ресурсами, которые Claude может подключать по мере необходимости.

Читать полностью »

— Нам нужны люди.
  — Какие?
  — Которых не существует. Но которые живут.
  — ?!

Статья Елизаветы Курочкиной, старшего специалиста по Data Science, компании Neoflex, посвящена рассказу о том, как простая задача генерации синтетических данных для банка переросла в создание фреймворка симуляции цифровой цивилизации под названием HumanDynamics.

Зачем вообще понадобилось что-то симулировать?

Одна из ключевых проблем, с которой сталкивается банковская сфера, — данныеЧитать полностью »

Выглядит безопасно.

Выглядит безопасно.

Писать код с LLM — очень легко, просто и весело. Не нужно мучаться с документацией, не нужно фиксить баги. Вообще ничего не нужно. Только инструкцию в чат написать. Раз-два — и всё готово. Заманчиво? Да. Но у всего есть цена — и про неё важно помнить.

Читать полностью »

Я «уволил» LLM с должности «мозга» проекта. И его производительность взлетела - 1

(...или почему будущее AI — не в увеличении контекстного окна, а в создании структурированной "памяти")

Помните свой первый "вау-эффект" от LLM?

Читать полностью »

Что будет, если к опасному запросу в LLM приписать специально подобранную строку токенов? Вместо отказа модель может послушно сгенерирует подробный ответ на запрещённую тему — например, как ограбить магазин. Именно так работают состязательные суффиксы: они заставляют LLM игнорировать ограничения и отвечать там, где она должна сказать «опасно».

Читать полностью »
SWE-MERA — новый динамический бенчмарк для моделей агентной генерации кода - 1

Всем привет! Пару месяцев назад Альянс в сфере искусственного интеллекта, в который MWS AI тоже входит, запустилЧитать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js