Рубрика «agents»

В статье разбираем архитектурный паттерн, где LLM вынесена из ядра принятия решений в сервисную роль, а управление диалогом осуществляет stateful-субъект. Показываем реализацию механики "осознанного обращения к LLM" (deliberate query) на основе оценки внутреннего состояния, в отличие от жестких пайплайнов типа ReAct или CoT.

Проблема "LLM-центричности"
Большинство современных агентов строятся вокруг промпта к модели:
Context + Prompt - LLM - Action/Answer
Это делает агента заложником стохастики модели. Мы предлагаем инверсию:
Agent State - Decision Logic - (Optional LLM Call) - Answer

Архитектура ENA
Читать полностью »

Перевод статьи Best practices for coding with agents от команды Cursor

Агенты для написания кода меняют то, как создаётся программное обеспечение.

Модели теперь могут работать часами, выполнять амбициозные рефакторинги множества файлов и итерироваться до тех пор, пока тесты не пройдут. Но чтобы максимально эффективно использовать агентов, нужно понимать, как они работают, и развивать новые паттерны.

Читать полностью »

Наш опыт работы с клиентом, которому мы помогли превратить один большой AI-монорепозиторий в структурированную экосистему агентов, инструментов и регистров.

Построение инфраструктуры AI-агентов: три пути от хаоса к масштабируемым системам

Если вы хотите поиграться с LLM у вас есть несколько вариантов: можно задействовать LLM через код, можно воспользоваться чатом одного из облачных провайдеров, а можно развернуть у себя UI-клиента для работы с LLM. Их довольно много. И функционал у них может сильно различаться. В самом простом виде есть только чат. У наиболее продвинутых есть встроенные базы знаний, работа с изображениями и много других функций.

Ниже краткий обзор 9 таких клиентов (отсортированы по предпочтению автора):

  1. Open WebUI

  2. LM Studio

  3. Msty Studio

  4. Librechat

  5. Читать полностью »

От экспериментов Попова с радиосвязью до AI-звонков — как телефония стала основой умных коммуникаций

Voice AI-системы на базе Jambonz: от телефонии к диалогу человека и машины

Voice AI-системы на базе Jambonz: от телефонии к диалогу человека и машины

Читать полностью »

Model Context Protocol (MCP) — это открытый протокол, разработанный компанией Anthropic. Он призван унифицировать способ взаимодействия между LLM и сторонними сервисами, инструментами и источниками данных.

До появления MCP каждому разработчику приходилось пилить свой велосипед для каждого сервиса. При этом один API требовал одного формата, другой — совершенно другого. А в случае изменений сервиса приходилось менять и клиентскую сторону. В общем проблем было много. MCP же оставил большинство этих проблем позади.

В данной статье на примере простых CRUD-операций разберем, что такое MCP-сервер, как его создать и как подружить с LLM.

Читать полностью »

LLM - мощный инструмент, но его эффективность в продакшене зависит не от одного «хитрого промпта», а от всей архитектуры: что мы даём модели, как управляем её рассуждением и как проверяем/обрабатываем результат. В этой статье - компактная карта паттернов, разбитая по этапам конвейера: Input -> Reasoning -> Output.

Введение

Статей про LLM - вагон, и у всех свои "трюки". Мне не хватало схемы, которая раскладывала бы эти "трюки" по полочкам.

Читать полностью »

В прошлой публикации я кратко описал своё представление о наиболее важных ограничениях Моделей (LLM):

  • работа только с текстом: вход и выход - текстовые файлы;

  • ограниченность контекстного окна;

  • все входные данные и все результаты одного диалога размещаются в рамках одного контекстного окна;

  • расширяющийся контекст (вход меньше выхода) - признак "творческой" работы Модели, сужающийся - признак "инженерной" работы (повторяемой);

  • противоречивые (или просто лишние) данные приводят к размыванию контекста и снижению повторяемости;

Читать полностью »

Приветствую, товарищи разработчики. В этой статье я бы хотел поднять небольшой эксперимент, на который я потратил 2 недели ленивого анализа и разработки. Как понятно из названия, речь пойдет о десктопном агенте на базе open-source языковой модели от Google - Gemma 3 на 1 миллиард параметров. Сразу уточню, что это моя первая статья, поэтому если возникнет критика по поводу оформления или подачи - прошу расписать в комментариях.

С чего началось

А началось все со статьи на форуме Reddit, где парень, используя Ollama, Gemma 3 1b и
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js