
Это продолжение статьиЧитать полностью »

Это продолжение статьиЧитать полностью »
Привет! 👋
Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.
В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.
Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).
Команда Python for Devs подготовила практическое руководство по сборке полноценной RAG-системы из пяти open source-инструментов. MarkItDown, LangChain, ChromaDB, Ollama и Gradio превращают разрозненные документы в умную базу знаний с потоковой генерацией ответов. Всё локально, без облаков и с открытым кодом — попробуйте собрать свой ChatGPT прямо у себя.
Бывало, вы тратили по полчаса, просматривая ветки Slack, вложения к письмам и общие диски, лишь чтобы найти ту самую техническую спецификацию, о которой коллега упоминал на прошлой неделе?
LangChain или LangGraph? Какой фреймворк для ии-агентов выбрать? А может быть LangSmith? Или LangFuse? LangFlow? Если вы сходу не отличаете все эти Lang между собой или просто хочется побольше узнать о внутренностях LangChain и LangGraph, то добро пожаловать в эту статью, которую мне хотелось сделать фундаментальной, чтобы ответить сразу на все возникающие вокруг LangChain вопросы.
Поговорим про архитектурные различия между LangChain и LangGraph, их подходы, посмотрим как это выглядит в коде, поищем лучшие точки применения и взглянем на сформированную экосистему вокруг.
В предыдущих частях мы создали умных агентов с памятью и мультимодельными системами. Но есть проблема — они всё ещё умные болтуны.
Наши агенты могут анализировать, классифицировать и синтезировать ответы, но НЕ МОГУТ:
Зайти в базу данных за информацией
Прочитать файл с диска
Сделать HTTP-запрос к API
Создать отчёт и сохранить его
Отправить email или выполнить git commit
Читать полностью »
Представьте себе AI-агента, который не просто выполняет изолированные задачи, а ведет осмысленный диалог, запоминает контекст разговора и принимает решения на основе накопленной информации.
Вместо простого:
Пользователь: "Сколько будет 2+2?"
Бот: "4"
Мы создадим агента, который может:
Пользователь: "Привет! Меня зовут Алексей, я работаю Python-разработчиком"
Агент: "Приятно познакомиться, Алексей! Как дела в мире Python? Над какими проектами сейчас работаешь?"
ПользовательЧитать полностью »
Приветствую! Дошли руки для того, чтобы оформить свои знания по теме LangGraph и LangChain в оконченный мини-курс. Сейчас вы читаете первую часть из моей 4-х серийной работы. Как вы поняли из названия, говорить мы сегодня будем про LangGraph — инструмент, который произвёл настоящий фурор в мире энтузиастов по созданию полноценных ИИ-агентов на Python и JavaScript.
Сегодня мы начнём с самых основ, а именно:
Разберёмся, что такое LangGraph, и поймём, чем он так хорош
Разберёмся с основными «китами» этого инструмента: графы, узлы (ноды), рёбра и состояния
Научимся описывать свои графы на простых примерах

Ну кто не мечтает запустить стартап за одни выходные?
Давно хотел развеяться, и чутка отвлечься от рутины и работы.
А ещё давно хотел пощупать Tauri v2, и новомодные фреймворки для построения AI-агентов (ai-sdk / mastra / llamaindex.
Друзья, приветствую! Надеюсь, успели соскучиться.
Последние пару месяцев я с головой ушёл в исследование интеграции ИИ-агентов в собственные Python-проекты. В процессе накопилось немало практических знаний и наблюдений, которыми просто грех не поделиться. Поэтому сегодня я возвращаюсь на Хабр — с новой темой, свежим взглядом и с намерением писать чаще.
На повестке дня — LangGraph и MCP: инструменты, с помощью которых можно создавать действительно полезных ИИ-агентов.