Рубрика «llm» - 9
Эпоха автономных аналитиков: как ИИ меняет науку о данных
2025-10-22 в 9:52, admin, рубрики: llm, ИИVoice AI-системы на базе Jambonz: от телефонии к диалогу человека и машины
2025-10-21 в 16:40, admin, рубрики: agents, AI, communication, Jambonz, llmОт экспериментов Попова с радиосвязью до AI-звонков — как телефония стала основой умных коммуникаций
Агент на Kotlin без фреймворков
2025-10-21 в 12:55, admin, рубрики: java, kotlin, llm, rag, Агент, граф, ии-агенты, иммутабельность, корутины, рефакторингСтатья является продолжением «Пишем агента на Kotlin: KOSMOS», но может читаться независимо. Мотивация к написанию — сохранить читателю время на возьню с фреймворками для решения относительно простой задачи.
Автор подразумевает у читателя теоретическое понимание того, что такое агент. Иначе лучше прочесть хотя бы начало предыдущей части.
Как и везде, в программирование важен маркетинг, поэтому обертку над http-запросами в цикле называют революцией:
Как ИИ-очки предсказывают ваши желания прежде чем вы о них подумаете
2025-10-21 в 10:14, admin, рубрики: llm, ИИСобираем качественные датасеты для LLM с помощью Telegram-бота
2025-10-21 в 9:45, admin, рубрики: llm, архитектура, искусственный интеллект, машинное обучение, сбор данных для ИИ, телеграм-боты«Дайте мне качественный датасет, и я переверну Землю!» — возможно, так перефразировал бы свою крылатую фразу Архимед, доведись ему тренировать современные LLM. Хороших наборов данных в открытом доступе не так много, а собрать свой — задача не из простых. О популярных способах сбора данных для датасетов, связанных с этим рисках и о решении, которое мы используем в YADRO, сегодня и поговорим.
Меня зовут Антон Шадрин, я работаю в DevOps-команде дивизиона искусственного интеллекта YADRO. В работе с моделями искусственного интеллекта, как и в CI/CD-пайплайне, есть похожий набор шагов.
AI Review и AI-ассистент в CI-CD за 30 минут — бесплатно с OpenRouter
2025-10-20 в 6:27, admin, рубрики: AI, ai-review, claude, code review, gemini, llm, mistral, OpenAI, openrouterВведение
В этой статье я покажу, как всего за 30 минут встроить в ваш CI/CD-пайплайн полноценного AI-ревьюера и ассистента — без платных API-ключей, без интеграции с OpenAI и без лишней инфраструктуры. Всё, что нам понадобится, — это AI Review и OpenRouter — универсальный шлюз к десяткам LLM, от GPT-4o до Claude и Mistral, доступный бесплатно.
Мы настроим систему так, чтобы она автоматически запускалась при каждом Pull или Merge Request и не только оставляла комментарии к коду — от точечных inline-замечаний до Читать полностью »
RL (RLM): Разбираемся вместе
2025-10-19 в 20:24, admin, рубрики: llm, PPO, Proxi, reinforcement learning, RL, RLHF, Алгоритмы, большие языковые модели, искуственный интеллект, машинное обучениеВсем привет! Недавно я познакомился с курсом по глубокому обучению с подкреплением от HuggingFace Deep Reinforcement Learning Course и захотел сделать выжимку самого интересного. Эта статья — своего рода шпаргалка по основам Reinforcement Learning (RL) и одному из ключевых алгоритмов — PPO, который лежит в основе тонкой настройки современных LLM (Large Language Models).
Вы наверняка слышали про такие модели, как o1 от OpenAI или QwQ от Alibaba. Их "рассуждающие" способности во многом — результат применения RL. Давайте разберемся, как обычный принцип обучения, известный по играм вроде AlphaGo, помогает языковым моделям стать умнее.Читать полностью »
Внутри vLLM: Анатомия системы инференса LLM с высокой пропускной способностью
2025-10-18 в 19:53, admin, рубрики: llm, llm inference, vllm, инференс ллмПривет! Этот пост — перевод очень хардовой статьи про внутренности vLLM и того, как устроен инференс LLM. Переводить было сложно из-за англицизмов и отсутствия устоявшегося перевода многих терминов, но это слишком классная статья, и она обязана быть на русском языке! А дальше — слово автору:
От paged attention, непрерывного батчинга, кэширования префиксов , specdec и т.д. — до мульти-GPU и мультинодового динамического сервинга LLM под нагрузкой.
Встречайте OpenTSLM: семейство моделей языка временных рядов (TSLM), для анализа медицинских временных рядов
2025-10-18 в 19:27, admin, рубрики: llmЗначительное событие готово трансформировать ИИ в здравоохранении. Исследователи из Stanford University, совместно с ETH Zurich и технологическими лидерами, включая Google Research и Amazon, представили OpenTSLM — новое семейство моделей языка временных рядов (Time-Series Language Models, TSLMs).
Это прорыв, который решает ключевую проблему существующих LLM (large language models) — способность интерпретировать и рассуждать о сложных, непрерывных медицинских временных рядах, таких как ЭКГ, ЭЭГ и потоки данных носимых датчиков, где даже передовые модели вроде GPT‑4o сталкивались с трудностями.



