Наша полная когнитивная архитектура ENA - слоёный пирог: память, внутренние метрики, динамика состояний, контекст тела, история травм, цели, маски, защита, самосознание, вот это всё. Круто для корпораций, но сложно для обычных людей. Поэтому мы сделали то, что делают нормальные люди с задачами: взяли и срезали тонкий, но полезный слой. Только мышление. Только то, как человек:
сам видит себя себя;
принимает решения;
относится к риску и ошибкам;
каким тоном разговаривает и что для него табу.
Рубрика «llm» - 12
Цифровой двойник за один JSON и без промптов
2025-12-17 в 11:22, admin, рубрики: AI, llm, llm-приложенияУскоряем LLM по максимуму. Как я создал кросс-платформенный Flash Attention с поддержкой Turing+ архитектур и не только
2025-12-16 в 18:37, admin, рубрики: attention, FlashAttention, llm, Transformers, triton, большие языковые модели, внимание, машинное обучение, оптимизация производительности, трансформерыМороз по коже: LLM может оценить ваш код, а ИИ-компании — использовать это в своих целях
2025-12-16 в 13:01, admin, рубрики: claude, llm, ruvds_статьи, информационная безопасность, ноу-хау, открытия
Личный опыт: когда ИИ оценил гениальное ноу-хау
Разделяй и властвуй: отличие классов генеративных и предсказательных моделей в биоинженерии и NLP
2025-12-15 в 20:38, admin, рубрики: llm, биодизайн, Биотехнологии, генеративные модели ии, дизайн белков, ИИ, ИИ и машинное обучение, предиктивные технологииDe Novo дизайн молекул против предсказания текста: fight!
Возможно, факты покажутся очевидными, но я сознательно проговариваю их отдельно, потому что в сети смешиваются разные классы моделей — уверена, что и вы постоянно сталкиваетесь с утверждением, мол, «ИИ не способен создать ничего нового, модели только перерабатывают существующие данные».
Это мнение особенно распространено в контексте больших языковых моделей (LLM), GPT-подобных систем.
Но.
Биоинженерия сейчас входит в топовые тренды 2024-2025 как часть технологического «суперцикла» ИИ.
Читать полностью »
Синдром бесконечного окна: почему 1 миллион токенов в LLM не решает ваши проблемы (пока)
2025-12-15 в 7:59, admin, рубрики: AI, context window, context-engineering, llm, нейросети, сезон ии в разработкеПривет! Меня зовут Сергей Нотевский, я AI Platform Lead в Битрикс24.
Год назад индустрия жила лозунгом «Scale is all you need», перекладывая его на размер контекстного окна. 32k казались прорывом, 128k - стандартом, а Gemini с 1M+ токенов - убийцей RAG.
Сейчас, в 2025-м, я вижу, как этот миф разбивается о реальность. Разработчики пихают в промпт целые книги, логи за неделю и дампы баз данных, а на выходе получают галлюцинации и «кашу».
Давайте вооружимся свежими бенчмарками и разберемся, почему «поддерживаемый контекст» ≠ «рабочий контекст», что такое Context Rot (гниение контекста) и как с этим жить.
1. Маркетинг vs Физика Attention
Как реализовать выборочную долговременную память в LLM-боте на Python
2025-12-14 в 8:15, admin, рубрики: bot, bots, llm, python, telegrambotLLM-модели хорошо решают задачи диалога, но имеют одно ключевое ограничение: отсутствие встроенной долговременной памяти. Модель опирается только на текущий контекст сообщений, и при его обрезании:
-
забывает факты
-
путает детали
-
теряет согласованность личности
-
повышается стоимость из-за длины контекста
В этой статье я хочу разобрать архитектуру, которую использовал для реализации выборочной памятиЧитать полностью »
Как квантовать LLM. Практическое руководство для начинающих
2025-12-10 в 18:37, admin, рубрики: llm, искусственный интеллект, квантование, оптимизация нейросетейВсем привет! Меня зовут Максим, я NLP‑инженер в red_mad_robot и автор Telegram‑канала Максим Максимов // IT, AI. Рост числа параметров в LLM и других нейронных сетях создает проблему того, что запускать их может все меньшее количество людей. Это связано с тем, что запуск больших моделей требует наличие мощного оборудования, недоступное всем.
Для решения этой проблемы разрабатываются различные виды оптимизации, позволяющие запускать крупные нейронные сети (в частности LLM) на менее мощном оборудовании. Одним из наиболее популярных подходов оптимизации LLM является квантизация.
Поиск работы в Telegram: как автоматизировать рутину с помощью JobStalker
2025-12-10 в 10:16, admin, рубрики: job-scheduler, jobscheduler, llm, llm-приложения, Ollama, python, telegram, telegrambot, vacancyПоиск работы часто превращается в бесконечный скроллинг по Telegram-каналам: десятки уведомлений, тонны сообщений, чтение длинных описаний вакансий, попытки понять, подходит ли это тебе. А ведь Telegram — один из самых популярных источников свежих предложений о работе, особенно в IT, маркетинге и фрилансе. Но вручную фильтровать всё это — сплошная потеря времени. Здесь на помощь приходят современные технологии: машинное обучение, которое может анализировать текст лучше, чем человек, и автоматизировать процесс.
Именно из этой идеи родился JobStalkerЧитать полностью »
Создание корпоративной Базы Знаний для внедрения LLM-инструментов
2025-12-09 в 15:12, admin, рубрики: knowledge bases, knowledge management, llm, rag, база знаний, внедрение ии, искусственный интеллект, цифровизация бизнес-процессов, Чат-ботыВ статье описываю практический опыт построения корпоративного ИИ-ассистента: от структуры базы знаний и графовой модели до фильтрации контекста и контроля версий. Материал будет полезен продактам, архитекторам, маркетологам и всем, кто внедряет ИИ в бизнес-процессы.
«Garbage in - garbage out», как мусор в корпоративной Базе Знаний мешает корректной работе ИИ и как мы предлагаем это исправить.
Сегодня многие компании внедряют ИИ-агентов по упрощённому сценарию: загружают PDF-регламенты, Excel-прайсы и архивы переписок в векторную БД, после чего ожидают, что модель будет корректно отвечать на вопросы пользователей.Читать полностью »
13 рецептов создания AI-ассистента для музыкального театра: от онбординга до классификатора
2025-12-09 в 14:36, admin, рубрики: Claude Sonnet, llm, n8n, prompt engineering, workflow, автоматизация, чат-ботВ предыдущей статье на ХАБРе (https://habr.com/ru/articles/972634/) я рассказал о том, что создал за 6 недель CRM для Музыкального театра. Сейчас кажется, что статья получилась абстрактной, в стиле: “из молока можно приготовить сырники, мороженое и кефир - и процесс увлекателен, если ты опытный повар!”. Возможно, зайдет рассказ о том как приготовить то или иное блюдо, этакая книга рецептов - погнали.

