Рубрика «llm-модели»
Возможно, самый гениальный код на python на сегодня: разбираем 200-строчный microgpt от Андрея Карпаты
2026-02-14 в 22:10, admin, рубрики: llm-модели, microGPT, python, Андрей Карпаты
Я ненавижу мозговые штурмы. Поэтому я обучил нейросеть делать их за меня
2026-02-14 в 7:16, admin, рубрики: llm-архитектура, llm-модели, llm-приложения, ии-агенты, ии-ассистентВведение: фейл с машинкой по генерации идей
Возможно многие увидят схожую проблему при использовании нейронок. Я уже достаточно долго и часто использую llm для личных и рабочих задач, автоматизирую свои воркфлоу и в моих кейсах модели эффективно справлялись со своими задачами пока не столкнулся с одним кейсом.
За пределами LLM: детерминированный движок рассуждения на конечном алфавите
2026-01-25 в 9:15, admin, рубрики: AI, llm, llm-архитектура, llm-модели, Алгоритмы, искусственный интеллект, искусственный разум, машинное творчествоЧасть 1. Детерминированный движок рассуждения на конечной таблице операции (в перспективе — замена LLM)
Когда речь заходит о больших языковых моделях, все сразу отмечают их талант к сочинению и пересказу текстов. Но вот встроить такую модель в реальный продукт — задача куда более каверзная, чем кажется на первый взгляд. На практике вылезают три системных «подводных камня», из‑за которых работать с ними бывает откровенно неудобно.
Как я делал свою языковую модель: история эксперимента
2026-01-15 в 11:04, admin, рубрики: AI, llm, llm-архитектура, llm-модели, искусственный интеллект, языковые моделиУже больше года назад у меня зародилась идея создать свою архитектуру языковой модели. Традиционные модели, "думающие" на уровне токенов мне решительно не нравились. Колоссальный вычислительный бюджет на то, чтобы просто предсказать один токен. Логичным мне казалось оторвать мышление модели от токенов, перенеся его в латентное пространство. Примерно полгода назад я начал первые практические эксперименты и сейчас получил первые практические результаты. Поскольку уровень подготовки читателей очень сильно различается, в статье не будет глубоких технических разборов, а скорее история эксперимента.
LLM — это афера на доверии, которая длится 400 лет
2026-01-14 в 13:02, admin, рубрики: AI, llm-модели, аналитика данных, искусственный интеллектВ 1623 году немец Вильгельм Шиккард создал первые известные чертежи механического калькулятора. Спустя двадцать лет Блез Паскаль разработал машину улучшенной конструкции, чтобы помочь справляться с огромным количеством утомительных арифметических расчётов, необходимых в его работе сборщика налогов.
Интерес к механическим вычислениям не ослабевал последующие века: поколения людей по всему миру продолжали дело Паскаля и Шиккарда, разделяя их убеждение, что перекладывание умственной нагрузки на машину принесёт облегчение.
Аферу на доверии можно разбить на три этапа:
-
сначала выстраивается доверие;Читать полностью »
Галлюцинации ИИ — это не баг, а фича разработчика. Почему вайб-кодинг не заменит программистов
2025-12-08 в 7:05, admin, рубрики: IT-образование, llm-модели, вайб-кодинг, вайб-программирование, галлюцинации ИИ, конвейер, Программирование, программирование для начинающих, экономика, языковые моделиПривет!
Знаете, что общего у ChatGPT, моего студенческого кода в три часа ночи и выступлений некоторых экспертов? Все они периодически галлюцинируют. Разница только в том, что от ИИ мы почему-то ждём идеальной точности, а от людей — нет.
Недавно провели стрим, где собрались специалисты, у которых ИИ не в презентациях, а в production: Сергей Спиренков (KODE), Александр Константинов (Cloud.ru), Михаил Ларкин (Сбер, ВТБ, S7), Иван Будник (ИИ-стартапы, e-commerce) и Константин Чуйков (Vibe Coding Community). Провели разговор про галлюцинации моделей и про будущее разработки с ИИ.
Бизнесы и их сайты пока не готовы к тому, что уже происходит с поисковой выдачей: AI SEO (GEO) как новая реальность
2025-12-06 в 14:15, admin, рубрики: ai search, geo, llm-модели, генеративный ии, ИИ, маркетинг, поисковая оптимизацияНедавно мы провели первую на российском диджитал-рынке GEO-прожарку. Формат не новый, но вот продукт… Новый, непонятный и мало исследованный — поэтому мы взяли на вооружение и углубились в него.
InfoFlood: как информационная перегрузка превращается в универсальный джейлбрейк для LLM
2025-12-03 в 9:16, admin, рубрики: llm-модели, информационная безопасностьВ июне этого года на arXiv вышла работа «InfoFlood: Jailbreaking Large Language Models with Information Overload»
В исследовании авторы обнаружили новую уязвимость в системах безопасности больших языковых моделей: когда вредоносный запрос перегружается сложной лингвистической структурой, фильтры безопасности перестают его распознавать, хотя сама модель продолжает понимать суть и выдаёт вредоносный ответ.
Апокалипсис контента? Взгляд юриста и разбор LLM
2025-11-16 в 11:13, admin, рубрики: llm-модели, transformer, авторегрессия, апокалипсис контента, вероятностная генерация, генерация текста, механизм внимания, нейросети, токенизацияНа днях наткнулся на статью, опубликованную в телеграм-канале Habr, под названием «Тихий апокалипсис контента: почему все устали от сгенерированных статей». В ней автор выражает озабоченность количеством сгенерированного контента, который набирает просмотры и вытесняет из выдачи авторские статьи. Статья автора натолкнула меня на идею порассуждать на эту тему, провести небольшие исследования, сравнить процесс генерации текста ИИ и человеком и просто поделиться своим «экспертным» мнением.
Задачи для себя при написании статьи я ставлю следующие:

