Уже больше года назад у меня зародилась идея создать свою архитектуру языковой модели. Традиционные модели, "думающие" на уровне токенов мне решительно не нравились. Колоссальный вычислительный бюджет на то, чтобы просто предсказать один токен. Логичным мне казалось оторвать мышление модели от токенов, перенеся его в латентное пространство. Примерно полгода назад я начал первые практические эксперименты и сейчас получил первые практические результаты. Поскольку уровень подготовки читателей очень сильно различается, в статье не будет глубоких технических разборов, а скорее история эксперимента.
Рубрика «языковые модели»
Как я делал свою языковую модель: история эксперимента
2026-01-15 в 11:04, admin, рубрики: AI, llm, llm-архитектура, llm-модели, искусственный интеллект, языковые моделиАнатомия Prompt Injection: Как я вошел в топ-10 глобального рейтинга Lakera Agent Breaker
2025-12-22 в 18:12, admin, рубрики: AI, bughunting, ctf, cybersecurity, leaderboard, llm, информационная безопасность, искусственный интеллект, хакатон, языковые моделиПривет. На связи Артем Бакрадзе, Head of Research в лаборатории RedVector.
В декабре 2025 я принял участие в челлендже Agent Breaker от Lakera. На данный момент я занимаю 7-ю строчку в мировом рейтинге, состоящем из около 7500 участников, и 1-е место в своей лиге (куда участники распределяются случайным образом в зависимости от назначенной LLM)
Галлюцинации ИИ — это не баг, а фича разработчика. Почему вайб-кодинг не заменит программистов
2025-12-08 в 7:05, admin, рубрики: IT-образование, llm-модели, вайб-кодинг, вайб-программирование, галлюцинации ИИ, конвейер, Программирование, программирование для начинающих, экономика, языковые моделиПривет!
Знаете, что общего у ChatGPT, моего студенческого кода в три часа ночи и выступлений некоторых экспертов? Все они периодически галлюцинируют. Разница только в том, что от ИИ мы почему-то ждём идеальной точности, а от людей — нет.
Недавно провели стрим, где собрались специалисты, у которых ИИ не в презентациях, а в production: Сергей Спиренков (KODE), Александр Константинов (Cloud.ru), Михаил Ларкин (Сбер, ВТБ, S7), Иван Будник (ИИ-стартапы, e-commerce) и Константин Чуйков (Vibe Coding Community). Провели разговор про галлюцинации моделей и про будущее разработки с ИИ.
Как некачественные данные подтачивают способности нейросетей и что с этим делать
2025-11-06 в 13:00, admin, рубрики: llm, языковые моделиЯзыковые модели помогают кодить, писать тексты, отвечают на вопросы и даже подсказывают идеи. Но все, чему они учатся, берется из интернета, а там хватает и полезного, и откровенного мусора. Ученые из Texas A&M и Purdue University выяснили, что если в обучающие наборы попадает слишком много поверхностного или ошибочного контента, модели начинают работать хуже. Этот эффект исследователи описали как «размягчение мозга» (brain rot) — по аналогии с тем, как у человека притупляется внимание после длительного погружения в поток однотипной информации.
Как оценить качество машинного перевода
2025-10-14 в 10:46, admin, рубрики: bleu, comet, llm, machine translation, машинный перевод, метрики качества, оценка качества, переводчик, переводчики, языковые моделиРаботая в области машинного перевода в компании Lingvanex, я постоянно читаю статьи в которых сравнивается качество разных переводчиков. Иногда отличие между ними составляет от 0.3 до 1% по какой-либо из метрик, но и это уже повод заявить, что их переводчик - лучший.
При оценке качества машинного перевода важно не только сравнить результаты различных систем перевода, но и проверить, являются ли обнаруженные различия статистически значимыми. Это позволяет оценить, насколько полученные результаты достоверны и могут ли они быть применимы к другим наборам данных.
ADSM: путь от вероятности к детерминизму
2025-10-08 в 20:06, admin, рубрики: adsm, llm, детерминированность, точка зрения, языковые моделиВероятностный вычислитель
Мои знания об устройстве LLM базируются на общедоступной популярной информации (в том числе и на статьях Хабра) и в какой-то мере подтверждаются практикой общения с ними. Можно смотреть на LLM как на некую разумную сущность, чья природа ортогональна человеческому разуму и поэтому плохо нами понимается, но я предпочитаю смотреть на LLM как на инструмент, созданный людьми для решения собственных, человеческих проблем.
Зоопарк фреймворков для AI-агентов: как выбрать подходящий — делаем бенчмарк и большое сравнение
2025-10-03 в 12:33, admin, рубрики: ai agent, framework, llm, агентные воркфлоу, агентные системы, агентный ИИ, агенты, ии-агенты, искусственный интеллект, языковые моделиПривет! В этой статье я детально разберу основные фреймворки для AI-агентов, попробую их побенчить и детально распишу их плюсы и минусы. Если вы подступались к агентам, то первым вопросом наверняка стало «а на чем их делать?». Отовсюду все говорят про langchain и десяток других фреймворков, звучат аббревиатуры типа MCP и A2A, какие-то Swarmы и CrewAI, мультиагентность и самое всякое разное.
«Нет, я не Байрон, я модель». Превращаем прозу в поэзию с нейросетью — мой кейс
2025-09-29 в 12:00, admin, рубрики: nlp, искусственный интеллект, нейросети, поэзия, языковые модели
Привет всем! Меня зовут Марина, я учусь на втором курсе магистратуры ВШЭ и МТС «Исследования и предпринимательство в искусственном интеллектеЧитать полностью »
Часть 1. Промпт-инжиниринг: ключевые термины и базовые техники
2025-09-18 в 8:10, admin, рубрики: промпт-инжиниринг, промпты, языковые моделиПредисловие переводчика
Эта статья (точнее, цикл статей) — адаптированный (=обезжиренный) перевод большого исследования “The Prompt Report: A Systematic Survey of Prompt Engineering Techniques” c arxiv.org. Перевод мы выполняли в тандеме с коллегой — Анастасией Тарабакиной. Поскольку мы делаем переводы для начинающих ИТ-переводчиков, многие специализированные термины мы сопроводили английскими вариантами в скобках.
Авторы оригинальной статьи также ведут обновляемый онлайн-глоссарийЧитать полностью »
