Языковые модели помогают кодить, писать тексты, отвечают на вопросы и даже подсказывают идеи. Но все, чему они учатся, берется из интернета, а там хватает и полезного, и откровенного мусора. Ученые из Texas A&M и Purdue University выяснили, что если в обучающие наборы попадает слишком много поверхностного или ошибочного контента, модели начинают работать хуже. Этот эффект исследователи описали как «размягчение мозга» (brain rot) — по аналогии с тем, как у человека притупляется внимание после длительного погружения в поток однотипной информации.
Рубрика «языковые модели»
Как некачественные данные подтачивают способности нейросетей и что с этим делать
2025-11-06 в 13:00, admin, рубрики: llm, языковые моделиКак оценить качество машинного перевода
2025-10-14 в 10:46, admin, рубрики: bleu, comet, llm, machine translation, машинный перевод, метрики качества, оценка качества, переводчик, переводчики, языковые моделиРаботая в области машинного перевода в компании Lingvanex, я постоянно читаю статьи в которых сравнивается качество разных переводчиков. Иногда отличие между ними составляет от 0.3 до 1% по какой-либо из метрик, но и это уже повод заявить, что их переводчик - лучший.
При оценке качества машинного перевода важно не только сравнить результаты различных систем перевода, но и проверить, являются ли обнаруженные различия статистически значимыми. Это позволяет оценить, насколько полученные результаты достоверны и могут ли они быть применимы к другим наборам данных.
ADSM: путь от вероятности к детерминизму
2025-10-08 в 20:06, admin, рубрики: adsm, llm, детерминированность, точка зрения, языковые моделиВероятностный вычислитель
Мои знания об устройстве LLM базируются на общедоступной популярной информации (в том числе и на статьях Хабра) и в какой-то мере подтверждаются практикой общения с ними. Можно смотреть на LLM как на некую разумную сущность, чья природа ортогональна человеческому разуму и поэтому плохо нами понимается, но я предпочитаю смотреть на LLM как на инструмент, созданный людьми для решения собственных, человеческих проблем.
Зоопарк фреймворков для AI-агентов: как выбрать подходящий — делаем бенчмарк и большое сравнение
2025-10-03 в 12:33, admin, рубрики: ai agent, framework, llm, агентные воркфлоу, агентные системы, агентный ИИ, агенты, ии-агенты, искусственный интеллект, языковые моделиПривет! В этой статье я детально разберу основные фреймворки для AI-агентов, попробую их побенчить и детально распишу их плюсы и минусы. Если вы подступались к агентам, то первым вопросом наверняка стало «а на чем их делать?». Отовсюду все говорят про langchain и десяток других фреймворков, звучат аббревиатуры типа MCP и A2A, какие-то Swarmы и CrewAI, мультиагентность и самое всякое разное.
«Нет, я не Байрон, я модель». Превращаем прозу в поэзию с нейросетью — мой кейс
2025-09-29 в 12:00, admin, рубрики: nlp, искусственный интеллект, нейросети, поэзия, языковые модели
Привет всем! Меня зовут Марина, я учусь на втором курсе магистратуры ВШЭ и МТС «Исследования и предпринимательство в искусственном интеллектеЧитать полностью »
Часть 1. Промпт-инжиниринг: ключевые термины и базовые техники
2025-09-18 в 8:10, admin, рубрики: промпт-инжиниринг, промпты, языковые моделиПредисловие переводчика
Эта статья (точнее, цикл статей) — адаптированный (=обезжиренный) перевод большого исследования “The Prompt Report: A Systematic Survey of Prompt Engineering Techniques” c arxiv.org. Перевод мы выполняли в тандеме с коллегой — Анастасией Тарабакиной. Поскольку мы делаем переводы для начинающих ИТ-переводчиков, многие специализированные термины мы сопроводили английскими вариантами в скобках.
Авторы оригинальной статьи также ведут обновляемый онлайн-глоссарийЧитать полностью »
Галлюцинации LLM: запретить нельзя использовать
2025-09-17 в 18:30, admin, рубрики: llm, reasoning, галлюцинирование нейросетей, достоверность, ИИ, нейросети, промт, трансформеры, языковые модели
Давайте поговорим о галлюцинациях LLM - больших языковых моделей.
На первый взгляд это выглядит как ошибка, ложь или выдумка. В недавнем отчёте OpenAI Why Language Models HallucinateЧитать полностью »
Почему бокс — это мультиагентная система
2025-09-14 в 6:12, admin, рубрики: Agentic AI, llm, агенты, агенты ии, большие языковые модели, машинное обучение, языковые моделиПривет! ИИ-агенты — главная горячая тема этого года, но все наверняка видели как их ради хайпа пытаются затащить куда угодно, совсем не глядя на эффективность и какой-либо здравый смысл.
В этой статье я расскажу о действительно полезном применении концепции агентов и попробую доказать, почему любой боксерский поединок является мультиагентной системой. Поговорим про system design бокса, про reinforcement learning, адаптивные алгоритмы, всевозможный вызов tools типа джебов или клинча, очереди сообщений и гарантию их доставки, graceful degradation агентов и многое другое.
Law & Practice Ensemble RAG. Как создать ассистента, помогающего решать многоаспектные юридические задачи
2025-09-11 в 14:15, admin, рубрики: dense retrieval, Fine-tuning, large language models, llm, rag, трансформеры, эмбеддинги, языковые моделиАвтор статьи: Сергей Слепухин
Большие языковые модели (LLM) в последние несколько лет являются ключевым направлением искусственного интеллекта (ИИ). Дальнейшее развитие LLM, очевидно, меняет сам способ взаимодействия с технологиями, снижая порог входа для представителей всех профессий, в том числе исконно гуманитарных.
