Пять лет назад я начал работать с или в проекте Comexp Research Lab - научно-исследовательской компании, в которой тогда было два человека (считая меня). На самом деле исследованиями компания в своей области занимается примерно 15 лет, просто именно на последние пять лет (и особенно на последние полтора года) пришлась самая интенсивность разработок и открытий.
Рубрика «трансформеры»
TAPe + ML: универсальная архитектура компьютерного зрения вместо патчей и «сырых» пикселей
2026-02-28 в 5:16, admin, рубрики: cnn, dino, dinov2, dinov3, ml, искусственный интеллект, исследование, Компьютерное зрение, машинное обучение, трансформерыНейро сети для самых маленьких. Часть нулевая. Обзорная
2026-01-04 в 14:42, admin, рубрики: AI, backpropagation, infiniband, llm, ml, MLP, roce, нейросети, трансформерыКаждый раз, когда вы говорите нейросети «Спасибо», вы запускаете конвейер, в котором перемножаются сотни матриц с миллиардами элементов, и сжигаете электричества столько же, сколько светодиодная лампа за несколько секунд.
Это первая статья из небольшого цикла, посвящённого сетям для AI/ML-кластеров и HPC.
В этой серии мы коснёмся принципов работы и обучения моделей, параллелизации, технологий DMA и RDMA, сетевых топологий, InfiniBand и RoCE, а ещё пофилософствуем на тему общих и специальных решений.
Эффект Манделы в LLM: Почему галлюцинации — это не баг, а архитектурная неизбежность
2026-01-02 в 23:01, admin, рубрики: chatgpt, data science, llm, Архитектура нейросетей, Галлюцинации нейросетей, искусственный интеллект, когнитивные искажения, Психология мышления, трансформеры, Эффект Манделы
Закройте глаза и вспомните знаменитое новогоднее обращение Бориса Ельцина 31 декабря 1999 года. В голове сразу звучит хриплый голос и культовая фраза «Я устал, я ухожу».
Топ вопросов с NLP собеседований: трансформеры и внимание до малейших деталей
2025-12-17 в 15:05, admin, рубрики: attention, llms, natural language processing, nlp, Transformers, глубокое обучение, машинное обучение, механизм внимания, трансформерыЗнание механизма внимания и трансформеров - база любых собеседований на все грейды в NLP!
Статья не рассчитана на изучение тем с нуля, если вы еще не слышали ничего про attention, то лучше обратиться к полноценным лекциям.
Это чеклист и тренажёр, по которому стоит пройтись перед техническим интервью по NLP, чтобы закрыть пробелы и вспомнить необходимую базу.
Содержание:
-
Архитектура трансформера
-
Механизм внимания
-
Позиционные эмбеддинги
-
Токенизация
-
Трансформерные архитектуры (BERT, GPT и тд)
-
Полезные материалы
Ускоряем LLM по максимуму. Как я создал кросс-платформенный Flash Attention с поддержкой Turing+ архитектур и не только
2025-12-16 в 18:37, admin, рубрики: attention, FlashAttention, llm, Transformers, triton, большие языковые модели, внимание, машинное обучение, оптимизация производительности, трансформерыОптимальный путь в NLP: как стать Middle за полгода
2025-11-23 в 17:09, admin, рубрики: data science, ml system design, nlp, python, rag, машинное обучение, нейронные сети, обучение программированию, трансформерыСтать Middle NLP Engineer за 6 месяцев — реально.
Не за два года, не через бесконечные курсы — а за полгода нормальной учебы.
Эта статья - про оптимальный путь. Без матана, без академизма, без «прочитай пять книг». Только то, что реально нужно для собеседований и работы.
Почему это реально:
-
Мой путь от нуля до стажёра занял два года, и сейчас я понимаю, как пройти его быстрее
-
После нахождения первой работы я вырос до Senior за год;
-
Я регулярно провожу собеседования и знаю реальные требования;
-
Уже помог нескольким людям войти в профессию.
Галлюцинации LLM: запретить нельзя использовать
2025-09-17 в 18:30, admin, рубрики: llm, reasoning, галлюцинирование нейросетей, достоверность, ИИ, нейросети, промт, трансформеры, языковые модели
Давайте поговорим о галлюцинациях LLM - больших языковых моделей.
На первый взгляд это выглядит как ошибка, ложь или выдумка. В недавнем отчёте OpenAI Why Language Models HallucinateЧитать полностью »
Law & Practice Ensemble RAG. Как создать ассистента, помогающего решать многоаспектные юридические задачи
2025-09-11 в 14:15, admin, рубрики: dense retrieval, Fine-tuning, large language models, llm, rag, трансформеры, эмбеддинги, языковые моделиАвтор статьи: Сергей Слепухин
Большие языковые модели (LLM) в последние несколько лет являются ключевым направлением искусственного интеллекта (ИИ). Дальнейшее развитие LLM, очевидно, меняет сам способ взаимодействия с технологиями, снижая порог входа для представителей всех профессий, в том числе исконно гуманитарных.
Как служба поддержки ЮMoney научилась общаться с пользователями из разных стран, не зная их языка
2025-08-28 в 13:45, admin, рубрики: ai-ассистент, llm-агент, lora, детекция текста, машинный перевод, трансформерыПривет. Мы – Даша (инженер машинного обучения) и Наташа (ведущий аналитик в ЮMoney). В этой статье расскажем о системе машинного перевода, разработанной как end-to-end-решение для многоязычной поддержки в финтех-компании. Рассмотрим архитектуру, технические детали реализации и практические результаты внедрения системы. А ещё покажем, как общались с пользователем из Казахстана.

