В 2012 году команда из Торонто потрясла мир компьютерного зрения: их нейросеть AlexNet распознавала объекты на фотографиях лучше любого алгоритма, написанного вручную. Код занимал тысячи строк, требовал двух видеокарт и недель обучения. Сегодня вы можете превзойти AlexNet одной строкой кода, а модель загрузится за секунды.
Рубрика «deep learning»
Трёхстрочный Deep Learning: 20 примеров нейросетевой магии
2026-01-19 в 19:54, admin, рубрики: BERT, deep learning, gpt, nlp, Transformers, Компьютерное зрение, нейросетиArchivist: Как я учил нейросеть понимать физику плёнки, вместо того чтобы просто размывать шум
2025-12-27 в 13:01, admin, рубрики: deep learning, open source, Porject Degrader, real-esrgan, ruvds_статьи_выходного_дня, апскейл, денойзер, мультипликация, нейросети, реставрация
В прошлых статьях я разбирал основы апскейлинга дома и Читать полностью »
GR00T N1.5: архитектура, данные и эволюция VLA-моделей
2025-10-31 в 12:22, admin, рубрики: deep learning, gr00t, vlaНачинаем серию разборов современных Vision-Language-Action (VLA) моделей для манипуляции. Несмотря на то, что им всего около года (π₀ была представлена ровно год назад — 31 октября 2024), текущие системы уже можно считать вторым поколением VLA-подходов. Их ключевое отличие — появление дополнительного модуля action head, который представляет собой не просто голову над представлениями, а отдельный диффузионный трансформер, обучаемый по задаче flow matching.
Сегодня — разбор GR00T от NVIDIA, который с момента релиза N1 уже успел обновиться до версии N1.5, а на днях ожидается N1.6.
Momentum Attention: когда внимание получает инерцию
2025-10-27 в 15:58, admin, рубрики: AI, attention, deep learning, machine learning, pytorch, research, Transformers, нейросетиВ классическом self-attention каждый токен смотрит на другие токены, чтобы понять, что важно в данный момент.
Внимание распределяется мгновенно:

Именно этот механизм сделал трансформеры тем, чем они стали.
Но вот в чём проблема - внимание не имеет памяти.
Читать полностью »
Умный Learning Rate Scheduler: Управляем скоростью обучения, анализируя ускорение
2025-10-26 в 19:35, admin, рубрики: AI, deep learning, learning rate, machine learning, optimization, pytorchМы привыкли использовать ReduceLROnPlateau если val_loss не улучшается N эпох подряд - режем learning_rate. Это работает. Мы ждем, пока обучение врежется в стену, и только потом реагируем.
А что, если мы могли бы увидеть эту стену заранее? Что, если бы мы могли сбросить скорость плавно, еще на подходе к плато, и снова нажать на газ, если впереди откроется новый спуск?
Я хочу поделиться концепцией умного LR шедулера, который управляет скоростью обучения, анализируя не сам loss, а скорость его изменения.
Проблема ReduceLROnPlateau: Мы реагируем на симптом, а не на причину
Полезные задачи на Kaggle ( LLM, Diffusion Models)
2025-09-16 в 15:01, admin, рубрики: AI, deep learning, diffusion models, kaggle, llm, machine learningВ мире Data Science и Data Engineering ценится не только теория, но и практический опыт: умение работать с реальными данными, строить модели и доводить решения до результата. Однако получить такой опыт непросто: рабочие проекты часто закрыты NDA, а учебные кейсы не отражают сложность реальных задач.
Именно поэтому платформа Kaggle заняла особое место в индустрии. Это крупнейшее мировое сообщество специалистов по данным:
-
🌍 более 13 миллионов участников из разных стран;
-
🏆 сотни активных соревнований ежегодно;
-
📊 миллионы доступных датасетов и готовых ноутбуков.
Играемся с видеокартой Tesla H100 (GH100)
2025-09-09 в 14:09, admin, рубрики: deep learning, H100, hopper, Nvidia, nvidia tesla, nvidia tesla h100, видеокарта, машинное обучение
Продолжаем статьи про практические тесты актуальных картонок от Nvidia (RTX 5090, A5000 Ada, A100, 3090 и A10Читать полностью »
От мозга к мультиагентным системам: как устроены Foundation Agents нового поколения
2025-07-24 в 21:44, admin, рубрики: AI, alignment, deep learning, jailbreak, large language models, machine learning, multi-agent systems, prompt engineering, rag, reinforcement learningАналитический центр red_mad_robot разобрал объёмную научную статью «Advances and Challenges in Foundation Agents» от группы исследователей из передовых международных университетов и технологических компаний. Работа предлагает новый взгляд на текущее состояние и развитие «интеллектуальных агентов», которые могут адаптироваться к множеству задач и контекстов. Рассказываем, какие идеи лежат в основе Foundation Agents, с какими проблемами предстоит столкнуться, и что ждёт нас в будущем.

