Рубрика «neural networks»
ESP32 + LD2410: Архитектуры нейронных сетей для классификации движений
2025-10-03 в 14:46, admin, рубрики: esp32, LD2410, neural networks, TensorFlow, Ultra-wideband, uwb, глубокое обучение, микроконтроллер, сверхширокополосная радиолокация, сшп
Нейросетевой помощник для Catan Universe: как я научил ИИ считать карты соперников
2025-08-07 в 13:15, admin, рубрики: Catan, neural networks, Катан, Компьютерное зрение, нейронные сетиВступление или как я подсел на Catan
Привет, коллеги-катановцы!
Знакомо чувство, когда в пылу битвы за овец и кирпичи напрочь забываешь, сколько ресурсов только что сбросил соперник? Вот и я вечно путался — пока не загорелся безумной идеей: А что если заставить нейросеть следить за картами вместо меня?
Пару месяцев, несколько килограммов кофе и одна сгоревшая видеокарта спустя — представляю вам Catan Neural Assistant — шпаргалку, которая в реальном времени подсчитывает ресурсы оппонентов!
Но сначала — лирическое отступление для тех, кто вдруг не в теме.
Catan для чайников (и зачем это всё)
Правда ли KAN лучше MLP? Свойство разделения глубины между двумя архитектурами
2025-07-22 в 11:15, admin, рубрики: approximation, deep learning, kan, machine learning, math, MLP, neural networks, research, scienceВведение
Прошлым летом в свет вышла новая архитектура нейронных сетей под названием Kolmogorov-Arnold Networks (KAN). Основная статья есть в открытом доступе на архиве по следующей ссылке. На момент выхода статьи эта новость произвела фурор в мире машинного обучение, так как KAN показывали существенный прирост в качестве аппроксимации различных сложных функций. На фото ниже видно, что ошибка новых сетей падает значительно быстрее при увеличении числа параметров.
LIME for ECG Time Series Dataset Example
2025-07-08 в 16:08, admin, рубрики: convolutional neural network, explanation, machine learning, neural networks, xaiLIME (Local Interpretable Model-Agnostic Explanations) — популярный модет в решении задачи интерпретации. Он основан на простой идее — приблизить прогнозы сложного оценщика (например, нейронной сети) простым — обычно линейной/логистической регрессией.
Применить LIME можно из коробки при помощи одноименной библиотеки [lime](https://github.com/marcotcr/lime). Однако, при применении LIME к, в частности, к временным рядам возникают особенности:
-
При интерпретации нужно учесть, что временные ряды — это структурированные последовательности.
Вычисление функции потерь и градиентов в AI переводчике
2025-06-11 в 15:41, admin, рубрики: machinelearning, neural networks, Transformers, ИИ, искусственный интеллект, машинный перевод, переводчик, переводчики, языковые моделиПривет!
Меня зовут Алексей Рудак, я основатель компании Lingvanex, которая разрабатывает решения в области машинного перевода и транскрипции речи. Продолжаю цикл статей о том, как устроен переводчик на нейронных сетях изнутри. И сейчас хочу рассказать про работу функции потерь. Для тренировки модели используется opensource фреймворк OpenNMT-tf.
Исследуем эволюцию архитектур в Computer Vision: Mind Map всех ключевых моделей
2025-03-13 в 16:58, admin, рубрики: computer vision, deep learning, machine learning, mind maps, neural networks, resnet, Transformers, машинное обучение, нейронные сетиСразу к карте? Если вы предпочитаете действовать, а не читать, вот ссылка на Mind Map . Она доступна для изучения прямо сейчас. А если хотите понять контекст и узнать больше о каждой модели — добро пожаловать под кат!
Введение
HaGRIDv2-1M: 1 миллион изображений для распознавания статичных и динамических жестов
2025-03-07 в 10:36, admin, рубрики: computer vision, data mining, data science, datasets, deep learning, detection, device control, gesture recognition, human-computer-interaction, neural networks
В этой статье мы представляем HaGRIDv2-1M — обновлённую и значительно расширенную версию HaGRID, самого полногоЧитать полностью »
В начале октября вышла модель DIAMOND, работающая в режиме игрового движка. Она эмулирует карту Dust 2 в игре CS: GO. По сути модель состоит из двух частей: модели, которая учитывает состояние игрового мира и диффузионной модели, генерирующий следующий кадр на основе предыдущего + инпута с клавиатуры + мыши.
Проблема сжатия информации в моделях мира
State Space Models. Mamba
2024-10-31 в 13:56, admin, рубрики: AI, chatgpt, deep learning, machine learning, neural networks, Transformers, глубокое обучение, машинное обучение, нейронные сети
Привет, Habr!
Ни для кого не секрет, что доминирующей на данный момент архитектурой в области Deep Learning являются трансформеры. Они произвели настоящий фурор и стали основой для самых известных LLMЧитать полностью »
Как у нейросетей работает внимание? Статья про self-attention и cross-attention
2024-10-03 в 11:27, admin, рубрики: AI, neural networks, stable diffusion, ИИ, математика, нейросети
Современные генеративные нейросети, такие как Stable Diffusion или FLUX, создают изображения по текстовым описаниям, используя механизм внимания — attention. Этот механизм помогает моделям как выделять важные части информации, так и связывать промпт с изображением, чтобы в итоге мы получили то, что хотели.
