StyleGAN-NADA (No Annotation Domain Adaptation) - метод, разработанный специалистами из Tel Aviv University и NVIDIA Research, позволяющий адаптировать генеративную модель (StyleGAN2) к новому домену без единого изображения, использующий только семантическую силу больших моделей, предварительно обученных контрастивным методом на тексте и изображениях (СLIP). На рисунке 1 представлены возможности метода StyleGAN-NADA.
Рубрика «CLIP»
Литературный обзор на статью: StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
2025-09-02 в 9:18, admin, рубрики: AI, CLIP, CV, DS, ml, stylegan, StyleGAN-NADARecSys + DSSM + FPSLoss is all you need
2025-06-08 в 12:10, admin, рубрики: CLIP, cross-entropy, FPS, loss, loss-функции, machine learning, pairCE, recsys, tripletloss, рекомендательные системы
Упрощать и искать похожие детали, очень полезный навык! Предлагаю быстро пробежаться и попробовать найти ту самую серебряную пулю в RecSys !
Введение
CLIP или SigLIP. База по Computer vision собеседованиям. Middle-Senior
2025-05-09 в 21:02, admin, рубрики: CLIP, ComfyUI, ml, SigLIP, Компьютерное зрение, собеседование в IT, собеседование вопросыВопросы о CLIP-моделях встречаются почти на каждом техническом собеседовании.
Неважно, занимаетесь ли вы видеоаналитикой, создаёте генеративные модели или работаете над поиском по изображениям — CLIP и его потомки (BLIP , SigLIP Читать полностью »
Вместо тысячи слов: как картинки помогают в текстовом Поиске?
2024-09-17 в 11:17, admin, рубрики: CLIP, computer vision, CV, nlp, Okko, обложки, онлайн кинотеатр, поиск, поисковые алгоритмы, фильмы
Всем привет! Меня зовут Дима. Я работаю в Поиске Okko и в этой статье хочу рассказать, насколько картиночные модели полезны для задачи Поиска и для чего мы используем их в наших пайплайнах.
«Пора ли гнать на мороз Computer Vision — scientist’ов ?» (Fondation Models и вокруг)
2024-01-18 в 0:50, admin, рубрики: CLIP, computer vision, dinov2, Fondation Models, I-Jepa, InternImages, InternVideo, машинное зрениее, мультимодальные модели, нейронные сетиПрошлый год в Computer Vision запомнился тем, что появилось множество больших претрейненных сетей (Fondation Models). Самая известная - GPT4v (ChatGPT с обработкой изображений).
В статье я попробую простым языком объяснить что это такое (для тех кто пропустил), как меняет индустрию. И когда можно будет выгнать на мороз лишних "ресерчеров".
Поговорим о следующем:
-
Что вообще такое "предтрейненные сети"
-
Где они используются?
-
Можно ли заменить ими обучение/разработчиков?
-
Какие есть ограничения?
-
Что будет дальше?
Шерудим под капотом Stable Diffusion
2022-09-14 в 14:11, admin, рубрики: CLIP, dalle, dalle-2, huggingface, natural language processing, OpenAI, stable diffusion, stablediffusion, unet, VAE, искусственный интеллект, машинное обучение, обработка изображенийВероятно вы уже слышали про успехи нейросетей в генерации картинок по текстовому описанию.
Я решил разобраться, и заодно сделать небольшой туториал, по архитектуре Stable Diffusion. Сегодня мы не будем глубоко погружаться в математику и процесс тренировки. Вместо этого сфокусируемся на применении и устройстве основных компонент: UNet, VAE, CLIP.
Кластеризация изображений с помощью нейросети CLIP
2022-01-13 в 10:45, admin, рубрики: CLIP, clustering, clusterization, data engineering, dbscan, machine learning, OpenAI, python, umap, Блог компании FunCorp, искуственный интеллект, машинное обучение, нейросети, обработка изображений
В статье пойдёт речь о том, как можно автоматически разделить датасет изображений на кластеры, которые поделены по качественному контекстному признаку, благодаря эмбедингам из нашумевшей нейронной сети CLIP от компании Илона Маска. Расскажу на примере контента из нашего приложения iFunny.
Рисуем вместе с CLIP Guided Diffusion HQ
2021-11-03 в 13:00, admin, рубрики: CLIP, ruvds_статьи, Блог компании RUVDS.com, будущее здесь, генерация изображений, дизайн, машинное обучение, нейросети, обработка изображений
Во времена старого Баша мне запомнилась одна цитата:
kok:
Подскажите какой прогой перегонять книги из txt в mp3
Izzzum:
^^^^^ No Comment а почему сразу не в 3gp или XviD?
kok:
А в каком по твоему формате аудиокниги?
kok:
Или ты думаешь, что какойто дурень сидит и начитывает перед микрофоном?
Что ж, если не предъявлять слишком высоких требований к реалистичности результата, можно сказать, что сегодня у нас такие «проги» есть. Речь, конечно же, о нейросетях, которые умеют генерировать практически любые виды контента.
Тихая революция и новый дикий запад в ComputerVision
2021-04-20 в 23:14, admin, рубрики: CLIP, cnn, Deit, DETR, Pose3d, RANSAC, SWIN, Transformers, Visual transformer, VIT, Алгоритмы, Анализ и проектирование систем, Блог компании Recognitor, машинное обучение, обработка изображений
Казалось бы, революция с Computer Vision уже была. В 2012 году выстрелили алгоритмы основанные на сверточных нейронных сетях. Года с 2014 они дошли до продакшна, а года с 2016 заполонили всеЧитать полностью »
3D-принтеры Carbon M2 и роботы: скоростная 3D-печать
2018-11-30 в 9:30, admin, рубрики: 3D-печать, 3d-принтер, CLIP, Блог компании Top 3D Shop, промышленность, стереолитография
На международной выставке промышленных технологий IMTS 2018 в Чикаго американская компания Carbon показала в действии автоматизированную систему SpeedCell, состоящую из нескольких устройств сверхбыстрой 3D-печати Carbon M2, печатающих по технологии CLIP, станции промывки и робота-манипулятора для обслуживания всей системы. Система предназначена для скоростной печати готовых деталей на производстве, но может печатать и прототипы. Рассказываем и показываем.
Читать полностью »
