Рубрика «animatediff»

Тут я расскажу про основные подходы в генерации видео, материал будет полезен ML/Computer vision разработчикам, чтобы держать руку на пульсе, и людям интересующимся нейросетями + AI

План следующий:

  • Методы адаптации T2I в T2V: AnimateDiff, Text2Video Zero

  • Обзор классических подходов: Stable Video Diffusion, CogVideo

  • Новые модельки 2025: Wan2.1, HunyuanVideo, FramePack

Это первая часть из списка статей, тут будет только про T2I в T2V

Intro

Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js