Тут я расскажу про основные подходы в генерации видео, материал будет полезен ML/Computer vision разработчикам, чтобы держать руку на пульсе, и людям интересующимся нейросетями + AI
План следующий:
-
Методы адаптации T2I в T2V: AnimateDiff, Text2Video Zero
-
Обзор классических подходов: Stable Video Diffusion, CogVideo
-
Новые модельки 2025: Wan2.1, HunyuanVideo, FramePack
Это первая часть из списка статей, тут будет только про T2I в T2V
