group-telegram.com/neurogen_news/1064
Last Update:
Генерация AI видео у себя на ПК: HunyuanVideo.
Из всех open-source моделей - HunyuanVideo наиболее интересная, она может генерировать видео в разрешении 720P и с длиной до 129 кадров.
Рекомендуемые системные требования:
Для более-менее нормальной работы с данной моделью вам потребуется ПК с RTX 4090 или 3090 на борту, а также 64+ Гб оперативной памяти.
Наиболее актуальным решением для работы с моделью является ComfyUI - там больше всего полезных оптимизаций.
Если вы уже разбираетесь в ComfyUI и умеете ставить pip пакеты - то дальше рекомендую ознакомиться с постом от TensorBanana.
Я немного пошел дальше, прикрутил более квантованный text encoder, а также объединил все актуальные способы ускорения инференса:
- За основу взята модель FastHunyuan, которая позволяет сгенерировать нормальный результат за 6-10 шагов вместо 30, а еще она и квантованная до FP8.
- Сборка основана на Cuda 12.6 и torch-nightly 2.7.0
- Используются sage-attn-2 и triton
- Активирован WaveSpeed (он, кстати, еще и генерации Flux ускорять должен)
- Включен TeaCache
- Используется Tiled Vae
В конечном итоге, генерация видео в разрешении 960x544 и длинной в 89 кадров (несколько секунд видео) занимает у меня полторы-две минуты. Результаты генераций вы можете увидеть наверху.
Из минусов, наверное, то что она не умеет в нормальное img2video. По крайней мере - на данный момент.
Да, кстати, совсем забыл. Модель отлично умеет работать с NSFW контентом, есть огромное количество LoRA, которые расширяют эти возможности - позы, действия и прочие непотребности. Вполне достаточно, чтобы наплодить виртуальных онлифанс моделей.
Искать, разумеется, на civit.ai, примеры тут показывать не буду.
Архив со сборкой получился более чем на 20 гигабайт. Поэтому хотел бы спросить вас - нужна ли вам такая сборка? Достаточно ли среди моих пользователей владельцев карт, которые могут себе позволить работу с данной моделью?
#aivideo #txt2video