This media is not supported in your browser
VIEW IN TELEGRAM
соединяем стилизацию дефорумом c моделью контролнета qrcode monster и получается вот такая анимированная иллюзия с эффектом негативного пространства
вообще модель идеально показывает себя на генерациях природы - растения, горы, вода
инит видео и настройки в комментах
подробнее про negative space
модель на hf
@тоже_моушн
вообще модель идеально показывает себя на генерациях природы - растения, горы, вода
инит видео и настройки в комментах
подробнее про negative space
модель на hf
@тоже_моушн
Media is too big
VIEW IN TELEGRAM
не удержался и тоже анимировал статичные картинки в ген2. понравилось)
запускается на сайте Runway. ты ей картинку, она тебе анимацию. без промптов, минимум настроек, результат ограничен 4 секундами. небольшой черри-пик)
бесплатных попыток хватает чтобы вдоволь наиграться с технологией и понять какие картинки лучше подходят и во что они превратятся в процессе анимации
runway
красивый эксперимент от ЭйАйЛера
@тоже_моушн
запускается на сайте Runway. ты ей картинку, она тебе анимацию. без промптов, минимум настроек, результат ограничен 4 секундами. небольшой черри-пик)
бесплатных попыток хватает чтобы вдоволь наиграться с технологией и понять какие картинки лучше подходят и во что они превратятся в процессе анимации
runway
красивый эксперимент от ЭйАйЛера
@тоже_моушн
Forwarded from Psy Eyes (Andrey Bezryadin)
This media is not supported in your browser
VIEW IN TELEGRAM
Pika Labs открылся для всех!
Генерить видео можно в ветках #generate как просто по тексту, так на основе картинки. Чтобы вкинуть изображение, нажимаете рядом с вбитым промтом на +1, затем жмёте на Upload и добавляете его.
Пример промта:
Чтобы быстро генерить по тому же промту жмите значок "Повторить". Генерации ограничены 10 штуками в 5 минут.
Дискорд
Сайт
Генерить видео можно в ветках #generate как просто по тексту, так на основе картинки. Чтобы вкинуть изображение, нажимаете рядом с вбитым промтом на +1, затем жмёте на Upload и добавляете его.
Пример промта:
/create prompt:a cat is walking in the forest, sunset, 4K -neg "bad anatomy, lowres" -ar 1:1
Какие параметры у промтов:-gs xx
(guidance scale, чем выше чифра, тем ближе визуал к промту)-neg "xxx"
(негативный промт, задаём чего не должно быть в кадре)-hide
(скрыть промт)-ar xx:xx
(соотношение сторон, 16:9, 9:16, 1:1, 4:5)-seed xxx
(ставим одно число для консистентной генерации, чтобы увидеть сид надо скачать видео он в названии файла)-motion xx
(насколько подвижной нужна картинка, задаётся числами 0, 1, или 2)Чтобы быстро генерить по тому же промту жмите значок "Повторить". Генерации ограничены 10 штуками в 5 минут.
Дискорд
Сайт
Media is too big
VIEW IN TELEGRAM
кажется именно для этого и были придуманы видео диффузионные модели
идеальное сочетание оживших картин Клода Моне под музыку Эрика Сати. автор видео - Phil Van Treuren, анимация - Pika Labs
не, можно конечно и мемасики оживлять (как тут или тут), но до оживших фотографий из Гарри Поттера пока что далеко - внешность персонажа быстро теряется и всратый результат в 9 видео из 10
а в случае импрессионизма артефакты генерации не портят ее, напротив - делают еще более живой и волшебной
кстати очень крутую анимацию арта недавно постил Дмитрий Алексеев. если еще не видели - обязательно к просмотру!
пост на реддите
подробное описание проекта от автора
видео на ютуб
Pika Labs
@тоже_моушн
идеальное сочетание оживших картин Клода Моне под музыку Эрика Сати. автор видео - Phil Van Treuren, анимация - Pika Labs
не, можно конечно и мемасики оживлять (как тут или тут), но до оживших фотографий из Гарри Поттера пока что далеко - внешность персонажа быстро теряется и всратый результат в 9 видео из 10
а в случае импрессионизма артефакты генерации не портят ее, напротив - делают еще более живой и волшебной
кстати очень крутую анимацию арта недавно постил Дмитрий Алексеев. если еще не видели - обязательно к просмотру!
пост на реддите
подробное описание проекта от автора
видео на ютуб
Pika Labs
@тоже_моушн
This media is not supported in your browser
VIEW IN TELEGRAM
вау, даже не предполагал что нерф можно гнуть как душе угодно, искажая пространство как в фильме Нолана "Начало"
обычно для таких трюков с пространством используют реймаршинг, но с нерфом это что то новенькое!
информации о том как именно видео сделано - минимум, известно только что использован instant-ngp. хотя знающие люди говорят что возможно нерф экспортировали в sdf и затем гнули стандартно шейдерами - то есть все таки реймаршинг
что ж, придется изучать, это очень интересно)
видео на ютуб
подробнее про реймаршинг
пост про instant-ngp
upd. пост в твиттере
@тоже_моушн
обычно для таких трюков с пространством используют реймаршинг, но с нерфом это что то новенькое!
информации о том как именно видео сделано - минимум, известно только что использован instant-ngp. хотя знающие люди говорят что возможно нерф экспортировали в sdf и затем гнули стандартно шейдерами - то есть все таки реймаршинг
что ж, придется изучать, это очень интересно)
видео на ютуб
подробнее про реймаршинг
пост про instant-ngp
upd. пост в твиттере
@тоже_моушн
This media is not supported in your browser
VIEW IN TELEGRAM
осторожно, пространства искривляются!
в моей флюидной анимации был использован похожий способ, только в этот раз генерацией управляет не Houdini а Touchdesigner. а картинка теперь генерится не в A1111 а внезапно в ComfyUI
комфи - это крутой нодовый редактор для SD. у него тоже есть api, и по сути это просто json, то есть нужно в правильном формате указать порядок действий и запустить как скрипт. а тач отлично умеет в пайтон
да и манипуляции с картинкой в таче производить куда проще чем в гудини, а еще он бесплатный. так что у меня большие планы на этот сетап
ComfyUI на гитхаб
нейрофлюидная симуляция
@тоже_моушн
в моей флюидной анимации был использован похожий способ, только в этот раз генерацией управляет не Houdini а Touchdesigner. а картинка теперь генерится не в A1111 а внезапно в ComfyUI
комфи - это крутой нодовый редактор для SD. у него тоже есть api, и по сути это просто json, то есть нужно в правильном формате указать порядок действий и запустить как скрипт. а тач отлично умеет в пайтон
да и манипуляции с картинкой в таче производить куда проще чем в гудини, а еще он бесплатный. так что у меня большие планы на этот сетап
ComfyUI на гитхаб
нейрофлюидная симуляция
@тоже_моушн
Forwarded from KeenTools
Media is too big
VIEW IN TELEGRAM
KeenTools 2023.2: Встречайте бету GeoTracker for Blender
Друзья, наш 3D трекер объектов теперь в вашем любимом Blender! Нужно добавить 3D эффекты или симуляции в ваше видео? С GeoTracker вы можете быстро отследить движение нужного объекта, получив его координаты в 3D, и сразу же притречить к нему желанный эффект — всё это не покидая Блендера.
Почему GeoTracker:
– Точный трекинг объектов и камеры на основе отслеживания геометрии в кадре
– Возможность разместить объект относительно камеры (и наоборот)
– Проецирование и запекание текстуры на 3D модель прямо из видео
– Идеальный трекинг движений головы при использовании вместе с FaceBuilder
– Результаты трекинга легко экспортируются за пределы Blender
И многое другое!
Скачать GeoTracker for Blender
Сейчас адд-он в бесплатной бете. Делитесь своими работами, мы будем рады добавить их в наши будущие шоурилы.
Но это ещё не всё! Мы также значительно улучшили наши другие продукты. Подробности.
Качайте и пробуйте!
Друзья, наш 3D трекер объектов теперь в вашем любимом Blender! Нужно добавить 3D эффекты или симуляции в ваше видео? С GeoTracker вы можете быстро отследить движение нужного объекта, получив его координаты в 3D, и сразу же притречить к нему желанный эффект — всё это не покидая Блендера.
Почему GeoTracker:
– Точный трекинг объектов и камеры на основе отслеживания геометрии в кадре
– Возможность разместить объект относительно камеры (и наоборот)
– Проецирование и запекание текстуры на 3D модель прямо из видео
– Идеальный трекинг движений головы при использовании вместе с FaceBuilder
– Результаты трекинга легко экспортируются за пределы Blender
И многое другое!
Скачать GeoTracker for Blender
Сейчас адд-он в бесплатной бете. Делитесь своими работами, мы будем рады добавить их в наши будущие шоурилы.
Но это ещё не всё! Мы также значительно улучшили наши другие продукты. Подробности.
Качайте и пробуйте!
This media is not supported in your browser
VIEW IN TELEGRAM
смотрю это видео в десятый раз и меня впечатляет:
- то как круто ген2 подхватывает атмосферу и стиль картинок из миджорней
- как мощно работают спецэффекты типа дыма и таймлапса облаков
- как удачно двигается камера, динамика в кадре
косяки тоже есть: кривовато выглядит походка персонажей но как будто этот зомби стиль тут даже в тему
хочу узнать ваше мнение, это впечатляет или нет?
и кстати о дыме - вот еще пример очень вкусного видео из ген2 на основе картинок SDXL
оригинальное видео
подробнее о его создании от автора
@тоже_моушн
- то как круто ген2 подхватывает атмосферу и стиль картинок из миджорней
- как мощно работают спецэффекты типа дыма и таймлапса облаков
- как удачно двигается камера, динамика в кадре
косяки тоже есть: кривовато выглядит походка персонажей но как будто этот зомби стиль тут даже в тему
хочу узнать ваше мнение, это впечатляет или нет?
и кстати о дыме - вот еще пример очень вкусного видео из ген2 на основе картинок SDXL
оригинальное видео
подробнее о его создании от автора
@тоже_моушн
вокруг ComfyUI - ажиотаж
для пользователей WarpFusion Дерп Лернинг запилил эксплейнер на комфи с наглядным объяснением процессов аккуратной стилизации видео.и похоже что нас ждет Comfy версия варпа!
если по началу комфи был интересен только кучке нердов то в последнее время он развивается активными шагами, и вот почему:
высокая гибкость инструмента, возможность дописывать свои модули (ноды), лихо соединять все это в едином интерфейсе, мега простой апи. это уже достойная альтернатива автоматику
вот например урок о том как делать бесконечную зум анимацию в комфи да еще и менять промпты прямо в процессе рендера
а DotSimulate на днях выложил на патреоне свой ComfyUI Touchdesigner API Tool Setup
своим изгибающим реальность сетапом я все еще хочу и планирую поделиться. останавливает только то что в эпоху однокнопочных решений предлагать пользователю танцевать с бубнами без четкой инструкции - ну такое себе
ComfyUI
Warp and Consistency explanation
zoom tutorial
ComfyUI TD API by DotSimulate
@тоже_моушн
для пользователей WarpFusion Дерп Лернинг запилил эксплейнер на комфи с наглядным объяснением процессов аккуратной стилизации видео.
высокая гибкость инструмента, возможность дописывать свои модули (ноды), лихо соединять все это в едином интерфейсе, мега простой апи. это уже достойная альтернатива автоматику
вот например урок о том как делать бесконечную зум анимацию в комфи да еще и менять промпты прямо в процессе рендера
а DotSimulate на днях выложил на патреоне свой ComfyUI Touchdesigner API Tool Setup
своим изгибающим реальность сетапом я все еще хочу и планирую поделиться. останавливает только то что в эпоху однокнопочных решений предлагать пользователю танцевать с бубнами без четкой инструкции - ну такое себе
ComfyUI
Warp and Consistency explanation
zoom tutorial
ComfyUI TD API by DotSimulate
@тоже_моушн
YouTube
WarpFusion: Warp and Consistency explanation in ComfyUI
Original video by Medkova Lana https://www.instagram.com/medkova_lana_/
друзья разрабатывают сервис OHMYSYNT и хотят получить фидбек. 3 дня триала: обучение внешности 5 персонажей + современные плюшки типа инпейнтинга в AI-редакторе с удобным интерфейсом. ну что, поможем парням нагрузить сервера?
Telegram
Synthetic Friday
Персонализированный AI-контент для брендов
Все уже пробовали генерить красивые концепты в Midjorney или Stable Diffusion, но брендам нужны конкретные люди, продукты или стили. Здесь на помощь приходит OHMYSYNT, где можно обучать своих кастомных AI-SYNTs…
Все уже пробовали генерить красивые концепты в Midjorney или Stable Diffusion, но брендам нужны конкретные люди, продукты или стили. Здесь на помощь приходит OHMYSYNT, где можно обучать своих кастомных AI-SYNTs…
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Вы, конечно, можете не впечатлиться результатом, но прогресс внимание на это не обращает.
Но часть из вас, таки, возможно, замечает улучшения в генерации трехмерных объектов.
Модель MVDream выстраивает объект, опираясь на текстовое описание и большое количество ракурсов, используемых для обучения. Авторы не пишут, откуда конкретно они берут данные, но могу предположить, что это Sketchfab или его аналоги.
Кто видел старт диффузионных моделей, тот над многоракурсной диффузией не смеется 🫡
Сорс
Но часть из вас, таки, возможно, замечает улучшения в генерации трехмерных объектов.
Модель MVDream выстраивает объект, опираясь на текстовое описание и большое количество ракурсов, используемых для обучения. Авторы не пишут, откуда конкретно они берут данные, но могу предположить, что это Sketchfab или его аналоги.
Кто видел старт диффузионных моделей, тот над многоракурсной диффузией не смеется 🫡
Сорс
This media is not supported in your browser
VIEW IN TELEGRAM
хотели морфинг? дарю рабочий пайплайн)
если взять серию картинок (фоток, генераций sd/mj), сморфить их между собой с помощью FILM или Topaz Video AI, а затем результат прогнать через стилизацию в Deforum - получается очень даже кайфовый гладкий морфинг(по сравнению например с sd_smooth_interpolation )
дефорум учитывая optical flow рисует новые детали и тем самым прекрасно сглаживает артефакты интерполяции в пиксельном пространстве (но не все!). конечно метод несовершенный и нужен текстовый промпт а иногда еще и лора - если морфим персонажа. тем не менее - сам пользуюсь и рекомендую
блокнот FILM
стилизация в Deforum
sd_smooth_interpolation
@тоже_моушн
если взять серию картинок (фоток, генераций sd/mj), сморфить их между собой с помощью FILM или Topaz Video AI, а затем результат прогнать через стилизацию в Deforum - получается очень даже кайфовый гладкий морфинг
блокнот FILM
стилизация в Deforum
sd_smooth_interpolation
@тоже_моушн
This media is not supported in your browser
VIEW IN TELEGRAM
уже слышали про 3D Gaussian Splatting? это который как бы нерф но совсем не нерф
сердце поет когда видишь как оно лихо летает с хорошим фпс даже на скромной по нынешним меркам видео карте) чтобы убедиться - с гитхаба качайте viewer и демо файлы моделей (осторожно - 14Гб).если новичок - доставайте бубны и готовьтесь танцевать)
а новость в том что теперь 3D Gaussian Splatting можно запустить в Nerfstudio! и значит доступна связка с блендером и полный контроль камеры. правда работает чуть медленней чем в оригинальном просмотрщике но все равно в разы быстрее чем любые нерфы. мощь!
3DGS для Nerstudio
оригинальный 3D Gaussian Splatting
гайд на ютубе
подробнее про нерфстудио
@тоже_моушн
сердце поет когда видишь как оно лихо летает с хорошим фпс даже на скромной по нынешним меркам видео карте) чтобы убедиться - с гитхаба качайте viewer и демо файлы моделей (осторожно - 14Гб).
3DGS для Nerstudio
оригинальный 3D Gaussian Splatting
гайд на ютубе
подробнее про нерфстудио
@тоже_моушн
This media is not supported in your browser
VIEW IN TELEGRAM
окей, генерацией картинок и видео никого уже не удивить. а как насчет реалистичных движений персонажей в 3д с помощью моделей диффузии?
тогда добро пожаловать на бета-тест MoGen от motorica.ai
это бесплатный сервис в котором можно настроить некоторые правила поведения персонажа и затем экспортировать как 3д анимацию скелета.
выбор пресетов движения пока что конечно маловат, но зато можно прикольно смешивать походку "зомби" и "клевого парня".
а еще у них есть плагин для UE
мощная фича - из 3д экспортируем анимацию персонажа по пути. а MoGen уже дорисовывает весьма реалистично как бы этот персонаж на самом деле скакал, бежал и дергал ручками и ножками перемещаясь по заданной траектории. да еще и в выбранном стиле!
вы все еще анимируете вручную? тогда МоГен идет к вам!)
бета-тест MoGen
обзор MoGen
гайд о связке с гудини
@тоже_моушн
тогда добро пожаловать на бета-тест MoGen от motorica.ai
это бесплатный сервис в котором можно настроить некоторые правила поведения персонажа и затем экспортировать как 3д анимацию скелета.
выбор пресетов движения пока что конечно маловат, но зато можно прикольно смешивать походку "зомби" и "клевого парня".
а еще у них есть плагин для UE
мощная фича - из 3д экспортируем анимацию персонажа по пути. а MoGen уже дорисовывает весьма реалистично как бы этот персонаж на самом деле скакал, бежал и дергал ручками и ножками перемещаясь по заданной траектории. да еще и в выбранном стиле!
обзор MoGen
гайд о связке с гудини
@тоже_моушн
Forwarded from Psy Eyes (Andrey Bezryadin)
This media is not supported in your browser
VIEW IN TELEGRAM
Только Runway выкатили возможность управлять камерой в генерациях, как Pika тут же выпустили такую же фичу! Чувствуете как атмосфера нагнетается, котаны?
Подробнее о фиче: камера управляется параметром
* Zoom: приближаем/удаляем камеру через
* Панорамирование: двигаем камеру вверх/вниз/влево/вправо с помощью
* Поворот: вертим камеру по часовой стрелке или против часовой через
Интенсивность движения камеры по-прежнему можно регулировать с помощью параметра
Другие обновления:
*
* Автоматический канал "upvotes" больше не доступен.
PS: anti-clockwise говорят в Британии, а counterclockwise говорят в Америке.... Теперь ты знаешь как генерить, заправляясь чайком.
Дискорд Pika
Пост с остальными параметрами для генерации
Подробнее о фиче: камера управляется параметром
-camera
и работает с ОДНИМ из следующих типов движения:* Zoom: приближаем/удаляем камеру через
-camera zoom in/out
.* Панорамирование: двигаем камеру вверх/вниз/влево/вправо с помощью
-camera pan up/down/left/right
. Можно комбинировать два не конфликтующих направления, например, -camera pan up right
.* Поворот: вертим камеру по часовой стрелке или против часовой через
-camera rotate clockwise/counterclockwise/anticlockwise
или сокращения cw/ccw/acw
.Интенсивность движения камеры по-прежнему можно регулировать с помощью параметра
-motion XX
задавая от 1 до 4.Другие обновления:
*
-fps
теперь по умолчанию стоит 24.* Автоматический канал "upvotes" больше не доступен.
PS: anti-clockwise говорят в Британии, а counterclockwise говорят в Америке.... Теперь ты знаешь как генерить, заправляясь чайком.
Дискорд Pika
Пост с остальными параметрами для генерации
This media is not supported in your browser
VIEW IN TELEGRAM
AnimateDiff это мощь!
Денис Demien Stoker натворил офигенных котов, полную версию смотрите у него в канале
у Нерди Родента вчера вышел обзор новой модели AnimateDiff. запускать можно в автоматике. а в ComfyUI можно анимировать даже с контролнетом!
коты by Demien Stoker
AnimateDiff
гайд от Нерди Родента
экстеншн A1111
версия для ComfyUI
@тоже_моушн
Денис Demien Stoker натворил офигенных котов, полную версию смотрите у него в канале
у Нерди Родента вчера вышел обзор новой модели AnimateDiff. запускать можно в автоматике. а в ComfyUI можно анимировать даже с контролнетом!
коты by Demien Stoker
AnimateDiff
гайд от Нерди Родента
экстеншн A1111
версия для ComfyUI
@тоже_моушн
Forwarded from Нейросети и Блендер
This media is not supported in your browser
VIEW IN TELEGRAM
Новый вид монтажа
🔥 Все что вы видите в этом ролике сгенерировалось за один раз, без склеек, без использования программ для монтажа.
📕 Склейки между кадрами - моя попытка теста QR code ControlNET
💗 Это успех, теперь приятные эффекты шума, такие важные для некоторых клипов или творческих работ, можно создавать максимально контролируемо.
🐑 То есть AnimateDiff превращается в полноценную продакшн студию у вас в компе, где есть актеры, движения, эффекты, сцены, идеи.
🐈⬛ Пока это сложный инструмент, хотя уверен, что вскоре появится сервис, где нужно будет только писать промпт и задавать стили, Лоры и т.д.
(который сейчас проживает второй расцвет)
в AnimateDiff.Не могу не наиграться с AnimateDiff, например эта работа полностью HD, 1920x1080 генерация, 13 секунд. Это сильно впечатляет, хотя и себестоимость таких 13 секунд вышла в 10$.
AnimateDiffPlease open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
кто о чем а мне лишь бы погнуть пространство)
кайф в том что наконец то удалось нащупать способ доступный каждому пользователю дефорума в автоматике! без дополнительных заморочек с тачем или гудини
способ чем то похож на стилизацию, но в отличие от нее мы не видим содержания исходного видео а забираем оттуда только само движение через оптикал флоу. а это дает просто бешеный простор для творчества - можно использовать видео с телефона или готовые футажи или самим чего нибудь нагенерить если умеете в моушн. вероятно способ больше подходит для лэндскейпов или абстракции и арта. но зависит от исходника
за настройками айда в комменты, там же видео - источник движения и еще примеры анимации
гнем в гудини
гнем в таче
@тоже_моушн
кайф в том что наконец то удалось нащупать способ доступный каждому пользователю дефорума в автоматике! без дополнительных заморочек с тачем или гудини
способ чем то похож на стилизацию, но в отличие от нее мы не видим содержания исходного видео а забираем оттуда только само движение через оптикал флоу. а это дает просто бешеный простор для творчества - можно использовать видео с телефона или готовые футажи или самим чего нибудь нагенерить если умеете в моушн. вероятно способ больше подходит для лэндскейпов или абстракции и арта. но зависит от исходника
за настройками айда в комменты, там же видео - источник движения и еще примеры анимации
гнем в гудини
гнем в таче
@тоже_моушн