Forwarded from Сиолошная
Пример склейки двух первых видео в одно третье. Не до конца понятно, как в данном случае задаётся промпт: показываются ли оба видео полностью, и пишется ли какой-то текст, или же это отдельный режим смешивания, например, эмбеддингов.
(Извините что видео тяжелые)
(Извините что видео тяжелые)
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Вот держите гибридный пайплайн от генерации 3D-модели персонажа, до рига, анимации и нейрорендера. Без всякого ретопа, текстурирования и шейдинга.
Берется Luma AI для того чтобы сгенерить десяток вариантов 3Д-персонажа по текстовому промпту.
Получается довольно обмылочный персонаж в духе PS1 с кривой топологией и кашей вместо головы и рук.
Дальше он тащится в Mixamo и там на него тупо кидается авториг. А потом и анимация в духе Hadouken!
Дальше превью анимации с этим болваном кормится в КонтролНет, чтобы достать оттуда позу и объем с глубиной - для дальнейшего нейрорендеринга с помощью AnimateDiff.
Ну то есть идея такая - генерим низкокачественного болвана персонажа с помощью ИИ, кладем болт на топологию и качественный риг, просто одеваем его в скелет и наваливаем нужную нам анимацию (пусть с заломами и косяками на сгибах). На этапе нейрорендеринга все эти косяки сгладятся в процессе переноса стиля из промпта или картинки.
Одна засада - надо знать Mixamo, анимацию и вот это ваше дурацкое 3Д.
Впрочем нажать кнопку Autorig и потом выбрать из библиотеки анимацию (или сгенерить промптом, или забрать по эклеру из видео с помощью open pose) может любой, даже не знакомый с 3Д. Осталось эти кнопки вструмить внутрь ComfyUI или A1111 и спрятать подальше эти ацкие настройки ControlNet - вот и будет вам AIMixamo.
P.S. Качество ИИ-генерации 3Д настолько плохое, что чувак отдельно потом генерит голову и руки для персонажа и пришивает их к полигональному мешу и начинает все сначала (иначе КонтролНет не хавает уродца). И вот тут уже надо знать 3Д, сорян.
Но проблески будущих однокнопочных пайплайнов отчетливо проступают из шума диффузии.
P.S.S. Была такая поговорка у продакшенов - "на посте все поправят". Теперь на посте сидят такие: "зачем моделить правильно, на нейрорендеринге все поправится".
Короче, расслабляем булки, ИИ все поправит. За вас.
Автор обещает полный тутор тут:
https://twitter.com/8bit_e/status/1761111050420727895
Берется Luma AI для того чтобы сгенерить десяток вариантов 3Д-персонажа по текстовому промпту.
Получается довольно обмылочный персонаж в духе PS1 с кривой топологией и кашей вместо головы и рук.
Дальше он тащится в Mixamo и там на него тупо кидается авториг. А потом и анимация в духе Hadouken!
Дальше превью анимации с этим болваном кормится в КонтролНет, чтобы достать оттуда позу и объем с глубиной - для дальнейшего нейрорендеринга с помощью AnimateDiff.
Ну то есть идея такая - генерим низкокачественного болвана персонажа с помощью ИИ, кладем болт на топологию и качественный риг, просто одеваем его в скелет и наваливаем нужную нам анимацию (пусть с заломами и косяками на сгибах). На этапе нейрорендеринга все эти косяки сгладятся в процессе переноса стиля из промпта или картинки.
Одна засада - надо знать Mixamo, анимацию и вот это ваше дурацкое 3Д.
Впрочем нажать кнопку Autorig и потом выбрать из библиотеки анимацию (или сгенерить промптом, или забрать по эклеру из видео с помощью open pose) может любой, даже не знакомый с 3Д. Осталось эти кнопки вструмить внутрь ComfyUI или A1111 и спрятать подальше эти ацкие настройки ControlNet - вот и будет вам AIMixamo.
P.S. Качество ИИ-генерации 3Д настолько плохое, что чувак отдельно потом генерит голову и руки для персонажа и пришивает их к полигональному мешу и начинает все сначала (иначе КонтролНет не хавает уродца). И вот тут уже надо знать 3Д, сорян.
Но проблески будущих однокнопочных пайплайнов отчетливо проступают из шума диффузии.
P.S.S. Была такая поговорка у продакшенов - "на посте все поправят". Теперь на посте сидят такие: "зачем моделить правильно, на нейрорендеринге все поправится".
Короче, расслабляем булки, ИИ все поправит. За вас.
Автор обещает полный тутор тут:
https://twitter.com/8bit_e/status/1761111050420727895
хорошему дружескому проекту нужно помочь с тестированием их продукта:
Nim — новый проект на просторах вселенной AI, которому чуть больше месяца. Сейчас ребята активно исследуют генеративные модели и находятся в поиске профессиональных фото/видео креаторов, которые помогут им в креативном тестировании платформы в рамках оплачиваемой Creative Partner Program.
Ребята предоставляют ранний доступ к их генеративной платформе и платят почасовую ставку за генерации.
Подать заявку на участие.
Nim — новый проект на просторах вселенной AI, которому чуть больше месяца. Сейчас ребята активно исследуют генеративные модели и находятся в поиске профессиональных фото/видео креаторов, которые помогут им в креативном тестировании платформы в рамках оплачиваемой Creative Partner Program.
Ребята предоставляют ранний доступ к их генеративной платформе и платят почасовую ставку за генерации.
Подать заявку на участие.
Tally Forms
Nim Creative Program
Made with Tally, the simplest way to create forms.
Media is too big
VIEW IN TELEGRAM
совсем не новость но грех не поделиться
один из самых крутых и визуально интересных проектов над которыми поработал в прошлом году - показ BOSS в Милане. командой Силы Света мы разрабатывали его визуальную концепцию: что то типа офиса будущего с прозрачными экранами, нейро-интерфейсами и силиконовыми роботами, все такое smooth and sleek
был проделан настоящий глубокий ресерч - куча обученных лор, генеративная инфографика, стилизация реальных футажей мрт, бешеные эксперименты со временем и пространством в тач дизайнере, ранние тесты animatediff etc. и помимо нейронок конечно много качественного 3д
получилось по моему очень насыщенно, красиво и достойно
официальное видео показа
видео Сила Света
@тоже_моушн
один из самых крутых и визуально интересных проектов над которыми поработал в прошлом году - показ BOSS в Милане. командой Силы Света мы разрабатывали его визуальную концепцию: что то типа офиса будущего с прозрачными экранами, нейро-интерфейсами и силиконовыми роботами, все такое smooth and sleek
был проделан настоящий глубокий ресерч - куча обученных лор, генеративная инфографика, стилизация реальных футажей мрт, бешеные эксперименты со временем и пространством в тач дизайнере, ранние тесты animatediff etc. и помимо нейронок конечно много качественного 3д
получилось по моему очень насыщенно, красиво и достойно
официальное видео показа
видео Сила Света
@тоже_моушн
Forwarded from Нейронавт | Нейросети в творчестве
AnimateDiff Lightning
в 10 раз быстрее оригинального AnimateDiff.
Инструкции по использованию в ComfyUI прилагаются
#text2video
в 10 раз быстрее оригинального AnimateDiff.
Инструкции по использованию в ComfyUI прилагаются
#text2video
Media is too big
VIEW IN TELEGRAM
давненько не брал я в руки сплатов)
а если честно то особо и не погружался в эту тему глубоко. чтобы исправить это недоразумение, вашему вниманию:
внезапный обзор на бесплатные гауссиановы сплаты
Scaniverse
приложение для iOS, обучается быстро, заметно нагревает айфон, на экранчике выглядит красиво но для продакшна не годится
LumaAI
в представлении не нуждается, работает с телефонов и в браузере, выдает стабильно хороший результат, заложены всякие полезные плюшки
Jawset Postshot
работает локально, любит железо помощнее, обучается небыстро, зато красивый результат.
демо видео
а еще при установке Postshot спрашивает, не хотите ли плагин для афтера чтобы крутить свои сплаты как взрослый)лично не тестировал, но по секрету скажу что в скором времени нас ожидает гораздо более фаршированный плагин 3DGS для афтера, не переключайтесь
безобразие что до сих пор нет нормального импорта сплатов в блендер! есть плагин для рендера на сайклс но камон, это не реалтайм
а если хотите реалтайм - вот вам ассет для Touchdesinger. если чуть поиграться, можно добиться эффектов как на видео
@тоже_моушн
а если честно то особо и не погружался в эту тему глубоко. чтобы исправить это недоразумение, вашему вниманию:
внезапный обзор на бесплатные гауссиановы сплаты
Scaniverse
приложение для iOS, обучается быстро, заметно нагревает айфон, на экранчике выглядит красиво но для продакшна не годится
LumaAI
в представлении не нуждается, работает с телефонов и в браузере, выдает стабильно хороший результат, заложены всякие полезные плюшки
Jawset Postshot
работает локально, любит железо помощнее, обучается небыстро, зато красивый результат.
демо видео
а еще при установке Postshot спрашивает, не хотите ли плагин для афтера чтобы крутить свои сплаты как взрослый)
безобразие что до сих пор нет нормального импорта сплатов в блендер! есть плагин для рендера на сайклс но камон, это не реалтайм
а если хотите реалтайм - вот вам ассет для Touchdesinger. если чуть поиграться, можно добиться эффектов как на видео
@тоже_моушн
Media is too big
VIEW IN TELEGRAM
небольшой тизер-анонс двух долгожданных инструментов для 3DGS. видео выше сделано с их помощью.
первый - плагин для AE. чтобы импортировать сплаты в афтер, использовать по классике параллельно с текстом и любыми 3д слоями, а еще лихо навешивать на сплаты различные эффекты.считанные часы до релиза!
второй - аддон для Блендера. позволяет "запечь" 3д сцену - со всеми материалами и освещением в формат ply, чтобы дальше отправить это в AE, Unity, UE, Touchdesigner или вообще встроить на сайт. аддон пока дорабатывается но уже показал хорошие результаты.
кстати черепушку из видео можно покрутить по этой ссылке (к сожалению смартфоны пока не тянут). а готовый сплат ищи в комментах
@тоже_моушн
первый - плагин для AE. чтобы импортировать сплаты в афтер, использовать по классике параллельно с текстом и любыми 3д слоями, а еще лихо навешивать на сплаты различные эффекты.
второй - аддон для Блендера. позволяет "запечь" 3д сцену - со всеми материалами и освещением в формат ply, чтобы дальше отправить это в AE, Unity, UE, Touchdesigner или вообще встроить на сайт. аддон пока дорабатывается но уже показал хорошие результаты.
кстати черепушку из видео можно покрутить по этой ссылке (к сожалению смартфоны пока не тянут). а готовый сплат ищи в комментах
@тоже_моушн
Media is too big
VIEW IN TELEGRAM
ура, вышел плагин Gaussian Splatting для After Effects от irrealix
это значит что ply файлы сплатов созданные в LumaAI, Postshot, Scaniverse, Polycam или Nerfstudio теперь можно импортировать в афтер и встраивать в привычный пайплайн. благо количество добавленных в плагин плюшек, эффектов и настроек это позволяет
для тех кто не готов платить - можете протестить бесплатный плагин от Postshot но он не умеет и трети от того что заложено в новом плагине, на который кстати действует скидка до 26 апреля
@тоже_моушн
это значит что ply файлы сплатов созданные в LumaAI, Postshot, Scaniverse, Polycam или Nerfstudio теперь можно импортировать в афтер и встраивать в привычный пайплайн. благо количество добавленных в плагин плюшек, эффектов и настроек это позволяет
для тех кто не готов платить - можете протестить бесплатный плагин от Postshot но он не умеет и трети от того что заложено в новом плагине, на который кстати действует скидка до 26 апреля
@тоже_моушн
Forwarded from Ai Filmmaker (Dmitriy Alekseev)
Media is too big
VIEW IN TELEGRAM
Pain - Push the pusher (Ai animation official music video)
Directed by: Dmitry Alekseev
Written and created: Dmitry Alekseev & Sergey Kozlov
Tools: Midjourney x Photoshop x After Effects x Premiere Pro
Character Voices: Elevenlabs
WATCH FULL VIDEO ON YOUTUBE
Directed by: Dmitry Alekseev
Written and created: Dmitry Alekseev & Sergey Kozlov
Tools: Midjourney x Photoshop x After Effects x Premiere Pro
Character Voices: Elevenlabs
WATCH FULL VIDEO ON YOUTUBE
Media is too big
VIEW IN TELEGRAM
очень милый и визуально приятный кейс - ручная анимация цветных шейпов в бесплатной рисовалке Tagtool на айпаде с дальнейшей реалтайм обработкой в TouchDesigner с помощью StreamDiffusion
это дело рук VJ Suave - дуэта медиахудожников из Бразилии. подробней про проект можно почитать у Demien Stoker
StreamDiffusion - это ну очень быстрый txt2img: запросто выдает 15 fps на 4090в разрешении 512 . и это реально выглядит как реалтайм! туториал для желающих повторить у себя
автор компонента StreamDiffusion для тача DotSimulate уже прикрутил к нему ControlNet но предположу что это повлияет на fps негативно, нужно тестить. кстати есть еще бесплатная альтернатива от Олега Чомпа
inst VJ Suave
Tagtool app
пост Demien Stoker
patreon DotSimulate
туториал на ютуб
github StreamDiffusion
StreamDiffusion-NDI by Oleg Chomp
@тоже_моушн
это дело рук VJ Suave - дуэта медиахудожников из Бразилии. подробней про проект можно почитать у Demien Stoker
StreamDiffusion - это ну очень быстрый txt2img: запросто выдает 15 fps на 4090
автор компонента StreamDiffusion для тача DotSimulate уже прикрутил к нему ControlNet но предположу что это повлияет на fps негативно, нужно тестить. кстати есть еще бесплатная альтернатива от Олега Чомпа
inst VJ Suave
Tagtool app
пост Demien Stoker
patreon DotSimulate
туториал на ютуб
github StreamDiffusion
StreamDiffusion-NDI by Oleg Chomp
@тоже_моушн
Forwarded from SILA SVETA kitchen
Media is too big
VIEW IN TELEGRAM
В Казани стартовал международный фестиваль медиаискусства NUR. На нем представлена инсталляция EYE, созданная в коллаборации четырех независимых хужодников из SILA SVETA: Ilia Balakin, EGO, Vsevolod Taran и Alexander Karelin.
Искать инсталляцию нужно во дворе «Национального музея», ее центральный элемент — сцена-ракушка — превращена в око искусственного интеллекта. Зрачок перед сценой олицетворяет ИИ, который с помощью нейронных сетей в real-time по-своему интерпретирует и человека, и пространство вокруг него. Все происходящее выводится на экран, позволяя каждому посетителю увидеть, как современные технологии могут изменять наше восприятие мира.
Участие в NUR и других медиафестивалях — это возможность для команды достать из заметок и воплотить в жизнь крутые и вдохновляющие идеи, которые приходили в процессе поиска креативных решений на коммерческих и RnD-проектах.
Скоро поделимся комментариями создателей EYE и фото с места событий.
Искать инсталляцию нужно во дворе «Национального музея», ее центральный элемент — сцена-ракушка — превращена в око искусственного интеллекта. Зрачок перед сценой олицетворяет ИИ, который с помощью нейронных сетей в real-time по-своему интерпретирует и человека, и пространство вокруг него. Все происходящее выводится на экран, позволяя каждому посетителю увидеть, как современные технологии могут изменять наше восприятие мира.
Участие в NUR и других медиафестивалях — это возможность для команды достать из заметок и воплотить в жизнь крутые и вдохновляющие идеи, которые приходили в процессе поиска креативных решений на коммерческих и RnD-проектах.
Скоро поделимся комментариями создателей EYE и фото с места событий.
Media is too big
VIEW IN TELEGRAM
признаюсь, я не большой любитель аудио генераций. немного баловался с suno но вау эффекта не получил
однако с этим треком ситуация ровно наоборот - полное попадание в мои персональные музыкальные мурашки и желание слушать его на репите. автор - мой хороший друг, исполнитель - udio. не представляю как у Саши получилось так лихо укротить сетку и так сочно передать вайбы и звучание электронной музыки 2010х. некоторые "семплы" просто бомбические.лайк тому кто расслышит воинственный клич Зены королевы воинов
а еще это хороший повод протестить keyframes в dream machine. фича классная но полный рандом
трек
оригинальный пост
@тоже_моушн
однако с этим треком ситуация ровно наоборот - полное попадание в мои персональные музыкальные мурашки и желание слушать его на репите. автор - мой хороший друг, исполнитель - udio. не представляю как у Саши получилось так лихо укротить сетку и так сочно передать вайбы и звучание электронной музыки 2010х. некоторые "семплы" просто бомбические.
а еще это хороший повод протестить keyframes в dream machine. фича классная но полный рандом
трек
оригинальный пост
@тоже_моушн
This media is not supported in your browser
VIEW IN TELEGRAM
если вам тоже было интересно как затанцевать макароны, держите воркфлоу для комфи а также свежий пошаговый видео туториал
магия происходит конечно же благодаря ip-adapter и qrcode-monster controlnet. а за хорошую скорость генерации отвечает lcm моделька. все необходимые ссылки есть в туториале
workflow на civitai
туториал
ig автора воркфлоу
@тоже_моушн
магия происходит конечно же благодаря ip-adapter и qrcode-monster controlnet. а за хорошую скорость генерации отвечает lcm моделька. все необходимые ссылки есть в туториале
workflow на civitai
туториал
ig автора воркфлоу
@тоже_моушн
Forwarded from KeenTools
Media is too big
VIEW IN TELEGRAM
Ну что, друзья? Встречайте FaceTracker for Blender (Beta)
Наше фирменное решение для трекинга лиц теперь доступно каждому прямо в Blender. Сгенерировать 3D модель лица по кадрам из видео, потрекать мимику, омолодить или состарить, добавить тату, 3D эффект или симуляцию — все это теперь легко сделать, не закрывая Blender!
Что вас ждёт:
– Быстрый и точный трекинг головы и мимики
– Встроенный FaceBuilder для создания на ходу моделей лица
– Генерация текстур лица: анимированной или смешанной по выбранным кадрам
– Экспорт FACS блендшейпов
– Интеграция во внешние пайплайны
И многое другое!
Скачать FaceTracker for Blender
FaceTracker сейчас в открытой бете, а значит доступен бесплатно для всех.
Важно: FaceTracker трекает головы только в FaceBuilder-топологии. Чтобы каждый мог опробовать все возможности FaceTracker, мы сбросили нашу триалку FaceBuilder для всех вне зависимости, использовали ли вы его раньше или нет!
Качайте, пробуйте и делитесь результатами!
Наше фирменное решение для трекинга лиц теперь доступно каждому прямо в Blender. Сгенерировать 3D модель лица по кадрам из видео, потрекать мимику, омолодить или состарить, добавить тату, 3D эффект или симуляцию — все это теперь легко сделать, не закрывая Blender!
Что вас ждёт:
– Быстрый и точный трекинг головы и мимики
– Встроенный FaceBuilder для создания на ходу моделей лица
– Генерация текстур лица: анимированной или смешанной по выбранным кадрам
– Экспорт FACS блендшейпов
– Интеграция во внешние пайплайны
И многое другое!
Скачать FaceTracker for Blender
FaceTracker сейчас в открытой бете, а значит доступен бесплатно для всех.
Важно: FaceTracker трекает головы только в FaceBuilder-топологии. Чтобы каждый мог опробовать все возможности FaceTracker, мы сбросили нашу триалку FaceBuilder для всех вне зависимости, использовали ли вы его раньше или нет!
Качайте, пробуйте и делитесь результатами!
Media is too big
VIEW IN TELEGRAM
колыбельная. опять мрачняк - ну такое настроение
мой новый личный фаворит среди опенсорсных видео моделей - LTXVideo+STG. по качеству конечно не Hunyuan, зато работает в 8 раз быстрее и к тому же умеет в img2vid
до сих пор до конца не верю что оживлятор картинок подобного уровня теперь доступен локально. все еще не сора и не клинг но уже заметно лучше чем SVD
за трек спасибо прекрасному Demien Stoker
кастомные ноды ComfyUI-LTXVideo
подробней про STG
нативная поддержка LTX в свежем комфи
workflow img2vid
@тоже_моушн
мой новый личный фаворит среди опенсорсных видео моделей - LTXVideo+STG. по качеству конечно не Hunyuan, зато работает в 8 раз быстрее и к тому же умеет в img2vid
до сих пор до конца не верю что оживлятор картинок подобного уровня теперь доступен локально. все еще не сора и не клинг но уже заметно лучше чем SVD
за трек спасибо прекрасному Demien Stoker
кастомные ноды ComfyUI-LTXVideo
подробней про STG
нативная поддержка LTX в свежем комфи
workflow img2vid
@тоже_моушн