Заморочились по Gaussian Splatting, Runway и созданию своих миров
В новой версии Runway появилось управление камерой и то самое панорамирование, которое дает нам возможность хоть и криво, но облететь объект вокруг. Я не знаю, как у вас, но у меня это вызвало бешеное желание поскорее засунуть генерацию пролета в Luma 3D и создать сплат, где можно летать камерой вокруг объекта не только так, как на исходнике.
Разумеется, главный прикол был в том, что реалистичные генерации мы можем заснять непосредственно в нашем мире, мне хотелось сделать что-то иное, чтобы протестировать это на сказочных мирах, посмотреть качество и артефакты.
О реалистичных генерациях и попытках сделать результат из черрипиков Runway можно прочитать у Psy Eyes.
Изначально я хотела протестировать Luma 3D на предмет того, может ли она сделать зачаток Вселенной из моего видео, но все мои попытки кончались долгими загрузками (сервис даже не выдавал ошибку). Так что карманные миры пока откладываются.
Артем Коневских @radio_hypothalamus помог мне покорить сплаты. Сначала он использовал RealityCapture, чтобы из видео реконструировать point cloud и рассчитать положения камеры, а затем на этих данных в Postshot натренировал сплаты. К слову, сплаты можно делать и сразу в Postshot, но так получается быстрее
Посмотрите как круто вышло. До полного управления персонализированными Вселенными осталось совсем чуть-чуть!
В новой версии Runway появилось управление камерой и то самое панорамирование, которое дает нам возможность хоть и криво, но облететь объект вокруг. Я не знаю, как у вас, но у меня это вызвало бешеное желание поскорее засунуть генерацию пролета в Luma 3D и создать сплат, где можно летать камерой вокруг объекта не только так, как на исходнике.
Разумеется, главный прикол был в том, что реалистичные генерации мы можем заснять непосредственно в нашем мире, мне хотелось сделать что-то иное, чтобы протестировать это на сказочных мирах, посмотреть качество и артефакты.
О реалистичных генерациях и попытках сделать результат из черрипиков Runway можно прочитать у Psy Eyes.
Изначально я хотела протестировать Luma 3D на предмет того, может ли она сделать зачаток Вселенной из моего видео, но все мои попытки кончались долгими загрузками (сервис даже не выдавал ошибку). Так что карманные миры пока откладываются.
Артем Коневских @radio_hypothalamus помог мне покорить сплаты. Сначала он использовал RealityCapture, чтобы из видео реконструировать point cloud и рассчитать положения камеры, а затем на этих данных в Postshot натренировал сплаты. К слову, сплаты можно делать и сразу в Postshot, но так получается быстрее
Посмотрите как круто вышло. До полного управления персонализированными Вселенными осталось совсем чуть-чуть!
group-telegram.com/leraneuralpics/1547
Create:
Last Update:
Last Update:
Заморочились по Gaussian Splatting, Runway и созданию своих миров
В новой версии Runway появилось управление камерой и то самое панорамирование, которое дает нам возможность хоть и криво, но облететь объект вокруг. Я не знаю, как у вас, но у меня это вызвало бешеное желание поскорее засунуть генерацию пролета в Luma 3D и создать сплат, где можно летать камерой вокруг объекта не только так, как на исходнике.
Разумеется, главный прикол был в том, что реалистичные генерации мы можем заснять непосредственно в нашем мире, мне хотелось сделать что-то иное, чтобы протестировать это на сказочных мирах, посмотреть качество и артефакты.
О реалистичных генерациях и попытках сделать результат из черрипиков Runway можно прочитать у Psy Eyes.
Изначально я хотела протестировать Luma 3D на предмет того, может ли она сделать зачаток Вселенной из моего видео, но все мои попытки кончались долгими загрузками (сервис даже не выдавал ошибку). Так что карманные миры пока откладываются.
Артем Коневских @radio_hypothalamus помог мне покорить сплаты. Сначала он использовал RealityCapture, чтобы из видео реконструировать point cloud и рассчитать положения камеры, а затем на этих данных в Postshot натренировал сплаты. К слову, сплаты можно делать и сразу в Postshot, но так получается быстрее
Посмотрите как круто вышло. До полного управления персонализированными Вселенными осталось совсем чуть-чуть!
В новой версии Runway появилось управление камерой и то самое панорамирование, которое дает нам возможность хоть и криво, но облететь объект вокруг. Я не знаю, как у вас, но у меня это вызвало бешеное желание поскорее засунуть генерацию пролета в Luma 3D и создать сплат, где можно летать камерой вокруг объекта не только так, как на исходнике.
Разумеется, главный прикол был в том, что реалистичные генерации мы можем заснять непосредственно в нашем мире, мне хотелось сделать что-то иное, чтобы протестировать это на сказочных мирах, посмотреть качество и артефакты.
О реалистичных генерациях и попытках сделать результат из черрипиков Runway можно прочитать у Psy Eyes.
Изначально я хотела протестировать Luma 3D на предмет того, может ли она сделать зачаток Вселенной из моего видео, но все мои попытки кончались долгими загрузками (сервис даже не выдавал ошибку). Так что карманные миры пока откладываются.
Артем Коневских @radio_hypothalamus помог мне покорить сплаты. Сначала он использовал RealityCapture, чтобы из видео реконструировать point cloud и рассчитать положения камеры, а затем на этих данных в Postshot натренировал сплаты. К слову, сплаты можно делать и сразу в Postshot, но так получается быстрее
Посмотрите как круто вышло. До полного управления персонализированными Вселенными осталось совсем чуть-чуть!
BY ЭйАйЛера
Share with your friend now:
group-telegram.com/leraneuralpics/1547