Ур Торум: Ai анимация
Те кто работает в индустрии производства разного рода творческого контента, знают как важна гибкость.
Множество факторов способны повлиять на процесс. Несвоевременные правки,смена настроений заказчиков, резкое сокращение бюджетов или времени на производство. И очень часто это губительно влияет на итоговый результат. Самым ярким примером в последние годы является деградация качества компьютерной графики в голливудских блокбастерах.
Для меня эта самая гибкость обрела новое значение при работе над проектами с использованием нейросетей.
Еще во время работы над клипом для группы Pain, некоторые кадры, были отложены на конец производства из-за отсутствия понимания как их сделать. И только после выхода новых ИИ инструментов, всё получилось.
Ур Торум не стал исключением. В начале лета мне пришло письмо от компании Luma Labs с приглашением на недельный закрытый бета тест их новой нейронки Dream Machine. А позже и вовсе дали доступ на год к премимум аккаунту.
Мы начали тестить и оказалось, что эта модель очень даже хорошо может анимировать составные части наших сцен. Так практически весь огонь, свечи, вороны на ветке и главный герой в паре сцен ожили в кратчайшие сроки.
А наш по большей части моушн комикс ролик, стал еще больше походить на анимационное кино.
Отдельного упоминания стоит сцена бега героя на крупном и общем плане.
Если с тем что 2D аниматоры из студии Blaster должны были анимировать персонажей с более точными движениями было всё ясно, то как быть с окружением если оно должно двигаться? Я пробовал собрать 3Д сцену леса из слоев в After Effects. Выглядело на превизе это мягко говоря так себе. Вот тут мне и пришла идея закинуть арт в Luma. И это была фееричная мазня!
Но первые пару секунд показали, что этот кадр может быть крутым и динамичным с ручной камерой! 2D аниматор начала рисовать персонажа по этому рефу а я закинул в Luma фон и написалпромт: pov оператор с ручной камерой бежит по лесу. Результат буквально с первых попыток получился хорошим. Но как органично вписать туда героя, анимация которого нарисованна в ручную? По заветам старого доброго Эндрю Крамера( те кто по старше знают его как гуру визуальных эффектов из подручных средств на домашнем компьютере с After Effects) я прилепил на стену бумажку с маркером движения и отснял видео на телефон имитируя тряску камеры при беге. После этого перенес движение камеры телефона на виртуальную камеру в сцену с бегом а персонажа и фон превратил в два 3Д слоя. Добавим размытия при движении и наша сцена готова!
Видео с кадрами в которых нам помогла Luma , а также разбор сцены бега вы можете увидеть выше.
И так как это последний пост о создании проекта "Ур Торум", в завершении хотелось бы сказать. Нейросети не изменят сами индустрию и вашу жизнь! Но вы можете изменить их используя нейросети!
Те кто работает в индустрии производства разного рода творческого контента, знают как важна гибкость.
Множество факторов способны повлиять на процесс. Несвоевременные правки,смена настроений заказчиков, резкое сокращение бюджетов или времени на производство. И очень часто это губительно влияет на итоговый результат. Самым ярким примером в последние годы является деградация качества компьютерной графики в голливудских блокбастерах.
Для меня эта самая гибкость обрела новое значение при работе над проектами с использованием нейросетей.
Еще во время работы над клипом для группы Pain, некоторые кадры, были отложены на конец производства из-за отсутствия понимания как их сделать. И только после выхода новых ИИ инструментов, всё получилось.
Ур Торум не стал исключением. В начале лета мне пришло письмо от компании Luma Labs с приглашением на недельный закрытый бета тест их новой нейронки Dream Machine. А позже и вовсе дали доступ на год к премимум аккаунту.
Мы начали тестить и оказалось, что эта модель очень даже хорошо может анимировать составные части наших сцен. Так практически весь огонь, свечи, вороны на ветке и главный герой в паре сцен ожили в кратчайшие сроки.
А наш по большей части моушн комикс ролик, стал еще больше походить на анимационное кино.
Отдельного упоминания стоит сцена бега героя на крупном и общем плане.
Если с тем что 2D аниматоры из студии Blaster должны были анимировать персонажей с более точными движениями было всё ясно, то как быть с окружением если оно должно двигаться? Я пробовал собрать 3Д сцену леса из слоев в After Effects. Выглядело на превизе это мягко говоря так себе. Вот тут мне и пришла идея закинуть арт в Luma. И это была фееричная мазня!
Но первые пару секунд показали, что этот кадр может быть крутым и динамичным с ручной камерой! 2D аниматор начала рисовать персонажа по этому рефу а я закинул в Luma фон и написалпромт: pov оператор с ручной камерой бежит по лесу. Результат буквально с первых попыток получился хорошим. Но как органично вписать туда героя, анимация которого нарисованна в ручную? По заветам старого доброго Эндрю Крамера( те кто по старше знают его как гуру визуальных эффектов из подручных средств на домашнем компьютере с After Effects) я прилепил на стену бумажку с маркером движения и отснял видео на телефон имитируя тряску камеры при беге. После этого перенес движение камеры телефона на виртуальную камеру в сцену с бегом а персонажа и фон превратил в два 3Д слоя. Добавим размытия при движении и наша сцена готова!
Видео с кадрами в которых нам помогла Luma , а также разбор сцены бега вы можете увидеть выше.
И так как это последний пост о создании проекта "Ур Торум", в завершении хотелось бы сказать. Нейросети не изменят сами индустрию и вашу жизнь! Но вы можете изменить их используя нейросети!
group-telegram.com/aifilmmaker/81
Create:
Last Update:
Last Update:
Ур Торум: Ai анимация
Те кто работает в индустрии производства разного рода творческого контента, знают как важна гибкость.
Множество факторов способны повлиять на процесс. Несвоевременные правки,смена настроений заказчиков, резкое сокращение бюджетов или времени на производство. И очень часто это губительно влияет на итоговый результат. Самым ярким примером в последние годы является деградация качества компьютерной графики в голливудских блокбастерах.
Для меня эта самая гибкость обрела новое значение при работе над проектами с использованием нейросетей.
Еще во время работы над клипом для группы Pain, некоторые кадры, были отложены на конец производства из-за отсутствия понимания как их сделать. И только после выхода новых ИИ инструментов, всё получилось.
Ур Торум не стал исключением. В начале лета мне пришло письмо от компании Luma Labs с приглашением на недельный закрытый бета тест их новой нейронки Dream Machine. А позже и вовсе дали доступ на год к премимум аккаунту.
Мы начали тестить и оказалось, что эта модель очень даже хорошо может анимировать составные части наших сцен. Так практически весь огонь, свечи, вороны на ветке и главный герой в паре сцен ожили в кратчайшие сроки.
А наш по большей части моушн комикс ролик, стал еще больше походить на анимационное кино.
Отдельного упоминания стоит сцена бега героя на крупном и общем плане.
Если с тем что 2D аниматоры из студии Blaster должны были анимировать персонажей с более точными движениями было всё ясно, то как быть с окружением если оно должно двигаться? Я пробовал собрать 3Д сцену леса из слоев в After Effects. Выглядело на превизе это мягко говоря так себе. Вот тут мне и пришла идея закинуть арт в Luma. И это была фееричная мазня!
Но первые пару секунд показали, что этот кадр может быть крутым и динамичным с ручной камерой! 2D аниматор начала рисовать персонажа по этому рефу а я закинул в Luma фон и написалпромт: pov оператор с ручной камерой бежит по лесу. Результат буквально с первых попыток получился хорошим. Но как органично вписать туда героя, анимация которого нарисованна в ручную? По заветам старого доброго Эндрю Крамера( те кто по старше знают его как гуру визуальных эффектов из подручных средств на домашнем компьютере с After Effects) я прилепил на стену бумажку с маркером движения и отснял видео на телефон имитируя тряску камеры при беге. После этого перенес движение камеры телефона на виртуальную камеру в сцену с бегом а персонажа и фон превратил в два 3Д слоя. Добавим размытия при движении и наша сцена готова!
Видео с кадрами в которых нам помогла Luma , а также разбор сцены бега вы можете увидеть выше.
И так как это последний пост о создании проекта "Ур Торум", в завершении хотелось бы сказать. Нейросети не изменят сами индустрию и вашу жизнь! Но вы можете изменить их используя нейросети!
Те кто работает в индустрии производства разного рода творческого контента, знают как важна гибкость.
Множество факторов способны повлиять на процесс. Несвоевременные правки,смена настроений заказчиков, резкое сокращение бюджетов или времени на производство. И очень часто это губительно влияет на итоговый результат. Самым ярким примером в последние годы является деградация качества компьютерной графики в голливудских блокбастерах.
Для меня эта самая гибкость обрела новое значение при работе над проектами с использованием нейросетей.
Еще во время работы над клипом для группы Pain, некоторые кадры, были отложены на конец производства из-за отсутствия понимания как их сделать. И только после выхода новых ИИ инструментов, всё получилось.
Ур Торум не стал исключением. В начале лета мне пришло письмо от компании Luma Labs с приглашением на недельный закрытый бета тест их новой нейронки Dream Machine. А позже и вовсе дали доступ на год к премимум аккаунту.
Мы начали тестить и оказалось, что эта модель очень даже хорошо может анимировать составные части наших сцен. Так практически весь огонь, свечи, вороны на ветке и главный герой в паре сцен ожили в кратчайшие сроки.
А наш по большей части моушн комикс ролик, стал еще больше походить на анимационное кино.
Отдельного упоминания стоит сцена бега героя на крупном и общем плане.
Если с тем что 2D аниматоры из студии Blaster должны были анимировать персонажей с более точными движениями было всё ясно, то как быть с окружением если оно должно двигаться? Я пробовал собрать 3Д сцену леса из слоев в After Effects. Выглядело на превизе это мягко говоря так себе. Вот тут мне и пришла идея закинуть арт в Luma. И это была фееричная мазня!
Но первые пару секунд показали, что этот кадр может быть крутым и динамичным с ручной камерой! 2D аниматор начала рисовать персонажа по этому рефу а я закинул в Luma фон и написалпромт: pov оператор с ручной камерой бежит по лесу. Результат буквально с первых попыток получился хорошим. Но как органично вписать туда героя, анимация которого нарисованна в ручную? По заветам старого доброго Эндрю Крамера( те кто по старше знают его как гуру визуальных эффектов из подручных средств на домашнем компьютере с After Effects) я прилепил на стену бумажку с маркером движения и отснял видео на телефон имитируя тряску камеры при беге. После этого перенес движение камеры телефона на виртуальную камеру в сцену с бегом а персонажа и фон превратил в два 3Д слоя. Добавим размытия при движении и наша сцена готова!
Видео с кадрами в которых нам помогла Luma , а также разбор сцены бега вы можете увидеть выше.
И так как это последний пост о создании проекта "Ур Торум", в завершении хотелось бы сказать. Нейросети не изменят сами индустрию и вашу жизнь! Но вы можете изменить их используя нейросети!
BY Ai Filmmaker
Share with your friend now:
group-telegram.com/aifilmmaker/81