o3-mini выпустят в конце января.
Пока можно записаться в тестеры безопасности, форма на сайте, заявки принимаются до 10 января.
o3 выпустят позже, чем o3-mini
o3 - уровень кандидата наук.
Сэм, где DALL·E 4?
https://www.youtube.com/live/SKBG1sqdyIU
@cgevent
Пока можно записаться в тестеры безопасности, форма на сайте, заявки принимаются до 10 января.
o3 выпустят позже, чем o3-mini
o3 - уровень кандидата наук.
Сэм, где DALL·E 4?
https://www.youtube.com/live/SKBG1sqdyIU
@cgevent
O2
Олды поймут, почему новая модель OpenAI называется о3, а не о2.
Во-первых, это кислород.
Во-вторых, на этом кислороде, мы запускали первую Майю в 1998 году.
(Я запускал Maya 0 beta 6 в 1997).
Тачка o2 стоила 30 000 долларов.
Maya base 1.0 - 12 000 долларов.
Maya dynamics 1.0 - 12 000 долларов.
Maya artisan 1.0 - 8000 долларов.
На FOB. Итого 62К$.
Плюс доставка и растаможка.
2024: ох, подписка 20$ - это дорого!
Ну ок.
https://en.m.wikipedia.org/wiki/SGI_O2
@cgevent
Олды поймут, почему новая модель OpenAI называется о3, а не о2.
Во-первых, это кислород.
Во-вторых, на этом кислороде, мы запускали первую Майю в 1998 году.
(Я запускал Maya 0 beta 6 в 1997).
Тачка o2 стоила 30 000 долларов.
Maya base 1.0 - 12 000 долларов.
Maya dynamics 1.0 - 12 000 долларов.
Maya artisan 1.0 - 8000 долларов.
На FOB. Итого 62К$.
Плюс доставка и растаможка.
2024: ох, подписка 20$ - это дорого!
Ну ок.
https://en.m.wikipedia.org/wiki/SGI_O2
@cgevent
Без комментариев.
https://blog.comfy.org/p/hunyuanvideo-native-support-in-comfyui?r=4z50rt&utm_campaign=post&utm_medium=web&triedRedirect=true
https://blog.comfy.org/p/hunyuanvideo-native-support-in-comfyui?r=4z50rt&utm_campaign=post&utm_medium=web&triedRedirect=true
blog.comfy.org
HunyuanVideo Native Support in ComfyUI
We’re excited to announce that HunyuanVideo, a groundbreaking 13-billion-parameter open-source video foundation model, is now natively supported in ComfyUI!
Media is too big
VIEW IN TELEGRAM
Видео на выходные.
Тут в комментах подписчики генерят тонны креатива и чатик превращается в креативно-техническое пространство (о, как сказал). И ИИ-сток.
Мой приятель, и по совместительству режиссер кино и видеоклипов, Дима Киселев взял и собрал весь этот поток ИИ-творчества в один музыкальный клип.
Меня больше всего поражает, как можно было упихать полностью ломающее язык название канала в текст пестни.
Кстати, промт был «Метаверсище и ИИще зажигательный танец»
Ну и видна рука мастера. Монтаж лимитированного материала просто отличный. Те, кто монтирует генератив, берите на заметку.
Всех с наступающими!
@cgevent
Тут в комментах подписчики генерят тонны креатива и чатик превращается в креативно-техническое пространство (о, как сказал). И ИИ-сток.
Мой приятель, и по совместительству режиссер кино и видеоклипов, Дима Киселев взял и собрал весь этот поток ИИ-творчества в один музыкальный клип.
Меня больше всего поражает, как можно было упихать полностью ломающее язык название канала в текст пестни.
Кстати, промт был «Метаверсище и ИИще зажигательный танец»
Ну и видна рука мастера. Монтаж лимитированного материала просто отличный. Те, кто монтирует генератив, берите на заметку.
Всех с наступающими!
@cgevent
Media is too big
VIEW IN TELEGRAM
Ну, за мультипликаторов.
Тут Гугль неожиданно выкатил вот такую интересную работу.
И мультик.
Для каждого персонажа свой файнтюн(?!, да, там LoadCheckPoint + Dreambooth SDXL). По 12-то картинкам.
Эти файнтюны генерят кривые руки и пропорции - их корректируют через Depth и Canny контролнеты.
В ComfyUI.
Там же сегментируют персонажей с помощью Dino и SAM.
Часть картинок анимируют с помощью AnimateDiff + DaVinci+Nuke.
А часть - просто ригают и анимируют в Adobe Character Animator.
(Тут мы перестаем пить за мультипликаторов и вопросительно поднимаем бровь). Гугль, это что вообще?
Гугль: это ассистент для аниматоров.
"В рамках этого пилотного проекта мы вместе с художниками разрабатывали новые рабочие процессы для 2D-анимации, одновременно создавая короткометражный образовательный мультфильм. Мы определили несколько рабочих процессов, которые позволят упростить процесс анимации и более эффективно воплотить замыслы художников на экране."
Кода или воркфлоу для Комфи я не нашел.
Но есть кожаные сценарии для эпизодов.
Странная работа.
https://genai-2d-character-animation.github.io/
Тут Гугль неожиданно выкатил вот такую интересную работу.
И мультик.
Для каждого персонажа свой файнтюн(?!, да, там LoadCheckPoint + Dreambooth SDXL). По 12-то картинкам.
Эти файнтюны генерят кривые руки и пропорции - их корректируют через Depth и Canny контролнеты.
В ComfyUI.
Там же сегментируют персонажей с помощью Dino и SAM.
Часть картинок анимируют с помощью AnimateDiff + DaVinci+Nuke.
А часть - просто ригают и анимируют в Adobe Character Animator.
(Тут мы перестаем пить за мультипликаторов и вопросительно поднимаем бровь). Гугль, это что вообще?
Гугль: это ассистент для аниматоров.
"В рамках этого пилотного проекта мы вместе с художниками разрабатывали новые рабочие процессы для 2D-анимации, одновременно создавая короткометражный образовательный мультфильм. Мы определили несколько рабочих процессов, которые позволят упростить процесс анимации и более эффективно воплотить замыслы художников на экране."
Кода или воркфлоу для Комфи я не нашел.
Но есть кожаные сценарии для эпизодов.
Странная работа.
https://genai-2d-character-animation.github.io/
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Аватаризация, скидки и все такое.
Я не склонен превращая канал в чорную пятницу, вы сами пошарьте в сети, у кого сейчас скидки или бесплатные периоды. Suno, Pika, Cupcat, Hedra по коду HEDRAODYSSEY (месяц бесплатно) и всяко разно другое.
Но вот держите посылочку от Тиктока, и какую.
Это как бы ответочка Хедре и даже самому Хейгену, с очень интересными штуками.
И если будет код, то это хорошая альтернатива Hallo - опенсорсному оживлятору говорящих голов.
Смотрите, что есть у NFP: Audio-Driven Interactive Head Generation
1. Это заточено под диалоги, причем есть режим слушающего
2. Может принимать пестни на вход и петь с закрытыми глазами
3. Есть Мона Лиза, как у людей.
4. Прямо просится в онлайн-созвоны: режим переключения между слушателем и докладчиком и вот это: Real-time Agent to Agent communication!!!
5. Можно делать подкасты для двух цифровых тварей.
Для сравнения, последний ролик в посте из новой Хедры.
Смотрим видео тут и взываем код.
https://grisoon.github.io/INFP/
Можете также поглядеть на опенсорсную ответочку от Алибабы, которые зажали EMO, но выпустили Эхомимику:
https://antgroup.github.io/ai/echomimic_v2/
@cgevent
Я не склонен превращая канал в чорную пятницу, вы сами пошарьте в сети, у кого сейчас скидки или бесплатные периоды. Suno, Pika, Cupcat, Hedra по коду HEDRAODYSSEY (месяц бесплатно) и всяко разно другое.
Но вот держите посылочку от Тиктока, и какую.
Это как бы ответочка Хедре и даже самому Хейгену, с очень интересными штуками.
И если будет код, то это хорошая альтернатива Hallo - опенсорсному оживлятору говорящих голов.
Смотрите, что есть у NFP: Audio-Driven Interactive Head Generation
1. Это заточено под диалоги, причем есть режим слушающего
2. Может принимать пестни на вход и петь с закрытыми глазами
3. Есть Мона Лиза, как у людей.
4. Прямо просится в онлайн-созвоны: режим переключения между слушателем и докладчиком и вот это: Real-time Agent to Agent communication!!!
5. Можно делать подкасты для двух цифровых тварей.
Для сравнения, последний ролик в посте из новой Хедры.
Смотрим видео тут и взываем код.
https://grisoon.github.io/INFP/
Можете также поглядеть на опенсорсную ответочку от Алибабы, которые зажали EMO, но выпустили Эхомимику:
https://antgroup.github.io/ai/echomimic_v2/
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
MovieGen в Instagram, но это не точно
Тут босс инстаграма Адам Моссери флексит метачковый MovieGen, который "как он надеется" появится в инсте в 2025 году (неясно в каком месяце).
Выглядит как видео2видео с сегментацией лица и промптовым редактированием.
Для инсты - самое то. Достаточно безопасное решение, если на входе ваше видео.
Вопрос продуктовых фишек:
Seamless Integration: Built directly into Instagram for instant access
Как именно это будет встроено в инсту? Какие кнопачки будут решать задачу новых ИИ-фильтров.
Ну и входное видео надо снимать самим, это плохая новость...
@cgevent
Тут босс инстаграма Адам Моссери флексит метачковый MovieGen, который "как он надеется" появится в инсте в 2025 году (неясно в каком месяце).
Выглядит как видео2видео с сегментацией лица и промптовым редактированием.
Для инсты - самое то. Достаточно безопасное решение, если на входе ваше видео.
Вопрос продуктовых фишек:
Seamless Integration: Built directly into Instagram for instant access
Как именно это будет встроено в инсту? Какие кнопачки будут решать задачу новых ИИ-фильтров.
Ну и входное видео надо снимать самим, это плохая новость...
@cgevent
Media is too big
VIEW IN TELEGRAM
Ну, за трейлеры.
Это чистый Google Veo 2 Text2Video плюс монтаж в Capcut.
Если к сторителлингу есть некоторые вопросы(приподвзварчиваю немного), то картинка просто убийственная.
Больше всего мне нравятся "шейдеры" и вот эта вот трансформирующаяся геометрия.
В общем на фоне бесконечных лабрадоров в очках и мартышек на роликах это выглядит как реальный клип "по делу".
Н-Нравится.
@cgevent
Это чистый Google Veo 2 Text2Video плюс монтаж в Capcut.
Если к сторителлингу есть некоторые вопросы(приподвзварчиваю немного), то картинка просто убийственная.
Больше всего мне нравятся "шейдеры" и вот эта вот трансформирующаяся геометрия.
В общем на фоне бесконечных лабрадоров в очках и мартышек на роликах это выглядит как реальный клип "по делу".
Н-Нравится.
@cgevent