o3-mini выпустят в конце января.
Пока можно записаться в тестеры безопасности, форма на сайте, заявки принимаются до 10 января.
o3 выпустят позже, чем o3-mini
o3 - уровень кандидата наук.
Сэм, где DALL·E 4?
https://www.youtube.com/live/SKBG1sqdyIU
@cgevent
Пока можно записаться в тестеры безопасности, форма на сайте, заявки принимаются до 10 января.
o3 выпустят позже, чем o3-mini
o3 - уровень кандидата наук.
Сэм, где DALL·E 4?
https://www.youtube.com/live/SKBG1sqdyIU
@cgevent
O2
Олды поймут, почему новая модель OpenAI называется о3, а не о2.
Во-первых, это кислород.
Во-вторых, на этом кислороде, мы запускали первую Майю в 1998 году.
(Я запускал Maya 0 beta 6 в 1997).
Тачка o2 стоила 30 000 долларов.
Maya base 1.0 - 12 000 долларов.
Maya dynamics 1.0 - 12 000 долларов.
Maya artisan 1.0 - 8000 долларов.
На FOB. Итого 62К$.
Плюс доставка и растаможка.
2024: ох, подписка 20$ - это дорого!
Ну ок.
https://en.m.wikipedia.org/wiki/SGI_O2
@cgevent
Олды поймут, почему новая модель OpenAI называется о3, а не о2.
Во-первых, это кислород.
Во-вторых, на этом кислороде, мы запускали первую Майю в 1998 году.
(Я запускал Maya 0 beta 6 в 1997).
Тачка o2 стоила 30 000 долларов.
Maya base 1.0 - 12 000 долларов.
Maya dynamics 1.0 - 12 000 долларов.
Maya artisan 1.0 - 8000 долларов.
На FOB. Итого 62К$.
Плюс доставка и растаможка.
2024: ох, подписка 20$ - это дорого!
Ну ок.
https://en.m.wikipedia.org/wiki/SGI_O2
@cgevent
Без комментариев.
https://blog.comfy.org/p/hunyuanvideo-native-support-in-comfyui?r=4z50rt&utm_campaign=post&utm_medium=web&triedRedirect=true
https://blog.comfy.org/p/hunyuanvideo-native-support-in-comfyui?r=4z50rt&utm_campaign=post&utm_medium=web&triedRedirect=true
blog.comfy.org
HunyuanVideo Native Support in ComfyUI
We’re excited to announce that HunyuanVideo, a groundbreaking 13-billion-parameter open-source video foundation model, is now natively supported in ComfyUI!
Media is too big
VIEW IN TELEGRAM
Видео на выходные.
Тут в комментах подписчики генерят тонны креатива и чатик превращается в креативно-техническое пространство (о, как сказал). И ИИ-сток.
Мой приятель, и по совместительству режиссер кино и видеоклипов, Дима Киселев взял и собрал весь этот поток ИИ-творчества в один музыкальный клип.
Меня больше всего поражает, как можно было упихать полностью ломающее язык название канала в текст пестни.
Кстати, промт был «Метаверсище и ИИще зажигательный танец»
Ну и видна рука мастера. Монтаж лимитированного материала просто отличный. Те, кто монтирует генератив, берите на заметку.
Всех с наступающими!
@cgevent
Тут в комментах подписчики генерят тонны креатива и чатик превращается в креативно-техническое пространство (о, как сказал). И ИИ-сток.
Мой приятель, и по совместительству режиссер кино и видеоклипов, Дима Киселев взял и собрал весь этот поток ИИ-творчества в один музыкальный клип.
Меня больше всего поражает, как можно было упихать полностью ломающее язык название канала в текст пестни.
Кстати, промт был «Метаверсище и ИИще зажигательный танец»
Ну и видна рука мастера. Монтаж лимитированного материала просто отличный. Те, кто монтирует генератив, берите на заметку.
Всех с наступающими!
@cgevent
Media is too big
VIEW IN TELEGRAM
Ну, за мультипликаторов.
Тут Гугль неожиданно выкатил вот такую интересную работу.
И мультик.
Для каждого персонажа свой файнтюн(?!, да, там LoadCheckPoint + Dreambooth SDXL). По 12-то картинкам.
Эти файнтюны генерят кривые руки и пропорции - их корректируют через Depth и Canny контролнеты.
В ComfyUI.
Там же сегментируют персонажей с помощью Dino и SAM.
Часть картинок анимируют с помощью AnimateDiff + DaVinci+Nuke.
А часть - просто ригают и анимируют в Adobe Character Animator.
(Тут мы перестаем пить за мультипликаторов и вопросительно поднимаем бровь). Гугль, это что вообще?
Гугль: это ассистент для аниматоров.
"В рамках этого пилотного проекта мы вместе с художниками разрабатывали новые рабочие процессы для 2D-анимации, одновременно создавая короткометражный образовательный мультфильм. Мы определили несколько рабочих процессов, которые позволят упростить процесс анимации и более эффективно воплотить замыслы художников на экране."
Кода или воркфлоу для Комфи я не нашел.
Но есть кожаные сценарии для эпизодов.
Странная работа.
https://genai-2d-character-animation.github.io/
Тут Гугль неожиданно выкатил вот такую интересную работу.
И мультик.
Для каждого персонажа свой файнтюн(?!, да, там LoadCheckPoint + Dreambooth SDXL). По 12-то картинкам.
Эти файнтюны генерят кривые руки и пропорции - их корректируют через Depth и Canny контролнеты.
В ComfyUI.
Там же сегментируют персонажей с помощью Dino и SAM.
Часть картинок анимируют с помощью AnimateDiff + DaVinci+Nuke.
А часть - просто ригают и анимируют в Adobe Character Animator.
(Тут мы перестаем пить за мультипликаторов и вопросительно поднимаем бровь). Гугль, это что вообще?
Гугль: это ассистент для аниматоров.
"В рамках этого пилотного проекта мы вместе с художниками разрабатывали новые рабочие процессы для 2D-анимации, одновременно создавая короткометражный образовательный мультфильм. Мы определили несколько рабочих процессов, которые позволят упростить процесс анимации и более эффективно воплотить замыслы художников на экране."
Кода или воркфлоу для Комфи я не нашел.
Но есть кожаные сценарии для эпизодов.
Странная работа.
https://genai-2d-character-animation.github.io/
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Аватаризация, скидки и все такое.
Я не склонен превращая канал в чорную пятницу, вы сами пошарьте в сети, у кого сейчас скидки или бесплатные периоды. Suno, Pika, Cupcat, Hedra по коду HEDRAODYSSEY (месяц бесплатно) и всяко разно другое.
Но вот держите посылочку от Тиктока, и какую.
Это как бы ответочка Хедре и даже самому Хейгену, с очень интересными штуками.
И если будет код, то это хорошая альтернатива Hallo - опенсорсному оживлятору говорящих голов.
Смотрите, что есть у NFP: Audio-Driven Interactive Head Generation
1. Это заточено под диалоги, причем есть режим слушающего
2. Может принимать пестни на вход и петь с закрытыми глазами
3. Есть Мона Лиза, как у людей.
4. Прямо просится в онлайн-созвоны: режим переключения между слушателем и докладчиком и вот это: Real-time Agent to Agent communication!!!
5. Можно делать подкасты для двух цифровых тварей.
Для сравнения, последний ролик в посте из новой Хедры.
Смотрим видео тут и взываем код.
https://grisoon.github.io/INFP/
Можете также поглядеть на опенсорсную ответочку от Алибабы, которые зажали EMO, но выпустили Эхомимику:
https://antgroup.github.io/ai/echomimic_v2/
@cgevent
Я не склонен превращая канал в чорную пятницу, вы сами пошарьте в сети, у кого сейчас скидки или бесплатные периоды. Suno, Pika, Cupcat, Hedra по коду HEDRAODYSSEY (месяц бесплатно) и всяко разно другое.
Но вот держите посылочку от Тиктока, и какую.
Это как бы ответочка Хедре и даже самому Хейгену, с очень интересными штуками.
И если будет код, то это хорошая альтернатива Hallo - опенсорсному оживлятору говорящих голов.
Смотрите, что есть у NFP: Audio-Driven Interactive Head Generation
1. Это заточено под диалоги, причем есть режим слушающего
2. Может принимать пестни на вход и петь с закрытыми глазами
3. Есть Мона Лиза, как у людей.
4. Прямо просится в онлайн-созвоны: режим переключения между слушателем и докладчиком и вот это: Real-time Agent to Agent communication!!!
5. Можно делать подкасты для двух цифровых тварей.
Для сравнения, последний ролик в посте из новой Хедры.
Смотрим видео тут и взываем код.
https://grisoon.github.io/INFP/
Можете также поглядеть на опенсорсную ответочку от Алибабы, которые зажали EMO, но выпустили Эхомимику:
https://antgroup.github.io/ai/echomimic_v2/
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
MovieGen в Instagram, но это не точно
Тут босс инстаграма Адам Моссери флексит метачковый MovieGen, который "как он надеется" появится в инсте в 2025 году (неясно в каком месяце).
Выглядит как видео2видео с сегментацией лица и промптовым редактированием.
Для инсты - самое то. Достаточно безопасное решение, если на входе ваше видео.
Вопрос продуктовых фишек:
Seamless Integration: Built directly into Instagram for instant access
Как именно это будет встроено в инсту? Какие кнопачки будут решать задачу новых ИИ-фильтров.
Ну и входное видео надо снимать самим, это плохая новость...
@cgevent
Тут босс инстаграма Адам Моссери флексит метачковый MovieGen, который "как он надеется" появится в инсте в 2025 году (неясно в каком месяце).
Выглядит как видео2видео с сегментацией лица и промптовым редактированием.
Для инсты - самое то. Достаточно безопасное решение, если на входе ваше видео.
Вопрос продуктовых фишек:
Seamless Integration: Built directly into Instagram for instant access
Как именно это будет встроено в инсту? Какие кнопачки будут решать задачу новых ИИ-фильтров.
Ну и входное видео надо снимать самим, это плохая новость...
@cgevent
Media is too big
VIEW IN TELEGRAM
Ну, за трейлеры.
Это чистый Google Veo 2 Text2Video плюс монтаж в Capcut.
Если к сторителлингу есть некоторые вопросы(приподвзварчиваю немного), то картинка просто убийственная.
Больше всего мне нравятся "шейдеры" и вот эта вот трансформирующаяся геометрия.
В общем на фоне бесконечных лабрадоров в очках и мартышек на роликах это выглядит как реальный клип "по делу".
Н-Нравится.
@cgevent
Это чистый Google Veo 2 Text2Video плюс монтаж в Capcut.
Если к сторителлингу есть некоторые вопросы(приподвзварчиваю немного), то картинка просто убийственная.
Больше всего мне нравятся "шейдеры" и вот эта вот трансформирующаяся геометрия.
В общем на фоне бесконечных лабрадоров в очках и мартышек на роликах это выглядит как реальный клип "по делу".
Н-Нравится.
@cgevent
В 3Д генераторе Trellis (опенсорсном, от Микрософта) появилась возможность загружать несколько картинок на вход.
Можно самим попробовать вот тут:
https://huggingface.co/spaces/JeffreyXiang/TRELLIS
Вкладка multiple images
@cgevent
Можно самим попробовать вот тут:
https://huggingface.co/spaces/JeffreyXiang/TRELLIS
Вкладка multiple images
@cgevent
huggingface.co
TRELLIS - a Hugging Face Space by JeffreyXiang
Scalable and Versatile 3D Generation from images
This media is not supported in your browser
VIEW IN TELEGRAM
Runway Middle Frames
Выглядят довольно продуктово.
Дальше никто не мешает сделать интерфейс с таймлайном и маркерами и несколькими/многими ключевыми кадрами. И получить хорошее решение "раскадровка2видео".
У Сора есть что-то подобное в новом интерфейсе с таймлайном. Я потестил рождественскую Сору с американским ВПН. Но там практически невозможно получить такие примеры с людьми. Она орет как резаная, даже когда ей даёшь её же генерации. "Тут кожаные, срам какой!".
Соре точно надо к терапевту, подавленная телесность до добра не доведет, а мы получим закомплексованные картинки в голову.
Рунвей молодцы, людишек не бояцца, а ключевые кадры постепенно переползут в решения для консистентных раскадровок и монтажа.
@cgevent
Выглядят довольно продуктово.
Дальше никто не мешает сделать интерфейс с таймлайном и маркерами и несколькими/многими ключевыми кадрами. И получить хорошее решение "раскадровка2видео".
У Сора есть что-то подобное в новом интерфейсе с таймлайном. Я потестил рождественскую Сору с американским ВПН. Но там практически невозможно получить такие примеры с людьми. Она орет как резаная, даже когда ей даёшь её же генерации. "Тут кожаные, срам какой!".
Соре точно надо к терапевту, подавленная телесность до добра не доведет, а мы получим закомплексованные картинки в голову.
Рунвей молодцы, людишек не бояцца, а ключевые кадры постепенно переползут в решения для консистентных раскадровок и монтажа.
@cgevent
Мы тут часто дискутируем о новых интерфейсах AI, ведь если не только перепечатывать новости, но и генерить самому, появляется ощущение, каким должен быть AI-майндсет, чтобы генераторы перестали быть технологиями, а превращались в продукты.
Знакомые из AI Mindset запускают футуристичную лабораторию, где вместо чтения про AI вы начнете его реально использовать.
🤖 AI Mindset Lab — это 4 недели интенсивной практики, в которых вы свяжете знакомые инструменты в полноценные рабочие решения. Вот несколько примеров того, что создали участники предыдущей лабы:
• ассистент для рефлексии: дневник настроения с голосовым вводом и анализом эмоциональных паттернов. stack: ChatGPT, SuperWhisper
• smart meeting assistant: автоматическая транскрипция звонков и генерация саммари с отправкой в Telegram. stack: Zoom, Zapier, Whisper
• умный поиск по базе знаний: интеллектуальный поиск и рефлексия на базе заметок из своей базы знаний. stack: Obsidian, Windserf, Cursor
• ассистент для творческих задач: генерация идей, создание музыкальных аранжировок, генерация изображений и видео. stack: Midjourney, Suno, RunwayML и др.
• языковой тренер: адаптивная система обучения с генерацией персональных упражнений. stack: Claude, local LLMs, Gemini
• market research AI: автоматический сбор и анализ данных о рынке и конкурентах. stack: GPT, Perplexity, Consensus
Никакой воды и теории — только живая практика, реальные кейсы и взаимодействие в сообществе единомышленников. Вы научитесь не только использовать инструменты, но и мыслить как AI-исследователь.
🗓 старт: 21 января
📰 формат: 2-3 онлайн-встречи в неделю + практика
[подробнее о лаборатории]
по коду mindset скидка 10% до конца года
P.S. для тех, кто хочет глубже погрузиться в тему управления знаниями с AI, есть расширенный поток с фокусом на создание "второго мозга" в Obsidian + AI – AI Mindset [knowledge]
почитать о других проектах ребят можно на их канале @ai_mind_set
Знакомые из AI Mindset запускают футуристичную лабораторию, где вместо чтения про AI вы начнете его реально использовать.
• ассистент для рефлексии: дневник настроения с голосовым вводом и анализом эмоциональных паттернов. stack: ChatGPT, SuperWhisper
• smart meeting assistant: автоматическая транскрипция звонков и генерация саммари с отправкой в Telegram. stack: Zoom, Zapier, Whisper
• умный поиск по базе знаний: интеллектуальный поиск и рефлексия на базе заметок из своей базы знаний. stack: Obsidian, Windserf, Cursor
• ассистент для творческих задач: генерация идей, создание музыкальных аранжировок, генерация изображений и видео. stack: Midjourney, Suno, RunwayML и др.
• языковой тренер: адаптивная система обучения с генерацией персональных упражнений. stack: Claude, local LLMs, Gemini
• market research AI: автоматический сбор и анализ данных о рынке и конкурентах. stack: GPT, Perplexity, Consensus
Никакой воды и теории — только живая практика, реальные кейсы и взаимодействие в сообществе единомышленников. Вы научитесь не только использовать инструменты, но и мыслить как AI-исследователь.
[подробнее о лаборатории]
по коду mindset скидка 10% до конца года
P.S. для тех, кто хочет глубже погрузиться в тему управления знаниями с AI, есть расширенный поток с фокусом на создание "второго мозга" в Obsidian + AI – AI Mindset [knowledge]
почитать о других проектах ребят можно на их канале @ai_mind_set
Please open Telegram to view this post
VIEW IN TELEGRAM
AI Mindset VI: on bleeding edge of the possible
лаборатория мышления в парадигме AI
Media is too big
VIEW IN TELEGRAM
В твиттере вирусится видео, где Нетфликc как бы использует ИИ для дубляжа и одновременного липсинка.
Я вам предлагаю почитать хороший материал про то, как вообще нетфликс использует ИИ.
И там есть вот такой текст:
После успеха таких интерактивных сериалов, как "Бандерснэтч", Netflix, возможно, начнет изучать интерактивные истории с использованием ИИ, позволяя зрителям самим выбирать сюжет, который может включать дубляж с ИИ в зависимости от языковых предпочтений зрителя.
Использование искусственного интеллекта Netflix может стать мощным инструментом для предсказания потенциального успеха контента еще до его выхода - идея, которая не так уж далека от реальности, если учесть, что гигант потокового вещания уже использует аналитику.
Deepdub - это сервис, который использует Нетфликс для дубляжа.
https://deepdub.ai/post/how-netflix-leverages-ai-unveiling-the-tech-behind-the-stream
@cgevent
Я вам предлагаю почитать хороший материал про то, как вообще нетфликс использует ИИ.
И там есть вот такой текст:
После успеха таких интерактивных сериалов, как "Бандерснэтч", Netflix, возможно, начнет изучать интерактивные истории с использованием ИИ, позволяя зрителям самим выбирать сюжет, который может включать дубляж с ИИ в зависимости от языковых предпочтений зрителя.
Использование искусственного интеллекта Netflix может стать мощным инструментом для предсказания потенциального успеха контента еще до его выхода - идея, которая не так уж далека от реальности, если учесть, что гигант потокового вещания уже использует аналитику.
Deepdub - это сервис, который использует Нетфликс для дубляжа.
https://deepdub.ai/post/how-netflix-leverages-ai-unveiling-the-tech-behind-the-stream
@cgevent