Telegram Group Search
o3-mini выпустят в конце января.
Пока можно записаться в тестеры безопасности, форма на сайте, заявки принимаются до 10 января.
o3 выпустят позже, чем o3-mini

o3 - уровень кандидата наук.

Сэм, где DALL·E 4?

https://www.youtube.com/live/SKBG1sqdyIU

@cgevent
O2

Олды поймут, почему новая модель OpenAI называется о3, а не о2.

Во-первых, это кислород.

Во-вторых, на этом кислороде, мы запускали первую Майю в 1998 году.
(Я запускал Maya 0 beta 6 в 1997).

Тачка o2 стоила 30 000 долларов.
Maya base 1.0 - 12 000 долларов.
Maya dynamics 1.0 - 12 000 долларов.
Maya artisan 1.0 - 8000 долларов.
На FOB. Итого 62К$.
Плюс доставка и растаможка.

2024: ох, подписка 20$ - это дорого!

Ну ок.

https://en.m.wikipedia.org/wiki/SGI_O2

@cgevent
Media is too big
VIEW IN TELEGRAM
Видео на выходные.

Тут в комментах подписчики генерят тонны креатива и чатик превращается в креативно-техническое пространство (о, как сказал). И ИИ-сток.

Мой приятель, и по совместительству режиссер кино и видеоклипов, Дима Киселев взял и собрал весь этот поток ИИ-творчества в один музыкальный клип.

Меня больше всего поражает, как можно было упихать полностью ломающее язык название канала в текст пестни.

Кстати, промт был «Метаверсище и ИИще зажигательный танец»

Ну и видна рука мастера. Монтаж лимитированного материала просто отличный. Те, кто монтирует генератив, берите на заметку.

Всех с наступающими!

@cgevent
Media is too big
VIEW IN TELEGRAM
Ну, за мультипликаторов.

Тут Гугль неожиданно выкатил вот такую интересную работу.
И мультик.

Для каждого персонажа свой файнтюн(?!, да, там LoadCheckPoint + Dreambooth SDXL). По 12-то картинкам.

Эти файнтюны генерят кривые руки и пропорции - их корректируют через Depth и Canny контролнеты.
В ComfyUI.

Там же сегментируют персонажей с помощью Dino и SAM.

Часть картинок анимируют с помощью AnimateDiff + DaVinci+Nuke.

А часть - просто ригают и анимируют в Adobe Character Animator.
(Тут мы перестаем пить за мультипликаторов и вопросительно поднимаем бровь). Гугль, это что вообще?

Гугль: это ассистент для аниматоров.

"В рамках этого пилотного проекта мы вместе с художниками разрабатывали новые рабочие процессы для 2D-анимации, одновременно создавая короткометражный образовательный мультфильм. Мы определили несколько рабочих процессов, которые позволят упростить процесс анимации и более эффективно воплотить замыслы художников на экране."

Кода или воркфлоу для Комфи я не нашел.
Но есть кожаные сценарии для эпизодов.

Странная работа.

https://genai-2d-character-animation.github.io/
Sora безлимитно и бесплатно для всех chatGPT Plus пользователей. В relaxed очереди.

Шипмас от OpenAI.

sora.com

@cgevent
Аватаризация, скидки и все такое.

Я не склонен превращая канал в чорную пятницу, вы сами пошарьте в сети, у кого сейчас скидки или бесплатные периоды. Suno, Pika, Cupcat, Hedra по коду HEDRAODYSSEY (месяц бесплатно) и всяко разно другое.

Но вот держите посылочку от Тиктока, и какую.

Это как бы ответочка Хедре и даже самому Хейгену, с очень интересными штуками.
И если будет код, то это хорошая альтернатива Hallo - опенсорсному оживлятору говорящих голов.

Смотрите, что есть у NFP: Audio-Driven Interactive Head Generation

1. Это заточено под диалоги, причем есть режим слушающего

2. Может принимать пестни на вход и петь с закрытыми глазами

3. Есть Мона Лиза, как у людей.

4. Прямо просится в онлайн-созвоны: режим переключения между слушателем и докладчиком и вот это: Real-time Agent to Agent communication!!!

5. Можно делать подкасты для двух цифровых тварей.

Для сравнения, последний ролик в посте из новой Хедры.

Смотрим видео тут и взываем код.

https://grisoon.github.io/INFP/

Можете также поглядеть на опенсорсную ответочку от Алибабы, которые зажали EMO, но выпустили Эхомимику:
https://antgroup.github.io/ai/echomimic_v2/

@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
MovieGen в Instagram, но это не точно

Тут босс инстаграма Адам Моссери флексит метачковый MovieGen, который "как он надеется" появится в инсте в 2025 году (неясно в каком месяце).

Выглядит как видео2видео с сегментацией лица и промптовым редактированием.

Для инсты - самое то. Достаточно безопасное решение, если на входе ваше видео.

Вопрос продуктовых фишек:
Seamless Integration: Built directly into Instagram for instant access

Как именно это будет встроено в инсту? Какие кнопачки будут решать задачу новых ИИ-фильтров.

Ну и входное видео надо снимать самим, это плохая новость...

@cgevent
Media is too big
VIEW IN TELEGRAM
Ну, за трейлеры.

Это чистый Google Veo 2 Text2Video плюс монтаж в Capcut.

Если к сторителлингу есть некоторые вопросы(приподвзварчиваю немного), то картинка просто убийственная.

Больше всего мне нравятся "шейдеры" и вот эта вот трансформирующаяся геометрия.

В общем на фоне бесконечных лабрадоров в очках и мартышек на роликах это выглядит как реальный клип "по делу".

Н-Нравится.

@cgevent
В 3Д генераторе Trellis (опенсорсном, от Микрософта) появилась возможность загружать несколько картинок на вход.
Можно самим попробовать вот тут:
https://huggingface.co/spaces/JeffreyXiang/TRELLIS

Вкладка multiple images

@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
LTX Video2Video реально неплох.
149 кадров на 4090 занимают 20 секунд(!).

@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Runway Middle Frames

Выглядят довольно продуктово.

Дальше никто не мешает сделать интерфейс с таймлайном и маркерами и несколькими/многими ключевыми кадрами. И получить хорошее решение "раскадровка2видео".

У Сора есть что-то подобное в новом интерфейсе с таймлайном. Я потестил рождественскую Сору с американским ВПН. Но там практически невозможно получить такие примеры с людьми. Она орет как резаная, даже когда ей даёшь её же генерации. "Тут кожаные, срам какой!".

Соре точно надо к терапевту, подавленная телесность до добра не доведет, а мы получим закомплексованные картинки в голову.

Рунвей молодцы, людишек не бояцца, а ключевые кадры постепенно переползут в решения для консистентных раскадровок и монтажа.

@cgevent
Мы тут часто дискутируем о новых интерфейсах AI, ведь если не только перепечатывать новости, но и генерить самому, появляется ощущение, каким должен быть AI-майндсет, чтобы генераторы перестали быть технологиями, а превращались в продукты.
Знакомые из AI Mindset запускают футуристичную лабораторию, где вместо чтения про AI вы начнете его реально использовать.

🤖 AI Mindset Lab — это 4 недели интенсивной практики, в которых вы свяжете знакомые инструменты в полноценные рабочие решения. Вот несколько примеров того, что создали участники предыдущей лабы:

ассистент для рефлексии: дневник настроения с голосовым вводом и анализом эмоциональных паттернов. stack: ChatGPT, SuperWhisper
smart meeting assistant: автоматическая транскрипция звонков и генерация саммари с отправкой в Telegram. stack: Zoom, Zapier, Whisper
умный поиск по базе знаний: интеллектуальный поиск и рефлексия на базе заметок из своей базы знаний. stack: Obsidian, Windserf, Cursor
ассистент для творческих задач: генерация идей, создание музыкальных аранжировок, генерация изображений и видео. stack: Midjourney, Suno, RunwayML и др.
языковой тренер: адаптивная система обучения с генерацией персональных упражнений. stack: Claude, local LLMs, Gemini
market research AI: автоматический сбор и анализ данных о рынке и конкурентах. stack: GPT, Perplexity, Consensus

Никакой воды и теории — только живая практика, реальные кейсы и взаимодействие в сообществе единомышленников. Вы научитесь не только использовать инструменты, но и мыслить как AI-исследователь.

🗓 старт: 21 января
📰 формат: 2-3 онлайн-встречи в неделю + практика

[подробнее о лаборатории]

по коду mindset скидка 10% до конца года

P.S. для тех, кто хочет глубже погрузиться в тему управления знаниями с AI, есть расширенный поток с фокусом на создание "второго мозга" в Obsidian + AI – AI Mindset [knowledge]

почитать о других проектах ребят можно на их канале @ai_mind_set
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
В твиттере вирусится видео, где Нетфликc как бы использует ИИ для дубляжа и одновременного липсинка.

Я вам предлагаю почитать хороший материал про то, как вообще нетфликс использует ИИ.

И там есть вот такой текст:

После успеха таких интерактивных сериалов, как "Бандерснэтч", Netflix, возможно, начнет изучать интерактивные истории с использованием ИИ, позволяя зрителям самим выбирать сюжет, который может включать дубляж с ИИ в зависимости от языковых предпочтений зрителя.

Использование искусственного интеллекта Netflix может стать мощным инструментом для предсказания потенциального успеха контента еще до его выхода - идея, которая не так уж далека от реальности, если учесть, что гигант потокового вещания уже использует аналитику.

Deepdub - это сервис, который использует Нетфликс для дубляжа.
https://deepdub.ai/post/how-netflix-leverages-ai-unveiling-the-tech-behind-the-stream

@cgevent
2025/01/06 08:49:36
Back to Top
HTML Embed Code: