Немного утечек про планы Маска на Грок 4.
В октябре нам обещают Видеогенератор!
(Не зря же они пожрали Hotspot).
В августе - модель для кода.
Ждем, конечно, хотя к октябрю может произойти столько всего, что видеогенератором нас будет не удивить.
@cgevent
В октябре нам обещают Видеогенератор!
(Не зря же они пожрали Hotspot).
В августе - модель для кода.
Ждем, конечно, хотя к октябрю может произойти столько всего, что видеогенератором нас будет не удивить.
@cgevent
😁27❤11👍4🙏2
Forwarded from Дмитрий Тихонов
Ребят, топ лайфхак, отмечаете на картинке области цветными прямоугольниками и говорите Конексту куда что пихать: Place the crows in the rectangles. leave the main character's face unchanged. leave a person position unchanged.
🔥39👍13❤3😁2
Лучше поздно, чем никогда. В Veo3 завезли image2video.
Можно использовать вашу картинку как первый кадр.
С моей точки зрения, это круче всего с точки зрения липсинка.
Люди на первом кадре реально начинают говорить и попадают в губы, ведь Veo3 генерит звук.
Подробнее тут: https://blog.google/technology/google-labs/flow-adds-speech-expands/
Мне вот интересно, Veo за несколько месяцев пережил уже несколько очень мощных апгрейдов.
А кто поднимет веки Sora?
Или OpenAI решили сосредоточиться на продуктах типа своего браузера, а Сора останется в истории, как игрушка, которая всех удивила и осталась в музее?
@cgevent
Можно использовать вашу картинку как первый кадр.
С моей точки зрения, это круче всего с точки зрения липсинка.
Люди на первом кадре реально начинают говорить и попадают в губы, ведь Veo3 генерит звук.
Подробнее тут: https://blog.google/technology/google-labs/flow-adds-speech-expands/
Мне вот интересно, Veo за несколько месяцев пережил уже несколько очень мощных апгрейдов.
А кто поднимет веки Sora?
Или OpenAI решили сосредоточиться на продуктах типа своего браузера, а Сора останется в истории, как игрушка, которая всех удивила и осталась в музее?
@cgevent
👍41❤10🔥8
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и наконец-то Google Flow раскатали почти на весь мир, включая Европу.
https://labs.google/fx/tools/flow
У меня открывается без всякого ВПН.
https://blog.google/technology/google-labs/flow-adds-speech-expands/
Нужна подписка Pro.
И да, это липсинк по начальной фотке.
@cgevent
https://labs.google/fx/tools/flow
У меня открывается без всякого ВПН.
https://blog.google/technology/google-labs/flow-adds-speech-expands/
Нужна подписка Pro.
И да, это липсинк по начальной фотке.
@cgevent
❤36🔥18👍7😁1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Пара постов про Грок 4.
И хотя модель для кодинга обещают осенью, уже сейчас он делает удивительные вещи.
В этом примере он делает 3Д симуляцию движения Земли, Луны и спутников.
Этом ОН САМ лезет в интернет в поисках текстур для Земли и Луны. Сам вычисляет слой для облаков, свет от солнца, положение и вращение Земли и Луны.
Такое ощущение что сила Грока в том, как он работает с данными из интернета и в его поисковых способностях. Не зря Маск учил его на своих твиттах.
Если интересно, то вот промпт:
Автор
@cgevent
И хотя модель для кодинга обещают осенью, уже сейчас он делает удивительные вещи.
В этом примере он делает 3Д симуляцию движения Земли, Луны и спутников.
Этом ОН САМ лезет в интернет в поисках текстур для Земли и Луны. Сам вычисляет слой для облаков, свет от солнца, положение и вращение Земли и Луны.
Такое ощущение что сила Грока в том, как он работает с данными из интернета и в его поисковых способностях. Не зря Маск учил его на своих твиттах.
Если интересно, то вот промпт:
You are a senior 3D graphics programmer with extensive experience in WebGL and Three.js.
Generate a complete, self-contained HTML file that renders a photorealistic and interactive 3D simulation of planet Earth.
The simulation must be high-quality and visually compelling, suitable for a technical demonstration or an educational tool. It should feature a detailed Earth model with distinct day/night textures, specular highlights on the oceans, and a dynamic, semi-transparent cloud layer that rotates independently from the planet to create a sense of depth and realism.
The scene must be illuminated by a directional light source representing the sun, casting realistic shadows. For example, the Earth's rotation should reveal the city lights on the night side. To enhance the scene, add a starfield background using a sphere with a star texture mapped to the inside. Implement OrbitControls to allow the user to intuitively rotate, pan, and zoom the camera for a fully interactive experience.
The final output must be a single HTML file containing all necessary HTML, CSS, and JavaScript. You can use this snippet to import Three.js:
<script src="https://cdnjs(dot)cloudflare(dot)com/ajax/libs/three(dot)js/r128/three(dot)min(dot)js"></script>
<script src="https://cdn(dot)jsdelivr(dot)net/npm/three@0(dot)128(dot)0/examples/js/controls/OrbitControls(dot)js"></script>
Автор
@cgevent
🔥53👍16❤2😁2
Еще немного Грочека 4.
ОН САМ лезет в интернет, находит там модель оживляемого человека, и делает всю симуляцию на three.js
На втором видео "3 legions marching"
Как пишут в твитторах, он исключительно хорош в three.js, разных симуляциях и .. Блендоре.
И похоже в геймдев он должен неплохо так зайти.
P/S/ Для сравнения: попытка сделать это в Gemini 2.5 Pro
https://gemini.google.com/share/bf12823e8c8c
@cgevent
“Create an animation of a crowd of people walking to form “Hello world, I am Grok” as camera changes to birds-eye.”
ОН САМ лезет в интернет, находит там модель оживляемого человека, и делает всю симуляцию на three.js
На втором видео "3 legions marching"
Как пишут в твитторах, он исключительно хорош в three.js, разных симуляциях и .. Блендоре.
И похоже в геймдев он должен неплохо так зайти.
P/S/ Для сравнения: попытка сделать это в Gemini 2.5 Pro
https://gemini.google.com/share/bf12823e8c8c
@cgevent
🔥39❤5👍2😱1
Omnigen2 на H100
На фоне истерики с Flux Kontext решил-таки протестировать великий и ужасный Omnigen2.
А поскольку официального демо на HuggingFace хватает примерно на 1 генерацию, пришлось разводить локально.
Ну и так как я терпеть не могу ComfyUI (как интерфейс и как продуктовый продукт, не как технологию), и люблю тестировать непожатые и не геномодифицированные версии весов, то я полез на свой любимый imerse.cloud, где у меня на складе, точнее на полке (Shelved) валяется сервак с H100 и Убунтой.
Надо сказать, что установка Omnigen2 сделана хорошо, все идет как по маслу, если следовать их инструкциям на Гитхабе, 4 команды и вот уже тебе ссылка на градио-интерфейс, идентичный официальному демо на HF.
Сразу про память и скорость: зависит от разрешения и количества вгружаемых картинок. У меня на 1024х1024 жрет в среднем 18Гиг VRAM в пике до 21Гига.
По скорости 1024х1024 генерит минуту (и это на H100!!), но если доустановить flash attention (2), то становится примерно 40 секунд на кадр в больших разрешениях (на 640 - 11 сек).
Теперь по ощущениям.
1. Как просто генератор t2i он слабоват. Цензуры в нем поменьше, чем в Flux, но кожа пластиковая.
2. Лучше всего он работает с редактированием одной картинки. Чего только я с собой не делал. Цвет майки менял, очки снимал, людей на волейболе удалял из кадра. Справляется хорошо, держит остальной фон и детали отлично.
2. Удалял текст с постера, заставлял улыбаться чувака, все работает как часы. Он даже честно рисует правильные зубы, но видно, что ему сложно, в районе зубов небольшой блюр.
3. Он работает не только как переодеватор, но и как раздеватор. Фантазирует, конечно (как кожаные), но тащит, точнее стаскивает одежду.
4. А вот когда переходим к двум изображениям (всего можно три + промпт), то ему становится сложно держать детали. Когда попросил его переодеть меня в майку от Лены, он справился, но сделал из меня улыбчивого молодца, в не хмурого нейродеда. Хотя бороду срисовал идеально. Посадка в кресло тоже меняет детали на фотках. Либо надо сильнее конкретизировать промпт.
5. Ему можно указывать "first image", "second image" чтобы сказать, забери майку с первой картинки и нахлобучь на маньяка со второй картинки. Слушается идеально, в отличие от Флюкса.
6. Нечувствителен к разрешениям входных картинок, жрет все подряд, не требует установки специфических разрешений.
Итого, мне показалось, что Omnigen2 имеет за спиной несколько больший потенциал (умеет больше), не требует идеальной точности промптов как Flux, понимает "first image", "second image". Отлично работает с одной картинкой.
Но вот с несколькими картинками заставить его работать сложнее, тут, мне кажется, Флюкс ловчее работает.
Впрочем, это вопрос дополнительных тестов, время на immers.cloud не резиновое. Может быть вернусь под задачу.
Ну и самое главное, Omnigen2 - полный опенсорс с нормальной лицензией, без всякого дистилирования. И с хорошим градио-интерфейсом.
@cgevent
На фоне истерики с Flux Kontext решил-таки протестировать великий и ужасный Omnigen2.
А поскольку официального демо на HuggingFace хватает примерно на 1 генерацию, пришлось разводить локально.
Ну и так как я терпеть не могу ComfyUI (как интерфейс и как продуктовый продукт, не как технологию), и люблю тестировать непожатые и не геномодифицированные версии весов, то я полез на свой любимый imerse.cloud, где у меня на складе, точнее на полке (Shelved) валяется сервак с H100 и Убунтой.
Надо сказать, что установка Omnigen2 сделана хорошо, все идет как по маслу, если следовать их инструкциям на Гитхабе, 4 команды и вот уже тебе ссылка на градио-интерфейс, идентичный официальному демо на HF.
Сразу про память и скорость: зависит от разрешения и количества вгружаемых картинок. У меня на 1024х1024 жрет в среднем 18Гиг VRAM в пике до 21Гига.
По скорости 1024х1024 генерит минуту (и это на H100!!), но если доустановить flash attention (2), то становится примерно 40 секунд на кадр в больших разрешениях (на 640 - 11 сек).
Теперь по ощущениям.
1. Как просто генератор t2i он слабоват. Цензуры в нем поменьше, чем в Flux, но кожа пластиковая.
2. Лучше всего он работает с редактированием одной картинки. Чего только я с собой не делал. Цвет майки менял, очки снимал, людей на волейболе удалял из кадра. Справляется хорошо, держит остальной фон и детали отлично.
2. Удалял текст с постера, заставлял улыбаться чувака, все работает как часы. Он даже честно рисует правильные зубы, но видно, что ему сложно, в районе зубов небольшой блюр.
3. Он работает не только как переодеватор, но и как раздеватор. Фантазирует, конечно (как кожаные), но тащит, точнее стаскивает одежду.
4. А вот когда переходим к двум изображениям (всего можно три + промпт), то ему становится сложно держать детали. Когда попросил его переодеть меня в майку от Лены, он справился, но сделал из меня улыбчивого молодца, в не хмурого нейродеда. Хотя бороду срисовал идеально. Посадка в кресло тоже меняет детали на фотках. Либо надо сильнее конкретизировать промпт.
5. Ему можно указывать "first image", "second image" чтобы сказать, забери майку с первой картинки и нахлобучь на маньяка со второй картинки. Слушается идеально, в отличие от Флюкса.
6. Нечувствителен к разрешениям входных картинок, жрет все подряд, не требует установки специфических разрешений.
Итого, мне показалось, что Omnigen2 имеет за спиной несколько больший потенциал (умеет больше), не требует идеальной точности промптов как Flux, понимает "first image", "second image". Отлично работает с одной картинкой.
Но вот с несколькими картинками заставить его работать сложнее, тут, мне кажется, Флюкс ловчее работает.
Впрочем, это вопрос дополнительных тестов, время на immers.cloud не резиновое. Может быть вернусь под задачу.
Ну и самое главное, Omnigen2 - полный опенсорс с нормальной лицензией, без всякого дистилирования. И с хорошим градио-интерфейсом.
@cgevent
4🔥20❤10👍7😁2🙏1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
🔥 Кейс от Оли: создание AI-сниппета для певицы Ханны
По запросу Пашу (CEO Black Star) AI-сниппет в эстетике: чувственная красота, кинематографичная атмосфера, премиальная визуальная подача
Техническая реализация:
Референсы:
- Базовые референсы от заказчика
- Дополнено кадрами из Pinterest
- Большая часть кадров - авторская концепция
Генерация контента:
- Обучение LoRA в Krea на dataset'e из 40 фото (использованы две модели одновременно: Flux + Krea1 с разными весами)
- Атмосферные кадры без лица созданы в Midjourney, затем анимированы
- Анимация: Kling 2.1 Master (для плавности) + Higgsfield (для стилизации)
Постпродакшн:
- Основной монтаж: Adobe Premiere Pro
- Доп. эффекты: CapCut
- Финальный апскейл: Topaz
⏳4 дня интенсивной работы (от генерации до финального рендера)
💸 Помимо базовых расходов на нейронки доп. расходы на ретушера для некоторых кадров и на консультацию ментора по всему проекту, чтобы сделать и более качественное видео, и обучиться в процессе работы
@cgevent
🔥 Кейс от Оли: создание AI-сниппета для певицы Ханны
По запросу Пашу (CEO Black Star) AI-сниппет в эстетике: чувственная красота, кинематографичная атмосфера, премиальная визуальная подача
Техническая реализация:
Референсы:
- Базовые референсы от заказчика
- Дополнено кадрами из Pinterest
- Большая часть кадров - авторская концепция
Генерация контента:
- Обучение LoRA в Krea на dataset'e из 40 фото (использованы две модели одновременно: Flux + Krea1 с разными весами)
- Атмосферные кадры без лица созданы в Midjourney, затем анимированы
- Анимация: Kling 2.1 Master (для плавности) + Higgsfield (для стилизации)
Постпродакшн:
- Основной монтаж: Adobe Premiere Pro
- Доп. эффекты: CapCut
- Финальный апскейл: Topaz
⏳4 дня интенсивной работы (от генерации до финального рендера)
💸 Помимо базовых расходов на нейронки доп. расходы на ретушера для некоторых кадров и на консультацию ментора по всему проекту, чтобы сделать и более качественное видео, и обучиться в процессе работы
@cgevent
👍55👎51🔥11❤10😱3😁2