Telegram Group Search
Дождались: В Midjourney можно посмотреть первые наработки по видео!

MJ решили ворваться на рынок видео генераций и, как обычно это происходит перед релизом — команда устраивает Rating Party на официальном сайте, где можно посмотреть разные образцы и проголосовать за лучший вариант, чтобы помочь разрабам "отсеять мусор".

Важное примечание: данные примеры не отображают финальное качество модели, это лишь тестовые образцы (их стандартный дисклеймер, уверен, на релизе будет плюс-минус то же самое качество).

Прикрепил несколько примеров, которыми юзеры поделились в X. Если у Вас есть активная подписка, заходите на сайт, принимайте участие в голосовании:

midjourney.com/rank-video

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥102111
BLACKTRACED
Дождались: В Midjourney можно посмотреть первые наработки по видео! MJ решили ворваться на рынок видео генераций и, как обычно это происходит перед релизом — команда устраивает Rating Party на официальном сайте, где можно посмотреть разные образцы и проголосовать…
This media is not supported in your browser
VIEW IN TELEGRAM
Видеомодель Midjourney на старте будет среднего качества и скорее всего будет доступна не для всех

На каждой сессии Office Hours, когда речь заходит о видео, основатель Midjourney Дэвид Хольц опасается, что их серваки могут не справиться: видеомодель может потребовать в 2-3 раза больше ресурсов, чем текущая нагрузка.

Неоднократно Хольц говорил про "осторожное" выкатывание, что на старте доступ будет только у годовых подписчиков или пользователей Mega-плана, но при этом, стратегия запуска нацелена на широкую доступность, несмотря на ограничения серверных мощностей. Подробности по модели:

🟠Внутренние тесты показывают крайне позитивные результаты;
🟠Стоимость генераций на старте будет "рискованной" (для разрабов), со временем может подорожать;
🟠На старте запланировано среднее качество — баланс между нормальной картинкой и доступностью;
🟠Режима Relax на старте не будет из-за ограничений серверов;
🟠Только image-to-video, text-to-video прикрутят потом;
🟠Работает с изображениями из V7, V6, V5, V4 и Niji;
🟠Возможность управления камерой точно будет, но так и непонятно, на старте или позже;
🟠Функция продления видео запланирована как приоритетная после запуска;
🟠Более дешёвые серверы = более широкий доступ на старте, на данный момент команда ведёт переговоры с тремя различными провайдерами серверов, всё будет зависеть от стоимости услуг.

Модель специально под Niji планируют выкатить в течение месяца после запуска основной видеомодели. Она будет лучше подходить конкретно для аниме-стиля из-за более жёсткой, заранее обученной эстетики и вероятно будет сразу поддерживать text-to-video.

Ну, ждём.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥54🤔1
Media is too big
VIEW IN TELEGRAM
Astra: Новый апскейлер и энхансер от Topaz Labs

С выходом Veo3 рынок стал особо нуждаться не просто в годном апскейлере, но и энхансере, который смог бы качественно дорисовать деталей, превратив мыло в нечто более товарного вида.

Astra, в целом, может сойти для этого. У новой нейронки зашит разгон качества до 1080p и 4K в двух режимах:

🟠Creative сохраняет все элементы Вашего видео, но перерисовывает детали, из-за чего меняются гамма, лица (если они в кадре не крупно) и добавляются новые мелкие детали, это может изменить оригинал не в лучшую сторону;

🟠Precise — делает точное масштабирование, сохраняя все детали, будто наваливая огромное количество резкости на видео. Но по примерам на сайте видно, что оно также работает по принципу "перерисовать на максимально похожее".

Ещё есть функция Frame Interpolation, но выглядит оно совсем позорно, видео буквально превращается в низкополигональное смазанное месиво.

Пока непонятно, будет ли Astra отдельным облачным сервисом, или станет частью приложения Topaz Video AI.

Наглядные примеры до/после и запись на ранний доступ:

astra.app


😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
👏6❤‍🔥3🔥3211
Midjourney V7 теперь поддерживает функцию Style Reference

Новая версия Sref V7, как утверждают разработчики, стала намного лучше понимать стиль изображений. Также, завезли в --sref random много новых стилей для исследования.

Работает с Мудбордами и помимо этого, Sref V7 "повышает их функциональность и точность".

Если Вы пользовались Sref-кодами в V6, то, к сожалению, они в V7 не пашут и придётся переключаться на предыдущую версию.

Вместе с этим V7 вышла из альфы и стала активной моделью для всех по умолчанию.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥322
Seedance 1.0: Новая видеомодель в Dreamina

Ого, а там оказывается ByteDance уже потихоньку выкатывают свою новую модель для Dreamina! И да, это намного лучше, чем тот видеогенератор, что у них был.

😨 Самое главное: оно умеет генерировать несколько консистентных сцен для нарративных видео: сохраняя главный объект, окружение, визуал и атмосферу между шотами (примеры прикреплены). Работает с img-to-video и text-to-video и поддерживает различные визуальные стили. Но делать звук и липсинк как Veo3 пока не умеет.

В Твиттере Dreamina опубликовали пост, что Seedance 1.0 Mini уже можно попробовать, но видимо тем, кого пустили в бета-тест, записаться на который можно здесь. Ждём!

Больше инфы и примеров на сайте ByteDance:

seed.bytedance.com/en/seedance

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👏431
2025/07/14 09:10:11
Back to Top
HTML Embed Code: