Telegram Group Search
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
VFX изменится навсегда

Много лет назад была задачка, сделать ролик для игры WW3. Для всех это был сложный год, и концепция игры покинула игровое пространство. Однако ролик был сделан.

Тогда у меня под рукой был старенький ноутбук с RTX2070 на борту, и нужно было сделать симуляцию воды. По определенным причинам весь привычный софт отвалился, и пришлось делать в блендере, в его тогда еще очень сыром fluid sim.

На всю водную сцену ушло несколько дней. Получилось так себе, но тут я решил отрыть проект, и провести работу над ошибками. На исправление ушло 10 минут. Я просто загнал первый и последний кадр сцены в Kling и потом скомпозил в AE.

Т.е. по сути любой, кто делает бюджетную графику (например в UE5) и немного знаком с композом - получает супер мощный инструмент для качественных симуляций за копейки времени.
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Всем привет! Пришел похвастаться еще одним нашим долгостроем, который был сделан еще во времена до "ИИшницы", но публикуется только сейчас.

Всё по-взрослому: суровый, жесткий CGI.

Вот тут можно посмотреть на Youtube в 4K:
https://www.youtube.com/watch?v=HPf2F6thizg

Режиссер: Ян Сысоев
Приятного всем чаепития, друзья!

К слову о чае: давненько на канале не запускалась рубрика #чайная_халява.

1. Napkin AI — очень классный сервис для создания всевозможной инфографики. В отличие от обычных генераторов картинок, он умеет работать как с вектором, так и с растром. Вы просто скармливаете ему статью или генерируете её прямо в сервисе, а он рисует разные картинки. Много интересных стилей, которые действительно красиво смотрятся. Что особенно приятно, явных ограничений на использование я не нашёл. Идеально подойдёт, чтобы украсить проектную работу, а поскольку инструмент поддерживает вектор, он станет хорошим помощником для любого дата- или моушн-дизайнера.

2. Gamma — ещё один похожий инструмент. Он не создаёт такую эффектную инфографику, как Napkin AI, однако умеет автоматически сопровождать презентации картинками, созданными на основе FLUX 1.1.

3. BG_Bye — у меня часто возникает проблема с отделением объектов от фона. Да, это умеют делать многие AI-инструменты, но зачастую приходится возвращаться к старому доброму дедушке фотошопу, поскольку ИИ плохо справляется с волосами и мелкими деталями. Этот простой сервис предлагает сразу 10 различных методов отделения фона и сильно помогает мне в работе.

Для тех, кто недавно присоединился, напомню, что на канале есть такая традиция: я нахожу и проверяю для вас крутые и бесплатные AI-сервисы, а вы ставите свои реакции под постом 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Всем привет!
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява

Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.

Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!

Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.

И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.

В комментариев насыплю еще примеров из WAN 2.1 и LTXV.

P.S. Если хотите попробовать, но все сложно - ставьте 🔥 и завтра напишу небольшой гайд о том, как поставить это чудо к себе.
Please open Telegram to view this post
VIEW IN TELEGRAM
🎥 Как запустить видеогенератор на своём компьютере за 10 минут?

Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.

Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:

Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.

Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).

Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.

Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.

Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.

Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.

Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!🔥

P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
В VEO 2 завезли Img2Video!

Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.

Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.

Пробовать можно на freepik.

Эх, а так хотел выспаться сегодня.

UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
Media is too big
VIEW IN TELEGRAM
Это однозначно лучший генератор видео!

Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.

К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...

Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.

Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.

Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.

Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.

Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.

А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
Media is too big
VIEW IN TELEGRAM
Когда сделал генерацию в Runway, а она никому не нравится😂

Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.

P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
Media is too big
VIEW IN TELEGRAM
Мотосезон близко, друзья! А значит...

...появился повод протестировать модель Wan 2.1 14B.

Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!

Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!

Cкинул в наш чат все исходники и промпт.

Ставьте реакции, если нравится🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
Привет, друзья!

Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️

Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.

Правила просты: с вас🔥, с меня обзоры. Поехали!

1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.

Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.

Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.

2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.

3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Please open Telegram to view this post
VIEW IN TELEGRAM
Экстренный выпуск #Чайная_Халява

1. Вчера появился абсолютно новый генератор изображений - REVE. И выглядит он просто фантастически. Невероятные детали и следование промпту. Минимальная цензура: может генерировать кровь и знаменитостей.

После регистрации доступно 100 бесплатных генераций и 20 каждый день, но есть лайфхак: по истечению лимита, вы можете удалить свой аккаунт, снова зайти через Google, и генерации сбросятся.

2. И в догонку: не совсем халява, но Sora дает безлимитную генерацию для всех у кого подписка Plus и Pro.
2025/06/30 02:16:05
Back to Top
HTML Embed Code: