Telegram Group Search
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Всем привет!
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява

Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.

Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!

Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.

И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.

В комментариев насыплю еще примеров из WAN 2.1 и LTXV.

P.S. Если хотите попробовать, но все сложно - ставьте 🔥 и завтра напишу небольшой гайд о том, как поставить это чудо к себе.
Please open Telegram to view this post
VIEW IN TELEGRAM
🎥 Как запустить видеогенератор на своём компьютере за 10 минут?

Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.

Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:

Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.

Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).

Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.

Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.

Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.

Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.

Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!🔥

P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
В VEO 2 завезли Img2Video!

Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.

Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.

Пробовать можно на freepik.

Эх, а так хотел выспаться сегодня.

UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
Media is too big
VIEW IN TELEGRAM
Это однозначно лучший генератор видео!

Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.

К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...

Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.

Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.

Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.

Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.

Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.

А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
Media is too big
VIEW IN TELEGRAM
Когда сделал генерацию в Runway, а она никому не нравится😂

Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.

P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
Media is too big
VIEW IN TELEGRAM
Мотосезон близко, друзья! А значит...

...появился повод протестировать модель Wan 2.1 14B.

Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!

Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!

Cкинул в наш чат все исходники и промпт.

Ставьте реакции, если нравится🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
Привет, друзья!

Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️

Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.

Правила просты: с вас🔥, с меня обзоры. Поехали!

1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.

Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.

Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.

2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.

3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Please open Telegram to view this post
VIEW IN TELEGRAM
Экстренный выпуск #Чайная_Халява

1. Вчера появился абсолютно новый генератор изображений - REVE. И выглядит он просто фантастически. Невероятные детали и следование промпту. Минимальная цензура: может генерировать кровь и знаменитостей.

После регистрации доступно 100 бесплатных генераций и 20 каждый день, но есть лайфхак: по истечению лимита, вы можете удалить свой аккаунт, снова зайти через Google, и генерации сбросятся.

2. И в догонку: не совсем халява, но Sora дает безлимитную генерацию для всех у кого подписка Plus и Pro.
ChatGPT снова лучший!

Не успели мы нарадоваться качеству Reve, который сделал внушительный скачок с момента выхода FLUX, как тут же подъехали серьёзные ребята. Причём с той стороны, откуда совсем не ждали и даже не надеялись.

OpenAI внезапно добавили собственный image generator, который, по моим личным тестам, уверенно выигрывает у Reve по качеству генерации. Это удивительно, ведь создатели ChatGPT долго считались аутсайдерами в области всяких картинок и видео, особенно после неудачного запуска Sora. Работает как через сам ChatGPT, так и на странице в Sora.

Но это ещё не всё. Новый генератор мультимодален — картинки можно не только создавать, но и гибко редактировать с помощью текста прямо в чате. Получается что-то похожее на то, как это реализовано в Google Flash 2.0, о котором я недавно рассказывал вот тут. А ещё можно делать полупрозрачный фон и он отлично понимает промпты на русском языке.

Главное преимущество — невероятно точное следование промпту и стилю. Множество сравнительных примеров оставлю в комментариях.
Всем привет!

Где-то в комментариях уже озвучивал идею запустить стрим или видеоподкаст после 1000 подписчиков. Хочу на нём познакомиться с вами, рассказать о себе, узнать о ваших работах, поделиться своими техниками. При необходимости — помочь с вашими задачами и показать, как всё устроено в крупных студиях. Попутно будем беседовать про ИИ: куда всё катится, как учиться и переучиваться.

Первый стрим, возможно, уже в это воскресенье.

Что думаете о таком формате? Делитесь в комментариях.
Media is too big
VIEW IN TELEGRAM
Самая эпичная реклама провинциального автосервиса

Пока тестировал WAN и Veo2, накопил кучу шотов с Audi TT, которая едет по пустыне. Хотел собрать какой-нибудь трейлер, но получалось бессмысленное кино. Тут вспомнил про друзей из воронежского автосервиса. И за пару вечеров всё это привело к тому, что вы видите сейчас.

Кстати, вы первые, кто смотрит этот трейлер. Тот самый момент, когда владельцы бизнеса видят рекламу позже, чем зритель😂

Но я знаю, что они тоже подписаны на канал. Как думаете, понравится?
Прошел первый стрим TEAREVO на YouTube.

Стрим был в первую очередь для тех, кто недавно пришёл в нейросети. Говори об основах:

— Какие бывают нейросети и как они применяются в продакшене

— LLM: как общаться с ИИ, чтобы он вас понял

— Принципы работы ИИ для генерации изображений

— Рабочие техники для видеопродакшена

Вот ссылка на запись трансляции:
https://www.youtube.com/watch?v=YaVa0n9L_d4
Привет, друзья.

Если у вас уже кружится голова от количества нейросетей, новых сервисов и платных подписок — вы не одни. Что учить, куда кликать, как сэкономить и можно ли вообще что-то сделать на своей видюхе — вопросов больше, чем ответов.

Я сам ежедневно работаю с десятком разных инструментов и, чтобы не сойти с ума, веду вот такую табличку для себя.

Это не список «лучших», а скорее мой личный топ. Когда решаю задачу, пробую сначала верхние строчки, если не срабатывает — иду глубже.

🔥— если вам полезны такие вещи. Буду продолжать делиться такими штуками и обновлять табличку еженедельно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Прямое сравнение Runway Gen-4 с Veo 2 и Kling 1.6 PRO

Пару дней назад я написал в таблице, что Runway — мусор. А они взяли и выпустили новое поколение своего видеогенератора.

Вчера вечером доступ получили все, и в комментариях уважаемых телеграм-групп посыпались фразы вроде: "убийца Kling!" и "достойный конкурент Veo2".

Насколько Runway хорош или плох — смотрите видео и решайте сами. Но, как по мне, убийством тут и не пахнет. Хотя выглядит как хороший пинок для Kling, чтобы они наконец выкатили свою 2.0.

Что думаете?

🔥— за Veo 2

👍— за Kling 1.6 Pro

❤️— за Runway
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/04/03 10:45:36
Back to Top
HTML Embed Code: