This media is not supported in your browser
VIEW IN TELEGRAM
VFX изменится навсегда
Много лет назад была задачка, сделать ролик для игры WW3. Для всех это был сложный год, и концепция игры покинула игровое пространство. Однако ролик был сделан.
Тогда у меня под рукой был старенький ноутбук с RTX2070 на борту, и нужно было сделать симуляцию воды. По определенным причинам весь привычный софт отвалился, и пришлось делать в блендере, в его тогда еще очень сыром fluid sim.
На всю водную сцену ушло несколько дней. Получилось так себе, но тут я решил отрыть проект, и провести работу над ошибками. На исправление ушло 10 минут. Я просто загнал первый и последний кадр сцены в Kling и потом скомпозил в AE.
Т.е. по сути любой, кто делает бюджетную графику (например в UE5) и немного знаком с композом - получает супер мощный инструмент для качественных симуляций за копейки времени.
Много лет назад была задачка, сделать ролик для игры WW3. Для всех это был сложный год, и концепция игры покинула игровое пространство. Однако ролик был сделан.
Тогда у меня под рукой был старенький ноутбук с RTX2070 на борту, и нужно было сделать симуляцию воды. По определенным причинам весь привычный софт отвалился, и пришлось делать в блендере, в его тогда еще очень сыром fluid sim.
На всю водную сцену ушло несколько дней. Получилось так себе, но тут я решил отрыть проект, и провести работу над ошибками. На исправление ушло 10 минут. Я просто загнал первый и последний кадр сцены в Kling и потом скомпозил в AE.
Т.е. по сути любой, кто делает бюджетную графику (например в UE5) и немного знаком с композом - получает супер мощный инструмент для качественных симуляций за копейки времени.
This media is not supported in your browser
VIEW IN TELEGRAM
Всех с первым днем весны😂
Media is too big
VIEW IN TELEGRAM
Всем привет! Пришел похвастаться еще одним нашим долгостроем, который был сделан еще во времена до "ИИшницы", но публикуется только сейчас.
Всё по-взрослому: суровый, жесткий CGI.
Вот тут можно посмотреть на Youtube в 4K:
https://www.youtube.com/watch?v=HPf2F6thizg
Режиссер: Ян Сысоев
Всё по-взрослому: суровый, жесткий CGI.
Вот тут можно посмотреть на Youtube в 4K:
https://www.youtube.com/watch?v=HPf2F6thizg
Режиссер: Ян Сысоев
Приятного всем чаепития, друзья!
К слову о чае: давненько на канале не запускалась рубрика #чайная_халява.
1. Napkin AI — очень классный сервис для создания всевозможной инфографики. В отличие от обычных генераторов картинок, он умеет работать как с вектором, так и с растром. Вы просто скармливаете ему статью или генерируете её прямо в сервисе, а он рисует разные картинки. Много интересных стилей, которые действительно красиво смотрятся. Что особенно приятно, явных ограничений на использование я не нашёл. Идеально подойдёт, чтобы украсить проектную работу, а поскольку инструмент поддерживает вектор, он станет хорошим помощником для любого дата- или моушн-дизайнера.
2. Gamma — ещё один похожий инструмент. Он не создаёт такую эффектную инфографику, как Napkin AI, однако умеет автоматически сопровождать презентации картинками, созданными на основе FLUX 1.1.
3. BG_Bye — у меня часто возникает проблема с отделением объектов от фона. Да, это умеют делать многие AI-инструменты, но зачастую приходится возвращаться к старому доброму дедушке фотошопу, поскольку ИИ плохо справляется с волосами и мелкими деталями. Этот простой сервис предлагает сразу 10 различных методов отделения фона и сильно помогает мне в работе.
Для тех, кто недавно присоединился, напомню, что на канале есть такая традиция: я нахожу и проверяю для вас крутые и бесплатные AI-сервисы, а вы ставите свои реакции под постом 😁
К слову о чае: давненько на канале не запускалась рубрика #чайная_халява.
1. Napkin AI — очень классный сервис для создания всевозможной инфографики. В отличие от обычных генераторов картинок, он умеет работать как с вектором, так и с растром. Вы просто скармливаете ему статью или генерируете её прямо в сервисе, а он рисует разные картинки. Много интересных стилей, которые действительно красиво смотрятся. Что особенно приятно, явных ограничений на использование я не нашёл. Идеально подойдёт, чтобы украсить проектную работу, а поскольку инструмент поддерживает вектор, он станет хорошим помощником для любого дата- или моушн-дизайнера.
2. Gamma — ещё один похожий инструмент. Он не создаёт такую эффектную инфографику, как Napkin AI, однако умеет автоматически сопровождать презентации картинками, созданными на основе FLUX 1.1.
3. BG_Bye — у меня часто возникает проблема с отделением объектов от фона. Да, это умеют делать многие AI-инструменты, но зачастую приходится возвращаться к старому доброму дедушке фотошопу, поскольку ИИ плохо справляется с волосами и мелкими деталями. Этот простой сервис предлагает сразу 10 различных методов отделения фона и сильно помогает мне в работе.
Для тех, кто недавно присоединился, напомню, что на канале есть такая традиция: я нахожу и проверяю для вас крутые и бесплатные AI-сервисы, а вы ставите свои реакции под постом 😁
Media is too big
VIEW IN TELEGRAM
Всем привет!
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява
Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.
Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!
Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.
И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.
В комментариев насыплю еще примеров из WAN 2.1 и LTXV.
P.S. Если хотите попробовать, но все сложно - ставьте🔥 и завтра напишу небольшой гайд о том, как поставить это чудо к себе.
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява
Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.
Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!
Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.
И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.
В комментариев насыплю еще примеров из WAN 2.1 и LTXV.
P.S. Если хотите попробовать, но все сложно - ставьте
Please open Telegram to view this post
VIEW IN TELEGRAM
🎥 Как запустить видеогенератор на своём компьютере за 10 минут?
Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.
Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:
Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.
Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).
Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.
Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.
Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.
Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.
Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!🔥
P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.
Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:
Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.
Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).
Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.
Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.
Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.
Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.
Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!
P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
В VEO 2 завезли Img2Video!
Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.
Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.
Пробовать можно на freepik.
Эх, а так хотел выспаться сегодня.
UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.
Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.
Пробовать можно на freepik.
Эх, а так хотел выспаться сегодня.
UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
Media is too big
VIEW IN TELEGRAM
Это однозначно лучший генератор видео!
Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.
К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...
Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.
Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.
Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.
Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.
Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.
А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.
К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...
Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.
Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.
Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.
Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.
Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.
А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
Media is too big
VIEW IN TELEGRAM
Когда сделал генерацию в Runway, а она никому не нравится😂
Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.
P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.
P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
Media is too big
VIEW IN TELEGRAM
Мотосезон близко, друзья! А значит...
...появился повод протестировать модель Wan 2.1 14B.
Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!
Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!
Cкинул в наш чат все исходники и промпт.
Ставьте реакции, если нравится🔥
...появился повод протестировать модель Wan 2.1 14B.
Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!
Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!
Cкинул в наш чат все исходники и промпт.
Ставьте реакции, если нравится
Please open Telegram to view this post
VIEW IN TELEGRAM
Привет, друзья!
Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️
Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.
Правила просты: с вас🔥 , с меня обзоры. Поехали!
1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.
Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.
Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.
2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.
3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️
Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.
Правила просты: с вас
1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.
Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.
Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.
2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.
3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Please open Telegram to view this post
VIEW IN TELEGRAM
Экстренный выпуск #Чайная_Халява
1. Вчера появился абсолютно новый генератор изображений - REVE. И выглядит он просто фантастически. Невероятные детали и следование промпту. Минимальная цензура: может генерировать кровь и знаменитостей.
После регистрации доступно 100 бесплатных генераций и 20 каждый день, но есть лайфхак: по истечению лимита, вы можете удалить свой аккаунт, снова зайти через Google, и генерации сбросятся.
2. И в догонку: не совсем халява, но Sora дает безлимитную генерацию для всех у кого подписка Plus и Pro.
1. Вчера появился абсолютно новый генератор изображений - REVE. И выглядит он просто фантастически. Невероятные детали и следование промпту. Минимальная цензура: может генерировать кровь и знаменитостей.
После регистрации доступно 100 бесплатных генераций и 20 каждый день, но есть лайфхак: по истечению лимита, вы можете удалить свой аккаунт, снова зайти через Google, и генерации сбросятся.
2. И в догонку: не совсем халява, но Sora дает безлимитную генерацию для всех у кого подписка Plus и Pro.