Media is too big
VIEW IN TELEGRAM
Всем привет!
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява
Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.
Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!
Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.
И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.
В комментариев насыплю еще примеров из WAN 2.1 и LTXV.
P.S. Если хотите попробовать, но все сложно - ставьте🔥 и завтра напишу небольшой гайд о том, как поставить это чудо к себе.
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява
Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.
Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!
Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.
И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.
В комментариев насыплю еще примеров из WAN 2.1 и LTXV.
P.S. Если хотите попробовать, но все сложно - ставьте
Please open Telegram to view this post
VIEW IN TELEGRAM
🎥 Как запустить видеогенератор на своём компьютере за 10 минут?
Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.
Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:
Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.
Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).
Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.
Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.
Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.
Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.
Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!🔥
P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.
Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:
Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.
Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).
Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.
Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.
Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.
Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.
Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!
P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
В VEO 2 завезли Img2Video!
Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.
Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.
Пробовать можно на freepik.
Эх, а так хотел выспаться сегодня.
UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.
Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.
Пробовать можно на freepik.
Эх, а так хотел выспаться сегодня.
UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
Media is too big
VIEW IN TELEGRAM
Это однозначно лучший генератор видео!
Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.
К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...
Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.
Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.
Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.
Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.
Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.
А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.
К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...
Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.
Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.
Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.
Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.
Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.
А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
Media is too big
VIEW IN TELEGRAM
Когда сделал генерацию в Runway, а она никому не нравится😂
Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.
P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.
P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
Media is too big
VIEW IN TELEGRAM
Мотосезон близко, друзья! А значит...
...появился повод протестировать модель Wan 2.1 14B.
Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!
Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!
Cкинул в наш чат все исходники и промпт.
Ставьте реакции, если нравится🔥
...появился повод протестировать модель Wan 2.1 14B.
Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!
Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!
Cкинул в наш чат все исходники и промпт.
Ставьте реакции, если нравится
Please open Telegram to view this post
VIEW IN TELEGRAM
Привет, друзья!
Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️
Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.
Правила просты: с вас🔥 , с меня обзоры. Поехали!
1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.
Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.
Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.
2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.
3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️
Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.
Правила просты: с вас
1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.
Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.
Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.
2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.
3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Please open Telegram to view this post
VIEW IN TELEGRAM
Экстренный выпуск #Чайная_Халява
1. Вчера появился абсолютно новый генератор изображений - REVE. И выглядит он просто фантастически. Невероятные детали и следование промпту. Минимальная цензура: может генерировать кровь и знаменитостей.
После регистрации доступно 100 бесплатных генераций и 20 каждый день, но есть лайфхак: по истечению лимита, вы можете удалить свой аккаунт, снова зайти через Google, и генерации сбросятся.
2. И в догонку: не совсем халява, но Sora дает безлимитную генерацию для всех у кого подписка Plus и Pro.
1. Вчера появился абсолютно новый генератор изображений - REVE. И выглядит он просто фантастически. Невероятные детали и следование промпту. Минимальная цензура: может генерировать кровь и знаменитостей.
После регистрации доступно 100 бесплатных генераций и 20 каждый день, но есть лайфхак: по истечению лимита, вы можете удалить свой аккаунт, снова зайти через Google, и генерации сбросятся.
2. И в догонку: не совсем халява, но Sora дает безлимитную генерацию для всех у кого подписка Plus и Pro.
ChatGPT снова лучший!
Не успели мы нарадоваться качеству Reve, который сделал внушительный скачок с момента выхода FLUX, как тут же подъехали серьёзные ребята. Причём с той стороны, откуда совсем не ждали и даже не надеялись.
OpenAI внезапно добавили собственный image generator, который, по моим личным тестам, уверенно выигрывает у Reve по качеству генерации. Это удивительно, ведь создатели ChatGPT долго считались аутсайдерами в области всяких картинок и видео, особенно после неудачного запуска Sora. Работает как через сам ChatGPT, так и на странице в Sora.
Но это ещё не всё. Новый генератор мультимодален — картинки можно не только создавать, но и гибко редактировать с помощью текста прямо в чате. Получается что-то похожее на то, как это реализовано в Google Flash 2.0, о котором я недавно рассказывал вот тут. А ещё можно делать полупрозрачный фон и он отлично понимает промпты на русском языке.
Главное преимущество — невероятно точное следование промпту и стилю. Множество сравнительных примеров оставлю в комментариях.
Не успели мы нарадоваться качеству Reve, который сделал внушительный скачок с момента выхода FLUX, как тут же подъехали серьёзные ребята. Причём с той стороны, откуда совсем не ждали и даже не надеялись.
OpenAI внезапно добавили собственный image generator, который, по моим личным тестам, уверенно выигрывает у Reve по качеству генерации. Это удивительно, ведь создатели ChatGPT долго считались аутсайдерами в области всяких картинок и видео, особенно после неудачного запуска Sora. Работает как через сам ChatGPT, так и на странице в Sora.
Но это ещё не всё. Новый генератор мультимодален — картинки можно не только создавать, но и гибко редактировать с помощью текста прямо в чате. Получается что-то похожее на то, как это реализовано в Google Flash 2.0, о котором я недавно рассказывал вот тут. А ещё можно делать полупрозрачный фон и он отлично понимает промпты на русском языке.
Главное преимущество — невероятно точное следование промпту и стилю. Множество сравнительных примеров оставлю в комментариях.
Всем привет!
Где-то в комментариях уже озвучивал идею запустить стрим или видеоподкаст после 1000 подписчиков. Хочу на нём познакомиться с вами, рассказать о себе, узнать о ваших работах, поделиться своими техниками. При необходимости — помочь с вашими задачами и показать, как всё устроено в крупных студиях. Попутно будем беседовать про ИИ: куда всё катится, как учиться и переучиваться.
Первый стрим, возможно, уже в это воскресенье.
Что думаете о таком формате? Делитесь в комментариях.
Где-то в комментариях уже озвучивал идею запустить стрим или видеоподкаст после 1000 подписчиков. Хочу на нём познакомиться с вами, рассказать о себе, узнать о ваших работах, поделиться своими техниками. При необходимости — помочь с вашими задачами и показать, как всё устроено в крупных студиях. Попутно будем беседовать про ИИ: куда всё катится, как учиться и переучиваться.
Первый стрим, возможно, уже в это воскресенье.
Что думаете о таком формате? Делитесь в комментариях.
Media is too big
VIEW IN TELEGRAM
Самая эпичная реклама провинциального автосервиса
Пока тестировал WAN и Veo2, накопил кучу шотов с Audi TT, которая едет по пустыне. Хотел собрать какой-нибудь трейлер, но получалось бессмысленное кино. Тут вспомнил про друзей из воронежского автосервиса. И за пару вечеров всё это привело к тому, что вы видите сейчас.
Кстати, вы первые, кто смотрит этот трейлер. Тот самый момент, когда владельцы бизнеса видят рекламу позже, чем зритель😂
Но я знаю, что они тоже подписаны на канал. Как думаете, понравится?
Пока тестировал WAN и Veo2, накопил кучу шотов с Audi TT, которая едет по пустыне. Хотел собрать какой-нибудь трейлер, но получалось бессмысленное кино. Тут вспомнил про друзей из воронежского автосервиса. И за пару вечеров всё это привело к тому, что вы видите сейчас.
Кстати, вы первые, кто смотрит этот трейлер. Тот самый момент, когда владельцы бизнеса видят рекламу позже, чем зритель😂
Но я знаю, что они тоже подписаны на канал. Как думаете, понравится?
Прошел первый стрим TEAREVO на YouTube.
Стрим был в первую очередь для тех, кто недавно пришёл в нейросети. Говори об основах:
— Какие бывают нейросети и как они применяются в продакшене
— LLM: как общаться с ИИ, чтобы он вас понял
— Принципы работы ИИ для генерации изображений
— Рабочие техники для видеопродакшена
Вот ссылка на запись трансляции:
https://www.youtube.com/watch?v=YaVa0n9L_d4
Стрим был в первую очередь для тех, кто недавно пришёл в нейросети. Говори об основах:
— Какие бывают нейросети и как они применяются в продакшене
— LLM: как общаться с ИИ, чтобы он вас понял
— Принципы работы ИИ для генерации изображений
— Рабочие техники для видеопродакшена
Вот ссылка на запись трансляции:
https://www.youtube.com/watch?v=YaVa0n9L_d4
YouTube
[TEAREVO] РЕВОЛЮЦИЯ ЧАЙНЫХ ПАКЕТИКОВ — Первый стрим
Привет, друзья.
Если у вас уже кружится голова от количества нейросетей, новых сервисов и платных подписок — вы не одни. Что учить, куда кликать, как сэкономить и можно ли вообще что-то сделать на своей видюхе — вопросов больше, чем ответов.
Я сам ежедневно работаю с десятком разных инструментов и, чтобы не сойти с ума, веду вот такую табличку для себя.
Это не список «лучших», а скорее мой личный топ. Когда решаю задачу, пробую сначала верхние строчки, если не срабатывает — иду глубже.
🔥 — если вам полезны такие вещи. Буду продолжать делиться такими штуками и обновлять табличку еженедельно.
Если у вас уже кружится голова от количества нейросетей, новых сервисов и платных подписок — вы не одни. Что учить, куда кликать, как сэкономить и можно ли вообще что-то сделать на своей видюхе — вопросов больше, чем ответов.
Я сам ежедневно работаю с десятком разных инструментов и, чтобы не сойти с ума, веду вот такую табличку для себя.
Это не список «лучших», а скорее мой личный топ. Когда решаю задачу, пробую сначала верхние строчки, если не срабатывает — иду глубже.
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Прямое сравнение Runway Gen-4 с Veo 2 и Kling 1.6 PRO
Пару дней назад я написал в таблице, что Runway — мусор. А они взяли и выпустили новое поколение своего видеогенератора.
Вчера вечером доступ получили все, и в комментариях уважаемых телеграм-групп посыпались фразы вроде: "убийца Kling!" и "достойный конкурент Veo2".
Насколько Runway хорош или плох — смотрите видео и решайте сами. Но, как по мне, убийством тут и не пахнет. Хотя выглядит как хороший пинок для Kling, чтобы они наконец выкатили свою 2.0.
Что думаете?
🔥 — за Veo 2
👍— за Kling 1.6 Pro
❤️— за Runway
Пару дней назад я написал в таблице, что Runway — мусор. А они взяли и выпустили новое поколение своего видеогенератора.
Вчера вечером доступ получили все, и в комментариях уважаемых телеграм-групп посыпались фразы вроде: "убийца Kling!" и "достойный конкурент Veo2".
Насколько Runway хорош или плох — смотрите видео и решайте сами. Но, как по мне, убийством тут и не пахнет. Хотя выглядит как хороший пинок для Kling, чтобы они наконец выкатили свою 2.0.
Что думаете?
👍— за Kling 1.6 Pro
❤️— за Runway
Please open Telegram to view this post
VIEW IN TELEGRAM