Генерация AI видео у себя на ПК: HunyuanVideo.
Из всех open-source моделей - HunyuanVideo наиболее интересная, она может генерировать видео в разрешении 720P и с длиной до 129 кадров.
Рекомендуемые системные требования:
Для более-менее нормальной работы с данной моделью вам потребуется ПК с RTX 4090 или 3090 на борту, а также 64+ Гб оперативной памяти.
Наиболее актуальным решением для работы с моделью является ComfyUI - там больше всего полезных оптимизаций.
Если вы уже разбираетесь в ComfyUI и умеете ставить pip пакеты - то дальше рекомендую ознакомиться с постом от TensorBanana.
Я немного пошел дальше, прикрутил более квантованный text encoder, а также объединил все актуальные способы ускорения инференса:
- За основу взята модель FastHunyuan, которая позволяет сгенерировать нормальный результат за 6-10 шагов вместо 30, а еще она и квантованная до FP8.
- Сборка основана на Cuda 12.6 и torch-nightly 2.7.0
- Используются sage-attn-2 и triton
- Активирован WaveSpeed (он, кстати, еще и генерации Flux ускорять должен)
- Включен TeaCache
- Используется Tiled Vae
В конечном итоге, генерация видео в разрешении 960x544 и длинной в 89 кадров (несколько секунд видео) занимает у меня полторы-две минуты. Результаты генераций вы можете увидеть наверху.
Из минусов, наверное, то что она не умеет в нормальное img2video. По крайней мере - на данный момент.
Да, кстати, совсем забыл. Модель отлично умеет работать с NSFW контентом, есть огромное количество LoRA, которые расширяют эти возможности - позы, действия и прочие непотребности. Вполне достаточно, чтобы наплодить виртуальных онлифанс моделей.☕️
Искать, разумеется, на civit.ai, примеры тут показывать не буду.
Архив со сборкой получился более чем на 20 гигабайт. Поэтому хотел бы спросить вас - нужна ли вам такая сборка? Достаточно ли среди моих пользователей владельцев карт, которые могут себе позволить работу с данной моделью?
#aivideo #txt2video
Из всех open-source моделей - HunyuanVideo наиболее интересная, она может генерировать видео в разрешении 720P и с длиной до 129 кадров.
Рекомендуемые системные требования:
Для более-менее нормальной работы с данной моделью вам потребуется ПК с RTX 4090 или 3090 на борту, а также 64+ Гб оперативной памяти.
Наиболее актуальным решением для работы с моделью является ComfyUI - там больше всего полезных оптимизаций.
Если вы уже разбираетесь в ComfyUI и умеете ставить pip пакеты - то дальше рекомендую ознакомиться с постом от TensorBanana.
Я немного пошел дальше, прикрутил более квантованный text encoder, а также объединил все актуальные способы ускорения инференса:
- За основу взята модель FastHunyuan, которая позволяет сгенерировать нормальный результат за 6-10 шагов вместо 30, а еще она и квантованная до FP8.
- Сборка основана на Cuda 12.6 и torch-nightly 2.7.0
- Используются sage-attn-2 и triton
- Активирован WaveSpeed (он, кстати, еще и генерации Flux ускорять должен)
- Включен TeaCache
- Используется Tiled Vae
В конечном итоге, генерация видео в разрешении 960x544 и длинной в 89 кадров (несколько секунд видео) занимает у меня полторы-две минуты. Результаты генераций вы можете увидеть наверху.
Из минусов, наверное, то что она не умеет в нормальное img2video. По крайней мере - на данный момент.
Да, кстати, совсем забыл. Модель отлично умеет работать с NSFW контентом, есть огромное количество LoRA, которые расширяют эти возможности - позы, действия и прочие непотребности. Вполне достаточно, чтобы наплодить виртуальных онлифанс моделей.
Искать, разумеется, на civit.ai, примеры тут показывать не буду.
Архив со сборкой получился более чем на 20 гигабайт. Поэтому хотел бы спросить вас - нужна ли вам такая сборка? Достаточно ли среди моих пользователей владельцев карт, которые могут себе позволить работу с данной моделью?
#aivideo #txt2video
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Neurogen
DeepSeek-R1: Китайский ответ на o1-модели. Ключевые особенности Улучшенная версия DeepSeek-R1 Несмотря на успехи Zero-версии, в DeepSeek-R1 добавили холодный SFT, чтобы поднять читабельность ответов и устранить бесконечные повторы. В итоге модель удачно…
Deepseek выпустила собственные мобильные приложения.
Приложение DeepSeek - AI Assistant доступно для загрузки в Google Play и App Store
В целом, приложение повторяет функционал веб версии чата:
- Веб поиск
- Распознавание текста на изображениях
- Работа с документами
#llm #deepseek
Приложение DeepSeek - AI Assistant доступно для загрузки в Google Play и App Store
В целом, приложение повторяет функционал веб версии чата:
- Веб поиск
- Распознавание текста на изображениях
- Работа с документами
#llm #deepseek
Google Play
DeepSeek - AI Assistant - Apps on Google Play
Intelligent AI Assistant
Собрал для вас редкие и полезные каналы про нейронки:
НейроProfit — авторский канал с проверенными инструментами для бизнеса, учебы и работы. Конкретика, кейсы и пошаговые инструкции – все, чтобы вы смогли использовать ИИ эффективно уже сегодня.
Tips AI | IT & AI — пишет про интересные сервисы AI и IT технологий! Всегда актуальное, проверенное и немного с юмором.
Бурый — коллекционер нейросетей, тестит всё на себе и делится лучшими бесплатными нейронками.
Силиконовый Мешок — Авторский канал нейроиспытателя Артема Субботина про искусственный интеллект приносящий прибыль.
Сергей Булаев AI 🤖 - создание полезного контента и продуктов с помощью ИИ. Открываем эру миллиардных компаний из трёх человек.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
НейроProfit | Соня Pro Ai
Авторский канал про проверенные нейросети для бизнеса, учебы, работы и упрощения жизни
Реклама и Сотрудничество:@neurosonya
https://telega.in/c/NeuralProfit
Обучение Midjourney https://neuralprofit.ru
Закрытый клуб https://neuralprofit.ru/edu
Реклама и Сотрудничество:@neurosonya
https://telega.in/c/NeuralProfit
Обучение Midjourney https://neuralprofit.ru
Закрытый клуб https://neuralprofit.ru/edu
Forwarded from Machinelearning
Operator — это ИИ-агент, который умеет работать с браузером, заказывать продукты, бронировать билеты и столики в ресторанах искать данные и тп.
Вам нужно просто описать свою задачу, а затем наблюдать в реальном времени, как оператор выполняет её за вас.
Доступ пользователям Pro уже открыт, для остальных обещают в ближайшем времени:
▪operator
В преддверии релиза OpenAI Operator разработчики начали собирать полезные ресурсы, связанные с Operator и другими подобными решениями для автоматизации задач:
▪Github
Imagen 3 дебютирует на первом месте, обойдя Recraft-v3 с впечатляющим отрывом в +70 очков!
Imagen 3 доступен на сайте .
Это тщательно собранный датасет с 3 000 вопросов, разработанный при участии сотен профильных экспертов, чтобы отразить границы человеческих знаний. Лучше всех справляется с ним DeepSeek R1 от, достигая 9.4%, у o1 отставание с 9.1%.
▪Dataset
⭐️ Можем ли мы генерировать изображения с помощью цепочки мыслей CoT?
Давайте проверим и улучшим генерацию изображений шаг за шагом.
Авторегрессионная генерация изображений + масштабирование выводов приводят к существенному улучшению генерации изображений на нескольких бенчмарках.
▪Github ▪Статья ▪HF
Крутейший генератор видео уже на подходе 😁 Движение в реальном времени стало намного лучше!
Здесь, можно подать заявку на ранний доступ:
▪Доступ
▪Новость
Новая функция API, которая позволяет Claude обосновывать свои ответы на предоставленных вами источниках.
Еще Claude может процитировать конкретные предложения и отрывки, которые лежат в основе каждого ответа.
▪Новость
@ai_machinelearning_big_data
#news #ai #ml #machinelearning #deeplearning #openai #pika #chatgpt #Imagen #cot #Anthropic #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Могучий синий кит Китай ронять Запад бесплатно
Последние несколько дней с момента релиза новой модели Deepseek R1 примерно такой оборот событий набирает новостной фон.
Хронология событий после релиза DeepSeek-R1 (20–29 января 2025):
1. 20 января:
- Официальный релиз DeepSeek-R1 — модели с 660B параметров, сравнимой по производительности с OpenAI o1 в задачах математики, кода и естественного языка. Ключевые особенности:
- Использование усиленного обучения (RL) вместо классического SFT, что снизило зависимость от размеченных данных .
- Открытый код (MIT License) и дистилляция 6 малых моделей (1.5B–70B), включая версии для Qwen и Llama, превосходящие OpenAI o1-mini .
- Стоимость API в 27–55 раз ниже, чем у o1 (1–4 RMB за млн входных токенов, 16 — за выходные) .
2. 21 января:
- Публикация технических деталей:
- R1-Zero — базовая версия, обученная без человеческих данных, достигла 71% на AIME 2024 после самооптимизации через RL .
- Сравнение с Kimi k1.5 (128K контекстное окно): DeepSeek-R1 сильнее в логике, Kimi — в мультимодальности .
3. 22 января:
- Обсуждение в сообществе:
- «RL is all you need» — тезис DeepSeek, бросивший вызов традиционным подходам .
- Модель получила прозвище «AlphaGo для открытых LLM» за способность к самообучению .
4. 23 января:
- Запуск «цепочки рассуждений» (Chain-of-Thought) в API: пользователи могут видеть логику модели перед финальным ответом .
- Meta начинает внутренние эксперименты по воспроизведению R1, опасаясь потери лидерства .
5. 25 января:
- DeepSeek-R1 занимает 1-е место в рейтинге Arena (стиль и логика), обойдя OpenAI o1 .
- Акции NVIDIA падают на 3,12% на фоне дискуссий о снижении спроса на GPU из-за эффективности R1 .
6. 26 января:
- Реакция Запада:
- Scale AI CEO Александр Ванг называет R1 «переломным моментом» в гонке ИИ .
- Марк Андриссен хвалит открытость модели как «дар миру» .
- Meta анонсирует ускорение разработки Llama 4 и инвестиции в 1,3 млн GPU .
7. 28–29 января:
- Аналитики (Morgan Stanley, UBS) прогнозируют волну инноваций благодаря снижению стоимости ИИ-разработки .
- Влияние на рынок: сомнения в устойчивости оценки американских AI-стартапов, чьи модели дороже и закрытее .
В целом, можно сделать вывод, что DeepSeek-R1 не просто «догнал» OpenAI — он изменил правила игры через открытость и экономическую эффективность. Это заставило Запад пересмотреть стратегии, а инвесторов — усомниться в монополии США на ИИ. Главный урок: «Китай работает, пока Америка отдыхает» .
Партия давать +100 социальный рейтинг за комментарий про силу Синий Китайский Кит над Запад 😺
#ai #llm #ainews
Последние несколько дней с момента релиза новой модели Deepseek R1 примерно такой оборот событий набирает новостной фон.
Хронология событий после релиза DeepSeek-R1 (20–29 января 2025):
1. 20 января:
- Официальный релиз DeepSeek-R1 — модели с 660B параметров, сравнимой по производительности с OpenAI o1 в задачах математики, кода и естественного языка. Ключевые особенности:
- Использование усиленного обучения (RL) вместо классического SFT, что снизило зависимость от размеченных данных .
- Открытый код (MIT License) и дистилляция 6 малых моделей (1.5B–70B), включая версии для Qwen и Llama, превосходящие OpenAI o1-mini .
- Стоимость API в 27–55 раз ниже, чем у o1 (1–4 RMB за млн входных токенов, 16 — за выходные) .
2. 21 января:
- Публикация технических деталей:
- R1-Zero — базовая версия, обученная без человеческих данных, достигла 71% на AIME 2024 после самооптимизации через RL .
- Сравнение с Kimi k1.5 (128K контекстное окно): DeepSeek-R1 сильнее в логике, Kimi — в мультимодальности .
3. 22 января:
- Обсуждение в сообществе:
- «RL is all you need» — тезис DeepSeek, бросивший вызов традиционным подходам .
- Модель получила прозвище «AlphaGo для открытых LLM» за способность к самообучению .
4. 23 января:
- Запуск «цепочки рассуждений» (Chain-of-Thought) в API: пользователи могут видеть логику модели перед финальным ответом .
- Meta начинает внутренние эксперименты по воспроизведению R1, опасаясь потери лидерства .
5. 25 января:
- DeepSeek-R1 занимает 1-е место в рейтинге Arena (стиль и логика), обойдя OpenAI o1 .
- Акции NVIDIA падают на 3,12% на фоне дискуссий о снижении спроса на GPU из-за эффективности R1 .
6. 26 января:
- Реакция Запада:
- Scale AI CEO Александр Ванг называет R1 «переломным моментом» в гонке ИИ .
- Марк Андриссен хвалит открытость модели как «дар миру» .
- Meta анонсирует ускорение разработки Llama 4 и инвестиции в 1,3 млн GPU .
7. 28–29 января:
- Аналитики (Morgan Stanley, UBS) прогнозируют волну инноваций благодаря снижению стоимости ИИ-разработки .
- Влияние на рынок: сомнения в устойчивости оценки американских AI-стартапов, чьи модели дороже и закрытее .
В целом, можно сделать вывод, что DeepSeek-R1 не просто «догнал» OpenAI — он изменил правила игры через открытость и экономическую эффективность. Это заставило Запад пересмотреть стратегии, а инвесторов — усомниться в монополии США на ИИ. Главный урок: «Китай работает, пока Америка отдыхает» .
#ai #llm #ainews
Please open Telegram to view this post
VIEW IN TELEGRAM
Хотите попробовать передовые нейросети без вложений? BotHub дарит вам 100 000 токенов по нашей ссылке только до 28.02.2025!
BotHub – это:
- Бесплатный доступ к ChatGPT, Claude, Midjourney и другим ИИ-моделям с подарочными токенами;
- Все необходимые нейросети в одном окне;
- Создание контента нового уровня с Easy Writer – мощным визуальным редактором с генерацией тем, планов, SEO-настройками, поддержкой референсов и экспортом в разных форматах;
- Одни из самых низких тарифов в РФ, включая безлимитные пакеты;
- Мгновенный доступ без VPN с оплатой российскими картами, а также быстрым доступом к нейросетям через Telegram-бота;
- А также шифрование чатов, тонкие настройки параметров ИИ, работа с документами, моментальное подключение новых моделей и многое другое.
Успейте забрать свои 100 000 токенов, пока не поздно, и откройте для себя мир возможностей ИИ с BotHub!
Реклама. ООО “БотХаб”. ИНН 6382097218. erid: CQH36pWzJqDgDUbK1CbUbGfqmfJVg3Qi19hfatC16UfxeH
BotHub – это:
- Бесплатный доступ к ChatGPT, Claude, Midjourney и другим ИИ-моделям с подарочными токенами;
- Все необходимые нейросети в одном окне;
- Создание контента нового уровня с Easy Writer – мощным визуальным редактором с генерацией тем, планов, SEO-настройками, поддержкой референсов и экспортом в разных форматах;
- Одни из самых низких тарифов в РФ, включая безлимитные пакеты;
- Мгновенный доступ без VPN с оплатой российскими картами, а также быстрым доступом к нейросетям через Telegram-бота;
- А также шифрование чатов, тонкие настройки параметров ИИ, работа с документами, моментальное подключение новых моделей и многое другое.
Успейте забрать свои 100 000 токенов, пока не поздно, и откройте для себя мир возможностей ИИ с BotHub!
Реклама. ООО “БотХаб”. ИНН 6382097218. erid: CQH36pWzJqDgDUbK1CbUbGfqmfJVg3Qi19hfatC16UfxeH
Forwarded from эйай ньюз
OpenAI выпустили o3-mini - бесплатно
Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.
Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).
У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.
Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.
Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.
@ai_newz
Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.
Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).
У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.
Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.
Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.
@ai_newz
VisoMaster Portable by Neurogen | Бывший Rope | DeepFake
VisoMaster - профессиональный DeepFake видеоредактор от разработчиков Rope и RopeMod. Так как оригинальный разработчик Rope уже около полугода не выпускал обновлений, комьюнити решило отделиться и сделать свой "ремастер" для Rope.
Программа практически полностью повторяет функционал RopeMod, такие как тонкая настройка маски и замена видео с вебкамеры, но возможно некоторые функции буду добавлены позже.
Самое главное в программе - что графический интерфейс для пользователя стал еще более удобным и быстрым - теперь все быстро отзывается, вы можете работать не только папками но и единичными файлами, а также подросла скорость работы отдельных элементов.
От себя, я пересобрал сборку на основе Cuda 12.6 и библиотек, а также добавил все необходимые модели.
Сборка доступна для загрузки для поддержавших канал финансово на:
Boosty | Приватный ТГ канал со сборками
#portable #rope #deepfake
VisoMaster - профессиональный DeepFake видеоредактор от разработчиков Rope и RopeMod. Так как оригинальный разработчик Rope уже около полугода не выпускал обновлений, комьюнити решило отделиться и сделать свой "ремастер" для Rope.
Программа практически полностью повторяет функционал RopeMod, такие как тонкая настройка маски и замена видео с вебкамеры, но возможно некоторые функции буду добавлены позже.
Самое главное в программе - что графический интерфейс для пользователя стал еще более удобным и быстрым - теперь все быстро отзывается, вы можете работать не только папками но и единичными файлами, а также подросла скорость работы отдельных элементов.
От себя, я пересобрал сборку на основе Cuda 12.6 и библиотек, а также добавил все необходимые модели.
Сборка доступна для загрузки для поддержавших канал финансово на:
Boosty | Приватный ТГ канал со сборками
#portable #rope #deepfake