Forwarded from Machinelearning
Одно из лучших иллюстрированных объяснение внутренностей DeepSeek-R1.
▪ Читать
▪ Попробовать
Наивное квантование всех слоев полностью ломает модель, вызывая бесконечные циклы и тарабарщину на выходе. Их динамические кванты решают эту проблему.
1,58-битный квант помещается в 160 ГБ VRAM (2x H100 80 ГБ) для быстрого вывода со скоростью ~140 токенов/сек.
Изучив архитектуру DeepSeek-R1, разработчики выборочно квантовали определенные слои в более высокие биты (например, в 4-битные), а большинство слоев MoE оставили в 1,5 бита.
▪Бенчмарки + блог
▪GGUF (131-212 ГБ) на Hugging Face:
▪Код
▪Демо
▪Qwen-2.5-VL
▪Qwen-2.5-1M
Netflix выпустили новый алгоритм искажения шума для генерации видео, достаточно быстрый, чтобы работать в реальном времени, который заменяет случайную временную гауссиану на коррелированный искаженный шум, полученный из полей оптического потока, который сохраняет при этом пространственную гауссиану. Эффективность алгоритма позволяет тонко настраивать современные модели диффузии видео с минимальными расходами и предоставляет универсальное решение для широкого спектра управления движением на видео. Обширные эксперименты и исследования демонстрируют преимущества метода, делая его надежным и масштабируемым подходом для управления движением в диффузионных моделях видео.
▪HF
▪Github
▪ Github
@ai_machinelearning_big_data
#ai #ml #news #llm #deepseek #Netflix #Qwen #Pika #news #ainews
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Почему DeepSeek считает себя YandexGPT?
🌟 По телеграм-каналам разлетелись скрины ответов от китайского чат-бота, где он упоминает продукты Яндекса и утверждает, что создан в России. В сети задались вопросом, как такое возможно. Аналитики говорят, что галлюцинация могла возникнуть из-за обучения модели на общедоступных данных. В рунете много публичных обсуждений, связанных с технологиями Яндекса, поэтому модель может случайным образом воспроизвести информацию, утверждая, что она является YandexGPT.
@machinelearning_interview
🌟 По телеграм-каналам разлетелись скрины ответов от китайского чат-бота, где он упоминает продукты Яндекса и утверждает, что создан в России. В сети задались вопросом, как такое возможно. Аналитики говорят, что галлюцинация могла возникнуть из-за обучения модели на общедоступных данных. В рунете много публичных обсуждений, связанных с технологиями Яндекса, поэтому модель может случайным образом воспроизвести информацию, утверждая, что она является YandexGPT.
@machinelearning_interview
This media is not supported in your browser
VIEW IN TELEGRAM
Вот что нужно сделать:
— Скачиваете LMStudio под свою операционную систему. У него удобный интерфейс, а также можно загружать документы;
Открываете программу, переходите в раздел Discover и выбираете DeepSeek R1 Distill Llama 8b;
Эта версия отличается от онлайн-версии DeepSeek R1 — в ней используется Llama 8b.
📌 Скачать
#DeepSeek #free #LMStudio
Please open Telegram to view this post
VIEW IN TELEGRAM
Хакатон «Система Хак: Нижний Новгород» — разработайте технологическое решение социальной проблемы при поддержке МТС и благотворительного фонда «Система». Призовой фонд — 750 000 рублей.
Регистрация — до 13 февраля: https://cnrlink.com/systemhacknnmlinterview
Формат участия — онлайн или офлайн. Приглашаем команды от 2 до 6 человек: специалистов по Data Science, ML-инженеров, разработчиков, аналитиков данных. Для участия больше половины команды должно быть на площадке очно.
На хакатоне предстоит решить важную социальную проблему под слоганом «Программируем без границ». Эксперты расскажут об инклюзии в IT и разработке сервисов, которые будут комфортны и доступны всем пользователям.
Закрепить знания на практике можно в одной из задач соревнования.
Трек 1. Общение без барьеров. Задача — разработать систему генерации автоматических субтитров в реальном времени для платформы видеозвонков от МТС. Это сделает онлайн-конференции доступнее для людей с особыми потребностями.
Трек 2. Удобный дом. Нужно улучшить приложение, управляющее многоквартирным домом. Ваша разработка должна сделать сервис комфортнее для всех жильцов. Например, автоматически вызвать консьержа для человека в инвалидном кресле или отследить по камерам, кто занял его место.
Почему стоит участвовать
🔸 Призовой фонд – 750 000 рублей.
🔸 Работа над решением, которое сделает жизнь многих людей удобнее.
🔸 Нетворкинг с разработчиками и ML-экспертами МТС и других ведущих IT-компаний.
🔸 Практика работы со SpeechToText, распознаванием изображений и другими технологиями искусственного интеллекта.
🔸 Мерч в подарок всем очным участникам соревнования в Нижнем Новгороде.
Расписание хакатона
▪️ 7 февраля — митап с экспертами хакатона.
▪️ 13 февраля — закрытие регистрации.
▪️ 15 февраля — старт соревнования.
▪️ 16 февраля — загрузка решений, питчинг и награждение победителей.
Регистрируйтесь до 13 февраля и программируйте без границ на хакатоне «Система Хак: Нижний Новгород»: https://cnrlink.com/systemhacknnmlinterview
Реклама. Благотворительный фонд «Система». ИНН 7704510770. erid: 2W5zFJj2s3W
Регистрация — до 13 февраля: https://cnrlink.com/systemhacknnmlinterview
Формат участия — онлайн или офлайн. Приглашаем команды от 2 до 6 человек: специалистов по Data Science, ML-инженеров, разработчиков, аналитиков данных. Для участия больше половины команды должно быть на площадке очно.
На хакатоне предстоит решить важную социальную проблему под слоганом «Программируем без границ». Эксперты расскажут об инклюзии в IT и разработке сервисов, которые будут комфортны и доступны всем пользователям.
Закрепить знания на практике можно в одной из задач соревнования.
Трек 1. Общение без барьеров. Задача — разработать систему генерации автоматических субтитров в реальном времени для платформы видеозвонков от МТС. Это сделает онлайн-конференции доступнее для людей с особыми потребностями.
Трек 2. Удобный дом. Нужно улучшить приложение, управляющее многоквартирным домом. Ваша разработка должна сделать сервис комфортнее для всех жильцов. Например, автоматически вызвать консьержа для человека в инвалидном кресле или отследить по камерам, кто занял его место.
Почему стоит участвовать
🔸 Призовой фонд – 750 000 рублей.
🔸 Работа над решением, которое сделает жизнь многих людей удобнее.
🔸 Нетворкинг с разработчиками и ML-экспертами МТС и других ведущих IT-компаний.
🔸 Практика работы со SpeechToText, распознаванием изображений и другими технологиями искусственного интеллекта.
🔸 Мерч в подарок всем очным участникам соревнования в Нижнем Новгороде.
Расписание хакатона
▪️ 7 февраля — митап с экспертами хакатона.
▪️ 13 февраля — закрытие регистрации.
▪️ 15 февраля — старт соревнования.
▪️ 16 февраля — загрузка решений, питчинг и награждение победителей.
Регистрируйтесь до 13 февраля и программируйте без границ на хакатоне «Система Хак: Нижний Новгород»: https://cnrlink.com/systemhacknnmlinterview
Реклама. Благотворительный фонд «Система». ИНН 7704510770. erid: 2W5zFJj2s3W
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Почитать подробности о скачивании и тестировании в статье на Хабре.
Посмотреть визуализацию сервиса тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️Курс Hugging Face Agents начинается на следующей неделе.
Это бесплатно и выглядит очень многообещающе.
https://bit.ly/hf-learn-agents
Это бесплатно и выглядит очень многообещающе.
https://bit.ly/hf-learn-agents
Forwarded from Machinelearning
Stable Flow - метод редактирования изображений без предварительного обучения на основе flow-based моделей (FLUX).
Метод основывается на идее определения "жизненно важных слоев" в DiT, которые критически важны для формирования изображения. Эти слои определяются перебором слоев путем измерения отклонений в содержании изображения.
Редактирование изображения выполняется путем параллельной генерации, где признаки из траектории генерации исходного изображения инжектируются в траекторию редактируемого изображения. Такая стратегия раньше применялась в моделях на архитектуре UNet, теперь адаптирована для DiT.
Инъекция происходит только в vital layers, что дает стабильность редактирования, сохраняя нередактируемые области нетронутыми. Это дает возможность выполнять различные типы редактирования: нежесткие деформации, добавление объектов, замену объектов и изменение сцены, используя один и тот же механизм.
Для инпейнта реальных изображений применяется инверсия, выполняемая с помощью солвера Euler Ordinary Differential Equation (ODE), с добавлением метода "подталкивания" вне распределения. Этот метод заключается в небольшом скалярном возмущении чистого латентного пространства, что позволяет улучшить точность реконструкции и ограничить изменения в процессе редактирования.
Пользовательское исследование подтвердило, что Stable Flow превосходит SDEdit, P2P+NTI, Instruct-P2P, MagicBrush, MasaCTRL по 4 категориям: соответствие текстовому запросу, сохранение исходного изображения, реалистичность и общее качество редактирования.
⚠️ Для запуска кода Satble Flow необходим токен HuggingFace
⚠️ Проект поддерживает возможность CPU offload, он включается ключом
--cpu_offload
при инференсе.# Clone repo
git clone https://github.com/snap-research/stable-flow.git
cd stable-flow
# Create conda env
conda env create -f environment.yml
conda activate stable-flow
# Batch image inference
python run_stable_flow.py \
--hf_token YOUR_PERSONAL_HUGGINGFACE_TOKEN \
--prompts "A photo of a dog in standing the street" \
"A photo of a dog sitting in the street" \
"A photo of a dog in standing and wearing a straw hat the street" \
"A photo of a mink"
# Image editing inference
python run_stable_flow.py \
--hf_token YOUR_PERSONAL_HUGGINGFACE_TOKEN \
--input_img_path inputs/bottle.jpg \
--prompts "A photo of a bottle" \
"A photo of a bottle next to an apple"
@ai_machinelearning_big_data
#AI #ML #StableFlow
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Как подготовить вашу модель для общения с внешним миром?
Расскажем на открытом уроке «Интеграция модели с внешним миром - написание API», посвященному курсу Machine Learning. Advanced
Мы познакомимся с понятием API, рассмотрим один из самых популярных фреймворков для его создания FastAPI и напишем API для нашей модели. Рассмотрим три варианта передачи параметров в модель.
✅ Практика: Перенесем модель из Jupyter notebook в отдельную модель Python и создадим API для нашей ML модели
👉 Регистрация и подробности:
https://otus.pw/Azgg/?erid=2W5zFGKzW7i
#реклама
О рекламодателе
Расскажем на открытом уроке «Интеграция модели с внешним миром - написание API», посвященному курсу Machine Learning. Advanced
Мы познакомимся с понятием API, рассмотрим один из самых популярных фреймворков для его создания FastAPI и напишем API для нашей модели. Рассмотрим три варианта передачи параметров в модель.
✅ Практика: Перенесем модель из Jupyter notebook в отдельную модель Python и создадим API для нашей ML модели
👉 Регистрация и подробности:
https://otus.pw/Azgg/?erid=2W5zFGKzW7i
#реклама
О рекламодателе
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Physical Intelligence выпустила π0 и π0-FAST, модели Vision-Language-Action для общего управления роботами, которые доступны в репозитории Hugging Face LeRobot.
π0 — это модель, основанная на масштабном предварительном обучении и генерации действий на основе сопоставления потоков, способная выполнять сложные задачи, например, складывание белья, уборка стола и сборка коробок. Она обучена на данных с 7 робототехнических платформ и 68 уникальных задач. π0 производит плавные траектории действий в реальном времени с частотой 50 Гц.
π0-FAST - авторегрессионная версия π0, в которой используется FAST (токенизация последовательности действий в частотном пространстве) для улучшенного представления действий и ускорения обучения.
▪ huggingface.co
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
📽️ Лекции: https://youtube.com/playlist?list=PLoROMvodv4rPOWA-omMM6STXaWW4FvJT8
🗒️ Сайт курса: https://deepgenerativemodels.github.io
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM