This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
• Генерирует видео с несколькими говорящими персонажами по аудио
• Поддерживает видео до 15 секунд в 480p и 720p
• Управление персонажами через текстовые промпты
• Поддержка генерации мультяшных героев, пения, нестандартных стилей речи
• Доступно в ComfyUI
Модель принимает на вход многопотоковое аудио, референсное изображение и текстовый промпт, после чего генерирует видео с взаимодействиями между персонажами, следуя промпту и с точной синхронизацией губ с речью.
▪Github: https://github.com/MeiGen-AI/MultiTalk
▪HF: https://huggingface.co/MeiGen-AI/MeiGen-MultiTalk
@ai_machinelearning_big_data
#wan #ai #ml #lipsync #MultiTalk
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Парадигма меняется: Polaris выводит локальные модели на новый уровень
Polaris — это набор простых, но мощных приёмов, который позволяет даже компактным LLM (4 B, 7 B) догнать и превзойти «тяжеловесов» на задачах рассуждения (открытая 4B модель превосходи Claude-4-Opus).
Вот как это работает и почему важно:
• Управление сложностью данных
– Генерируем несколько (например, 8) вариантов решения от базовой модели
– Оцениваем, какие примеры слишком простые (8/8) или слишком сложные (0/8), и убираем их
– Оставляем «умеренные» задачи с правильными решениями в 20–80 % случаев, чтобы быть ни слишком лёгкими, ни слишком сложными
• Разнообразие «прогонов» (rollout-ов)
– Мы запускаем модель несколько раз на одной и той же задаче и смотрим, как меняются её рассуждения: одни и те же входные данные, но разные «пути» к решению.
– Считаем, насколько разнообразны эти пути (т. е. их «энтропия»): если модели всё время идут по одной линии, новых идей не появляется; если слишком хаотично — рассуждения неустойчивы.
– Задаём начальную “температуру” генерации там, где баланс между стабильностью и разнообразием оптимален, а затем постепенно её повышаем, чтобы модель не застревала на одних и тех же шаблонах и могла исследовать новые, более креативные ходы.
• “Train-short, generate-long”
– Во время RL-обучения используем короткие цепочки рассуждений (короткие CoT) для экономии ресурсов
– На inference увеличиваем длину CoT, чтобы получить более детальные и понятные объяснения без накрутки стоимости обучения
• Динамическое обновление датасета
– По мере роста точности удаляем примеры с accuracy > 90 %, чтобы не «портить» модель слишком лёгкими задачами
– Поддерживаем постоянный вызов модели на её пределе возможностей
• Улучшенная reward-функция
– Комбинируем стандартный RL-reward с бонусами за разнообразие и глубину рассуждений
– Это позволяет модели учиться не только давать правильный ответ, но и объяснять логику своих решений
Преимущества Polaris
• Благодаря Polaris даже компактные LLM (4 B и 7 B) достигают и даже «тяжеловесов» (32 B–235 B) на AIME, MATH и GPQA
• Обучение на доступных GPU уровня consumer-grade — до 10× экономии ресурсов и затрат по сравнению с традиционными RL-пайплайнами
• Полный открытый стек: исходники, подборка данных и веса
• Простота и модульность: готовый к использованию фреймворк для быстрого внедрения и масштабирования без дорогостоящей инфраструктуры
Polaris доказывает, что качество данных и грамотная настройка RL-процесса важнее просто «больших моделей». С ним вы получите продвинутую reasoning-LLM, которую можно запустить локально и масштабировать везде, где есть обычная GPU.
▪Blog post: https://hkunlp.github.io/blog/2025/Polaris
▪Model: https://huggingface.co/POLARIS-Project
▪Code: https://github.com/ChenxinAn-fdu/POLARIS
▪Notion: https://honorable-payment-890.notion.site/POLARIS-A-POst-training-recipe-for-scaling-reinforcement-Learning-on-Advanced-ReasonIng-modelS-1dfa954ff7c38094923ec7772bf447a1
@ai_machinelearning_big_data
#ml #ai • #Polaris #PostTraining #ReinforcementLearning #LLM
Polaris — это набор простых, но мощных приёмов, который позволяет даже компактным LLM (4 B, 7 B) догнать и превзойти «тяжеловесов» на задачах рассуждения (открытая 4B модель превосходи Claude-4-Opus).
Вот как это работает и почему важно:
• Управление сложностью данных
– Генерируем несколько (например, 8) вариантов решения от базовой модели
– Оцениваем, какие примеры слишком простые (8/8) или слишком сложные (0/8), и убираем их
– Оставляем «умеренные» задачи с правильными решениями в 20–80 % случаев, чтобы быть ни слишком лёгкими, ни слишком сложными
• Разнообразие «прогонов» (rollout-ов)
– Мы запускаем модель несколько раз на одной и той же задаче и смотрим, как меняются её рассуждения: одни и те же входные данные, но разные «пути» к решению.
– Считаем, насколько разнообразны эти пути (т. е. их «энтропия»): если модели всё время идут по одной линии, новых идей не появляется; если слишком хаотично — рассуждения неустойчивы.
– Задаём начальную “температуру” генерации там, где баланс между стабильностью и разнообразием оптимален, а затем постепенно её повышаем, чтобы модель не застревала на одних и тех же шаблонах и могла исследовать новые, более креативные ходы.
• “Train-short, generate-long”
– Во время RL-обучения используем короткие цепочки рассуждений (короткие CoT) для экономии ресурсов
– На inference увеличиваем длину CoT, чтобы получить более детальные и понятные объяснения без накрутки стоимости обучения
• Динамическое обновление датасета
– По мере роста точности удаляем примеры с accuracy > 90 %, чтобы не «портить» модель слишком лёгкими задачами
– Поддерживаем постоянный вызов модели на её пределе возможностей
• Улучшенная reward-функция
– Комбинируем стандартный RL-reward с бонусами за разнообразие и глубину рассуждений
– Это позволяет модели учиться не только давать правильный ответ, но и объяснять логику своих решений
Преимущества Polaris
• Благодаря Polaris даже компактные LLM (4 B и 7 B) достигают и даже «тяжеловесов» (32 B–235 B) на AIME, MATH и GPQA
• Обучение на доступных GPU уровня consumer-grade — до 10× экономии ресурсов и затрат по сравнению с традиционными RL-пайплайнами
• Полный открытый стек: исходники, подборка данных и веса
• Простота и модульность: готовый к использованию фреймворк для быстрого внедрения и масштабирования без дорогостоящей инфраструктуры
Polaris доказывает, что качество данных и грамотная настройка RL-процесса важнее просто «больших моделей». С ним вы получите продвинутую reasoning-LLM, которую можно запустить локально и масштабировать везде, где есть обычная GPU.
▪Blog post: https://hkunlp.github.io/blog/2025/Polaris
▪Model: https://huggingface.co/POLARIS-Project
▪Code: https://github.com/ChenxinAn-fdu/POLARIS
▪Notion: https://honorable-payment-890.notion.site/POLARIS-A-POst-training-recipe-for-scaling-reinforcement-Learning-on-Advanced-ReasonIng-modelS-1dfa954ff7c38094923ec7772bf447a1
@ai_machinelearning_big_data
#ml #ai • #Polaris #PostTraining #ReinforcementLearning #LLM
📊 Yandex Cloud запустил курс по обработке и анализу больших данных на Apache Spark на Yandex Data Processing
Это не просто «пособие на вечер» — это полноценный курс на 75 часов: теория, практика и сценарии под реальные задачи с многотерабайтными массивами на современном сервисе Yandex Data Processing.
🧠 Что внутри:
🔹 Проектирование архитектуры обработки данных
🔹 Управление кластерами Apache Spark
🔹 Data Lakehouse — от теории до реализации
🔹 Пакетная и потоковая обработка
🔹 Оркестрация и построение витрин
🔹 27 практических заданий прямо в Yandex Cloud
Курс создали архитекторы Yandex Cloud и инженеры Hilbert Team. Все бесплатно, с неограниченным доступом и свидетельством о прохождении курса после финального теста на выходе.
💬 Подойдет дата-инженерам, аналитикам, DevOps и тем, кто хочет познать сферу Big Data с практической стороны.
Присоединяйтесь! Ссылка на регистрацию — уже тут.
@ai_machinelearning_big_data
Это не просто «пособие на вечер» — это полноценный курс на 75 часов: теория, практика и сценарии под реальные задачи с многотерабайтными массивами на современном сервисе Yandex Data Processing.
🧠 Что внутри:
🔹 Проектирование архитектуры обработки данных
🔹 Управление кластерами Apache Spark
🔹 Data Lakehouse — от теории до реализации
🔹 Пакетная и потоковая обработка
🔹 Оркестрация и построение витрин
🔹 27 практических заданий прямо в Yandex Cloud
Курс создали архитекторы Yandex Cloud и инженеры Hilbert Team. Все бесплатно, с неограниченным доступом и свидетельством о прохождении курса после финального теста на выходе.
💬 Подойдет дата-инженерам, аналитикам, DevOps и тем, кто хочет познать сферу Big Data с практической стороны.
Присоединяйтесь! Ссылка на регистрацию — уже тут.
@ai_machinelearning_big_data
🚀 Alphabet (GOOGL) — теперь самая прибыльная компания в мире
• Google сейчас удерживает титул лидера по чистой прибыли —111 млрд $ в год
• Такая финансовая мощь даёт дополнительный импульс к развитиб AI-инфраструктуры компании
• Ит-гигант уже консолидирует больше вычислительных ресурсов, чем кто-либо ещё
• Финансовая стабильность позволяет вкладываться в новые центры обработки данных и R&D
• За последний год Gemini вырос из нишевого решения в один из самых популярных и качественных LLM
• Всё это ставит Google в исключительное положение для доминирования в будущем ИИ
@ai_machinelearning_big_data
#ai #googel #finance
• Google сейчас удерживает титул лидера по чистой прибыли —111 млрд $ в год
• Такая финансовая мощь даёт дополнительный импульс к развитиб AI-инфраструктуры компании
• Ит-гигант уже консолидирует больше вычислительных ресурсов, чем кто-либо ещё
• Финансовая стабильность позволяет вкладываться в новые центры обработки данных и R&D
• За последний год Gemini вырос из нишевого решения в один из самых популярных и качественных LLM
• Всё это ставит Google в исключительное положение для доминирования в будущем ИИ
@ai_machinelearning_big_data
#ai #googel #finance
Media is too big
VIEW IN TELEGRAM
Mistral AI выпустила минорное обновление Small, улучшив точность и стабильность. Инструкции теперь выполняются точнее, а повторяющиеся или бесконечные ответы встречаются вдвое реже, вызовы функций стали надежнее за счет более надежных шаблонов.
Размер модели не изменился, 24B, Сравнение в бенчмарках с Small 3.1: в Wildbench v2 результаты выросли до 65.33% (на 10% выше, чем у версии 3.1), а в сложных сценариях Arena Hard v2 модель прибавила почти 24%. В задачах на логику (MMLU Pro) и программирование (HumanEval Plus) показатели улучшились на 2–4%. Правда, в некоторых визуальных тестах (MMMU) показатели снизились, но незначительно.
Модель доступна на Hugging Face, сообщество уже сделало квантованные версии.
huggingface.co
С 7 июля по 6 августа 2025 года платформа постепенно отключит несколько версий моделей OpenAI: GPT-4.5, o1, o3-mini и GPT-4o, их заменят на более новые аналоги, GPT-4.1, о3 или o4-mini.
Администраторам Copilot Enterprise нужно заранее активировать политики доступа к новым моделям в настройках, чтобы они появились в VS Code и интерфейсе GitHub. Удаление устаревших моделей после даты отключения произойдет автоматически.
github.blog
Google выпустила Magenta RealTime (Magenta RT) - открытую ИИ-модель для живого создания музыки. Она генерирует по текстовым запросам и аудиосэмплам (можно комбинировать), используя Transformer с 800 миллионами параметров, обученный на 190 тысячах часов инструментальной музыки.
Код и веса модели доступны на GitHub и Hugging Face. Попробовать Magenta RT в действии можно через бесплатный Colab-ноутбук с поддержкой TPU. Google обещает добавить возможность локального запуска и кастомизацию, а также опубликовать техотчет.
magenta.withgoogle.com
Инсайдеры сообщают, что Apple ведет внутренние обсуждения о возможной покупке стартапа Perplexity. Глава M&A Адриан Перича и руководитель сервисов Эдди Кью уже обсудили идею с командой по вопросам ИИ. Пока переговоры находятся на ранней стадии, а официального предложения сделано не было.
Согласно источникам, компания планирует внедрить ИИ-поиск в Safari, чтобы снизить зависимость от Google. Это решение может стать частью стратегии диверсификации ИИ-продуктов перед запуском новых функций в будущих версиях iOS или macOS.
reuters.com
Оригинальный WormGPT, созданный на основе GPT-J, стал первым массовым инструментом для киберпреступников, позволяя генерировать вредоносный код и фишинговые письма без цензуры. После его закрытия в 2023 году на форумах появились новые варианты: один работает на Grok от xAI, другой на Mixtral от Mistral AI. Вместо создания собственных моделей злоумышленники адаптируют существующие, используя jailbreak-промты, чтобы обойти защитные механизмы.
Анализ, проведенный Cato CTRL показал, что keanu-WormGPT - это обертка Grok с измененным системным промтом, заставляющим нейросеть игнорировать ограничения. xzin0vich-WormGPT, в свою очередь, основан на Mixtral и обучен на данных с дарквеба. Оба проекта распространяются через Telegram-боты по подписке, коммерциализируя генерацию фишинга и вредоносного кода как услугу.
catonetworks.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Поступи в магистратуру с грантом до 1,2 млн рублей
Современная магистратура – это не пары для галочки, а возможность продвинуть карьеру и стать сильным специалистом.
Центральный университет ведет набор на пять программ магистратуры по популярным ИТ-направлениям. Партнеры – ведущие компании на рынке РФ: ВТБ, Сбер, Т-Банк, Яндекс, Avito, Ozon, Х5 Tech и другие. 62% магистрантов ЦУ находят новую работу с ростом зарплаты в 1,6 раза уже на первом курсе. Средняя зарплата – 195 тысяч рублей.
Обучение можно совмещать с работой, а поступить – уже с третьего курса.
Стань частью новой волны специалистов и получи грант на обучение до 1,2 млн рублей.
И подавай заявку на поступление уже сейчас.
Реклама. АНО ВО "Центральный университет", ИНН 7743418023, erid:2Ranykywg6M
Современная магистратура – это не пары для галочки, а возможность продвинуть карьеру и стать сильным специалистом.
Центральный университет ведет набор на пять программ магистратуры по популярным ИТ-направлениям. Партнеры – ведущие компании на рынке РФ: ВТБ, Сбер, Т-Банк, Яндекс, Avito, Ozon, Х5 Tech и другие. 62% магистрантов ЦУ находят новую работу с ростом зарплаты в 1,6 раза уже на первом курсе. Средняя зарплата – 195 тысяч рублей.
Обучение можно совмещать с работой, а поступить – уже с третьего курса.
Стань частью новой волны специалистов и получи грант на обучение до 1,2 млн рублей.
И подавай заявку на поступление уже сейчас.
Реклама. АНО ВО "Центральный университет", ИНН 7743418023, erid:2Ranykywg6M
Reinforcement Learning Teachers (RLT) от Sakana AI - метод обучения LLM рассуждениям, где компактная модель-"учитель" не решает задачи сама, а учится объяснять уже готовые решения так, чтобы студент-модель лучше их усваивала.
Вместо дорогого обучения "с нуля" через проб и ошибку (как в классическом RL), учитель фокусируется на ясности пошаговых пояснений, используя и вопрос, и правильный ответ как подсказку. Это радикально удешевляет процесс и выравнивает цель учителя быть полезным студенту.
Архитектура строится вокруг петли обратной связи. Учителю (например, крошечной модели на 7B параметров) на вход подаются и задача и ее верное решение. Его работа - сгенерировать максимально понятное пошаговое объяснение, как прийти от условия к ответу.
Эффективность учителя измеряется не тем, решил ли он задачу сам (он даже не обязан это уметь), а тем, насколько хорошо студент-модель понимает его объяснение. Ключевая метрика - "логарифмические вероятности": чем выше вероятность, что студент, прочитав объяснение учителя, правильно предскажет следующий шаг или итоговый ответ, тем лучше работа учителя. Это и есть сигнал подкрепления для обучения RLT.
Вся магия метода состоит в этом смещении фокуса RL. Вместо чтоб награждать модель за самостоятельное нахождение ответа (что требует огромных вычислительных ресурсов и приводит к "узкой" специализации), RLT поощряют за педагогическую эффективность.
Благодаря наличию готового ответа во время обучения, в роли учителя могут выступать даже небольшие, дешевые модели, которые не смогли бы решить сложные задачи в одиночку. Объяснения от RLT затем используются как высококачественные данные для обучения (дистилляции или "холодного старта") студент-моделей любого размера.
Главный нюанс: метод требует наличия готовых правильных решений для задач в обучающем наборе. Он не заменяет полностью сбор данных, а перепрофилирует их для обучения "преподаванию".
Пока метод тестировался в основном на задачах математики и естественных наук. Но его сила в эффективности: 7B RLT-учитель превосходит в обучении студентов-гигантов ( 671B DeepSeek R1). Он обучает даже студентов крупнее себя (32B) быстрее (менее суток против месяцев) и лучше, а его объяснения четче, без лишнего "шума" вроде юмора или подсказок калькулятора, свойственных традиционным RL-моделям.
@ai_machinelearning_big_data
#AI #ML #LLM #RL #RLT #SakanaAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM