Telegram Group Search
👄 MultiTalk — новая открытая lip sync модель с высоким качеством синхронизации.

✔️ Что умеет:
• Генерирует видео с несколькими говорящими персонажами по аудио
• Поддерживает видео до 15 секунд в 480p и 720p
• Управление персонажами через текстовые промпты
• Поддержка генерации мультяшных героев, пения, нестандартных стилей речи
• Доступно в ComfyUI

Модель принимает на вход многопотоковое аудио, референсное изображение и текстовый промпт, после чего генерирует видео с взаимодействиями между персонажами, следуя промпту и с точной синхронизацией губ с речью.

Github: https://github.com/MeiGen-AI/MultiTalk
HF: https://huggingface.co/MeiGen-AI/MeiGen-MultiTalk

@ai_machinelearning_big_data

#wan #ai #ml #lipsync #MultiTalk
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Парадигма меняется: Polaris выводит локальные модели на новый уровень

Polaris — это набор простых, но мощных приёмов, который позволяет даже компактным LLM (4 B, 7 B) догнать и превзойти «тяжеловесов» на задачах рассуждения (открытая 4B модель превосходи Claude-4-Opus).

Вот как это работает и почему важно:
Управление сложностью данных
– Генерируем несколько (например, 8) вариантов решения от базовой модели
– Оцениваем, какие примеры слишком простые (8/8) или слишком сложные (0/8), и убираем их
– Оставляем «умеренные» задачи с правильными решениями в 20–80 % случаев, чтобы быть ни слишком лёгкими, ни слишком сложными

Разнообразие «прогонов» (rollout-ов)
– Мы запускаем модель несколько раз на одной и той же задаче и смотрим, как меняются её рассуждения: одни и те же входные данные, но разные «пути» к решению.
– Считаем, насколько разнообразны эти пути (т. е. их «энтропия»): если модели всё время идут по одной линии, новых идей не появляется; если слишком хаотично — рассуждения неустойчивы.
– Задаём начальную “температуру” генерации там, где баланс между стабильностью и разнообразием оптимален, а затем постепенно её повышаем, чтобы модель не застревала на одних и тех же шаблонах и могла исследовать новые, более креативные ходы.

“Train-short, generate-long”
– Во время RL-обучения используем короткие цепочки рассуждений (короткие CoT) для экономии ресурсов
– На inference увеличиваем длину CoT, чтобы получить более детальные и понятные объяснения без накрутки стоимости обучения

Динамическое обновление датасета
– По мере роста точности удаляем примеры с accuracy > 90 %, чтобы не «портить» модель слишком лёгкими задачами
– Поддерживаем постоянный вызов модели на её пределе возможностей

Улучшенная reward-функция
– Комбинируем стандартный RL-reward с бонусами за разнообразие и глубину рассуждений
– Это позволяет модели учиться не только давать правильный ответ, но и объяснять логику своих решений

Преимущества Polaris
• Благодаря Polaris даже компактные LLM (4 B и 7 B) достигают и даже «тяжеловесов» (32 B–235 B) на AIME, MATH и GPQA
• Обучение на доступных GPU уровня consumer-grade — до 10× экономии ресурсов и затрат по сравнению с традиционными RL-пайплайнами

• Полный открытый стек: исходники, подборка данных и веса
• Простота и модульность: готовый к использованию фреймворк для быстрого внедрения и масштабирования без дорогостоящей инфраструктуры


Polaris доказывает, что качество данных и грамотная настройка RL-процесса важнее просто «больших моделей». С ним вы получите продвинутую reasoning-LLM, которую можно запустить локально и масштабировать везде, где есть обычная GPU.


Blog post: https://hkunlp.github.io/blog/2025/Polaris
Model: https://huggingface.co/POLARIS-Project
Code: https://github.com/ChenxinAn-fdu/POLARIS
Notion: https://honorable-payment-890.notion.site/POLARIS-A-POst-training-recipe-for-scaling-reinforcement-Learning-on-Advanced-ReasonIng-modelS-1dfa954ff7c38094923ec7772bf447a1

@ai_machinelearning_big_data

#ml #ai#Polaris #PostTraining #ReinforcementLearning #LLM
📊 Yandex Cloud запустил курс по обработке и анализу больших данных на Apache Spark на Yandex Data Processing

Это не просто «пособие на вечер» — это полноценный курс на 75 часов: теория, практика и сценарии под реальные задачи с многотерабайтными массивами на современном сервисе Yandex Data Processing.

🧠 Что внутри:

🔹 Проектирование архитектуры обработки данных
🔹 Управление кластерами Apache Spark
🔹 Data Lakehouse — от теории до реализации
🔹 Пакетная и потоковая обработка
🔹 Оркестрация и построение витрин
🔹 27 практических заданий прямо в Yandex Cloud

Курс создали архитекторы Yandex Cloud и инженеры Hilbert Team. Все бесплатно, с неограниченным доступом и свидетельством о прохождении курса после финального теста на выходе.

💬 Подойдет дата-инженерам, аналитикам, DevOps и тем, кто хочет познать сферу Big Data с практической стороны.

Присоединяйтесь! Ссылка на регистрацию — уже тут.

@ai_machinelearning_big_data
🚀 Alphabet (GOOGL) — теперь самая прибыльная компания в мире

• Google сейчас удерживает титул лидера по чистой прибыли —111 млрд $ в год
• Такая финансовая мощь даёт дополнительный импульс к развитиб AI-инфраструктуры компании
• Ит-гигант уже консолидирует больше вычислительных ресурсов, чем кто-либо ещё
• Финансовая стабильность позволяет вкладываться в новые центры обработки данных и R&D
• За последний год Gemini вырос из нишевого решения в один из самых популярных и качественных LLM
• Всё это ставит Google в исключительное положение для доминирования в будущем ИИ

@ai_machinelearning_big_data


#ai #googel #finance
Media is too big
VIEW IN TELEGRAM
✔️ Mistral AI обновила модель Small до версии 3.2.

Mistral AI выпустила минорное обновление Small, улучшив точность и стабильность. Инструкции теперь выполняются точнее, а повторяющиеся или бесконечные ответы встречаются вдвое реже, вызовы функций стали надежнее за счет более надежных шаблонов.

Размер модели не изменился, 24B, Сравнение в бенчмарках с Small 3.1: в Wildbench v2 результаты выросли до 65.33% (на 10% выше, чем у версии 3.1), а в сложных сценариях Arena Hard v2 модель прибавила почти 24%. В задачах на логику (MMLU Pro) и программирование (HumanEval Plus) показатели улучшились на 2–4%. Правда, в некоторых визуальных тестах (MMMU) показатели снизились, но незначительно.

Модель доступна на Hugging Face, сообщество уже сделало квантованные версии.
huggingface.co

✔️ GitHub Copilot прекращает поддержку 4 моделей.

С 7 июля по 6 августа 2025 года платформа постепенно отключит несколько версий моделей OpenAI: GPT-4.5, o1, o3-mini и GPT-4o, их заменят на более новые аналоги, GPT-4.1, о3 или o4-mini.

Администраторам Copilot Enterprise нужно заранее активировать политики доступа к новым моделям в настройках, чтобы они появились в VS Code и интерфейсе GitHub. Удаление устаревших моделей после даты отключения произойдет автоматически.
github.blog

✔️ Google Magenta RT: модель для создания музыки в реальном времени.

Google выпустила Magenta RealTime (Magenta RT) - открытую ИИ-модель для живого создания музыки. Она генерирует по текстовым запросам и аудиосэмплам (можно комбинировать), используя Transformer с 800 миллионами параметров, обученный на 190 тысячах часов инструментальной музыки.

Код и веса модели доступны на GitHub и Hugging Face. Попробовать Magenta RT в действии можно через бесплатный Colab-ноутбук с поддержкой TPU. Google обещает добавить возможность локального запуска и кастомизацию, а также опубликовать техотчет.
magenta.withgoogle.com

✔️ Apple рассматривает приобретение Perplexity AI.

Инсайдеры сообщают, что Apple ведет внутренние обсуждения о возможной покупке стартапа Perplexity. Глава M&A Адриан Перича и руководитель сервисов Эдди Кью уже обсудили идею с командой по вопросам ИИ. Пока переговоры находятся на ранней стадии, а официального предложения сделано не было.

Согласно источникам, компания планирует внедрить ИИ-поиск в Safari, чтобы снизить зависимость от Google. Это решение может стать частью стратегии диверсификации ИИ-продуктов перед запуском новых функций в будущих версиях iOS или macOS.
reuters.com

✔️ WormGPT эволюционирует: новые версии на базе Grok и Mixtral продаются по подписке в сети.

Оригинальный WormGPT, созданный на основе GPT-J, стал первым массовым инструментом для киберпреступников, позволяя генерировать вредоносный код и фишинговые письма без цензуры. После его закрытия в 2023 году на форумах появились новые варианты: один работает на Grok от xAI, другой на Mixtral от Mistral AI. Вместо создания собственных моделей злоумышленники адаптируют существующие, используя jailbreak-промты, чтобы обойти защитные механизмы.

Анализ, проведенный Cato CTRL показал, что keanu-WormGPT - это обертка Grok с измененным системным промтом, заставляющим нейросеть игнорировать ограничения. xzin0vich-WormGPT, в свою очередь, основан на Mixtral и обучен на данных с дарквеба. Оба проекта распространяются через Telegram-боты по подписке, коммерциализируя генерацию фишинга и вредоносного кода как услугу.
catonetworks.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Поступи в магистратуру с грантом до 1,2 млн рублей

Современная магистратура – это не пары для галочки, а возможность продвинуть карьеру и стать сильным специалистом.

Центральный университет ведет набор на пять программ магистратуры по популярным ИТ-направлениям. Партнеры – ведущие компании на рынке РФ: ВТБ, Сбер, Т-Банк, Яндекс, Avito, Ozon, Х5 Tech и другие. 62% магистрантов ЦУ находят новую работу с ростом зарплаты в 1,6 раза уже на первом курсе. Средняя зарплата – 195 тысяч рублей.

Обучение можно совмещать с работой, а поступить – уже с третьего курса.

Стань частью новой волны специалистов и получи грант на обучение до 1,2 млн рублей.

И подавай заявку на поступление уже сейчас.

Реклама. АНО ВО "Центральный университет", ИНН 7743418023, erid:2Ranykywg6M
🌟 Reinforcement Learning Teachers: как модели на 7B параметров обучают гигантов.

Reinforcement Learning Teachers (RLT) от Sakana AI - метод обучения LLM рассуждениям, где компактная модель-"учитель" не решает задачи сама, а учится объяснять уже готовые решения так, чтобы студент-модель лучше их усваивала.

Вместо дорогого обучения "с нуля" через проб и ошибку (как в классическом RL), учитель фокусируется на ясности пошаговых пояснений, используя и вопрос, и правильный ответ как подсказку. Это радикально удешевляет процесс и выравнивает цель учителя быть полезным студенту.

Архитектура строится вокруг петли обратной связи. Учителю (например, крошечной модели на 7B параметров) на вход подаются и задача и ее верное решение. Его работа - сгенерировать максимально понятное пошаговое объяснение, как прийти от условия к ответу.

Эффективность учителя измеряется не тем, решил ли он задачу сам (он даже не обязан это уметь), а тем, насколько хорошо студент-модель понимает его объяснение. Ключевая метрика - "логарифмические вероятности": чем выше вероятность, что студент, прочитав объяснение учителя, правильно предскажет следующий шаг или итоговый ответ, тем лучше работа учителя. Это и есть сигнал подкрепления для обучения RLT.

Вся магия метода состоит в этом смещении фокуса RL. Вместо чтоб награждать модель за самостоятельное нахождение ответа (что требует огромных вычислительных ресурсов и приводит к "узкой" специализации), RLT поощряют за педагогическую эффективность.

Благодаря наличию готового ответа во время обучения, в роли учителя могут выступать даже небольшие, дешевые модели, которые не смогли бы решить сложные задачи в одиночку. Объяснения от RLT затем используются как высококачественные данные для обучения (дистилляции или "холодного старта") студент-моделей любого размера.

Главный нюанс: метод требует наличия готовых правильных решений для задач в обучающем наборе. Он не заменяет полностью сбор данных, а перепрофилирует их для обучения "преподаванию".

Пока метод тестировался в основном на задачах математики и естественных наук. Но его сила в эффективности: 7B RLT-учитель превосходит в обучении студентов-гигантов ( 671B DeepSeek R1). Он обучает даже студентов крупнее себя (32B) быстрее (менее суток против месяцев) и лучше, а его объяснения четче, без лишнего "шума" вроде юмора или подсказок калькулятора, свойственных традиционным RL-моделям.

▶️ Проект RLT открытый, в репозитории на Github опубликован код для воспроизведения экспериментов из техотчета, а на HF - тестовые модели учителей на 7 и 32 млрд. параметров, обученные на базе Qwen2.5 с помощью сета Bespoke-Stratos-17k.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #RL #RLT #SakanaAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/26 09:22:19
Back to Top
HTML Embed Code: