Telegram Group Search
Интелион Облако запускает розыгрыш 🎉

Главный приз – 3 сервера с А10 или А5000. Также разыгрываются приятные скидки.

Запусти нейросеть, рендер, LLM или сложные вычисления на топовом GPU за 1 рубль!

Как принять участие:
1. Зарегистрироваться на Intelion.cloud
2. Заполнить форму розыгрыша
3. Подписаться на ТГ канал

Итоги подведем 5 июля в прямом эфире в канале Artificial Intelion.
Не забудь поделиться с другом!
Media is too big
VIEW IN TELEGRAM
✔️ LAION и Intel создали инструмент для анализа 40 эмоций по мимике и голосу.

Совместный проект «Empathic Insight» - это набор моделей и датасетов для распознавания эмоций. Система оценивает интенсивность 40 эмоций на изображениях или аудиозаписях, используя шкалу от 0 до 7 для лиц и градации «отсутствие/слабо/сильно» для голоса. В основе - модели EmoNet, которые оперируют вероятностями и построенные на расширенной эмоциональной таксономии.

Для обучения использовали 203 тыс. синтетических лиц и 4,7 тыс. аудиозаписей, включая данные из датасета Laion’s Got Talent (5 тыс. часов речи на нескольких языках). EmoNet обешел Gemini 2.5 Pro и Hume AI в точности соответствия оценкам психологов.

Попутно разработана BUD-E Whisper - файнтюн Whisper, добавляющая анализ эмоций, возраста и пола в транскрибацию. Модели доступны на Hugging Face под лицензиями CC и Apache 2.0.
laion.ai

✔️ Deezer объявил о маркировке треков, созданных ИИ.

Музыкальная платформа начала предупреждать пользователей об альбомах с песнями, полностью сгенерированными ИИ. Это часть усилий против мошенников, которые используют ИИ для накрутки прослушиваний и получения необоснованных роялти. По данным компании, 18% ежедневно загружаемых треков (около 20 тысяч в день) создаются с помощью генераторов музыки.

Платформа признает, что полностью ИИ-музыка составляет лишь 0.5% трафика, но рост показателя указывает на системную уязвимость. В условиях споров вокруг обучения ИИ на чужих данных и отсутствия четкого регулирования, инициатива Deezer может стать прецедентом для отрасли.
apnews.com

✔️ Foxconn и NVIDIA внедряют гуманоидов в производство.

Компании договорились использовать гуманоидных роботов на новом заводе в Хьюстоне, где будут выпускать серверы GB300 для ИИ. Это станет первым случаем применения человекоподобных роботов в производстве продукции NVIDIA. Работа начнётся в первом квартале 2025 года, а роботы займутся сборкой, вставкой кабелей и перемещением компонентов.

Завод выбран не случайно: свободное пространство позволяет адаптировать линии под новых «работников». Пока неизвестно, какие именно гуманоиды будут задействованы — собственные разработки Foxconn с NVIDIA или китайские модели от UBTech.
reuters.com

✔️ Surglasses анонсировала первый в мире анатомический стол с интегрированным ИИ.

Asclepius AI Table - первый в мире анатомический стол с искусственным интеллектом, который меняет подход к обучению в медицине и ветеринарии. Устройство работает без дополнительного ПО, объединяя 8 модулей для изучения анатомии, патологии и биомеханики.

Встроенные ИИ-инструкторы отвечают на голосовые и текстовые запросы в реальном времени, объясняя структуры тела и адаптируя уроки под уровень ученика. Студенты могут исследовать 3D-модели тела, реконструировать КТ-снимки или анализировать гистологические слайды. Для ветеринаров доступна библиотека анатомий разных видов животных.

Отдельно выделен модуль кинезиологии с анимациями движений суставов и мышц, а также симулятор УЗИ с клиническими данными. Устройство уже заинтересовало вузы и клиники по всему миру.
prnewswire.com

✔️ Helm.ai представил камерную систему для автономного вождения автомобилей.

Honda и стартап Helm.ai анонсировали систему Helm.ai Vision, решение для автономного вождения, основанное исключительно на камерах. Технология будет внедрена в электромобили Honda 2026 года, позволяя водителям не держать руки на руле и глаза на дороге.

В отличие от компаний, использующих лидар, Helm.ai делает ставку на «компьютерное зрение»: камеры строят карту окружения в реальном времени, создавая вид сверху для улучшения навигации. Система совместима с чипами Nvidia и Qualcomm, что упрощает интеграцию в существующие платформы. Продукт будет предлагаться рынку по модели лицензирования ПО для автопроизводителей.
tech.yahoo.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🎓 Похоже, все обучение за него прошёл ChatGPT, а сам выпускник просто вышел и поблагодарил ИИ на сцене.

Новая реальность 😹

@ai_machinelearning_big_data

#chatgpt
✔️ OpenAI выложили в открытый доступ Customer Service Agent Demo

Теперь у всех есть пример, как сделать продакшн-агентов с маршрутизацией, безопасностью и интерфейсом — от запроса до ответа.

Что это такое:

• Многоагентная система для поддержки клиентов (например: бронирование мест, отмена рейса, статус рейса, FAQ)
• Демка написана на Python + Next.js
• Использует OpenAI Agents SDK
• Встроены guardrails: защита от неуместных запросов и попыток обхода правил
• UI: внутри готовый интерфейс чат-бота

Как работает:

1. Пользователь пишет запрос
2. Система выбирает подходящего агента (например, `SeatBooking`)
3. Агент отвечает или передаёт диалог другому
4. Есть fallback на человека, если нужно

Как запустить:


# Backend
cd python-backend
python -m venv .venv && source .venv/bin/activate
pip install -r requirements.txt
uvicorn api:app --reload --port 8000

# Frontend
cd ui
npm install
npm run dev


Далее открываем: http://localhost:3000

Особенности
• MIT-лицензия — можно адаптировать под свои задачи
• Удобно расширять: добавлять новых агентов, инструменты, правила
• Простой код, всё задокументировано
• Рабочий кейс от OpenAI

🔗 GitHub: github.com/openai/openai-cs-agents-demo

Если вы хотите собрать систему из агентов — это отличная точка старта.

@ai_machinelearning_big_data

#chatgpt #openai #aiagents #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Как сгенерировать миллиард демо-примеров для обучения роботов?

Проект Dex1B показывает, как это сделать просто — с помощью симуляции и генеративных моделей!

📌 Цель проекта: создать масштабный датасет для двух задач:
Grasping — захват объектов 🖐️
Articulation — манипуляции с подвижными частями робота

Как это работает:

1. Создание Seed-датасета
Сначала используется оптимизационный алгоритм, чтобы вручную (или полуавтоматически) собрать небольшой, но точный набор демонстраций — так называемый *Seed Dataset*.

2. Обучение генеративной модели
На основе Seed-датасета обучается DexSimple— простая C-VAE модель (Conditional Variational Autoencoder). Она умеет порождать новые сцены, основываясь на контексте: тип объекта, поза руки, желаемое взаимодействие.

3. Масштабирование до 1 миллиарда
С помощью DexSimple создаются миллиарды новых демонстраций. При генерации учитывается разнообразие поз и объектов: используется преднамеренное «смешение» данных, чтобы не переобучаться на узком распределении.

4. Симуляция и проверка
Все демонстрации валидируются в физическом симуляторе ManiSkill/SAPIEN. Только успешные взаимодействия остаются в финальном наборе.

✔️ Что внутри:

- Grasping-сцены (1 млн штук): построены на базе ассетов из Objaverse
- Articulation-сцены: используют объекты из PartNet-Mobility — богатая коллекция с подвижными частями (двери, ящики, рычаги и т.п.)
- Каждая сцена содержит: 3D-модель объекта, позу руки, физику взаимодействия и результат

Почему это важно:

- Ручной сбор миллиардов примеров невозможен — здесь это решается генеративным путём
- Dex1B создаёт разнообразные и физически валидные примеры
- Это открывает путь к масштабному обучению роботов с использованием имитационного обучения


🟡 Сайт проекта: https://jianglongye.com/dex1b)
🟡Статья : https://jianglongye.com/dex1b/static/dex1b.pdf

@ai_machinelearning_big_data

#ai #robots #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👄 MultiTalk — новая открытая lip sync модель с высоким качеством синхронизации.

✔️ Что умеет:
• Генерирует видео с несколькими говорящими персонажами по аудио
• Поддерживает видео до 15 секунд в 480p и 720p
• Управление персонажами через текстовые промпты
• Поддержка генерации мультяшных героев, пения, нестандартных стилей речи
• Доступно в ComfyUI

Модель принимает на вход многопотоковое аудио, референсное изображение и текстовый промпт, после чего генерирует видео с взаимодействиями между персонажами, следуя промпту и с точной синхронизацией губ с речью.

Github: https://github.com/MeiGen-AI/MultiTalk
HF: https://huggingface.co/MeiGen-AI/MeiGen-MultiTalk

@ai_machinelearning_big_data

#wan #ai #ml #lipsync #MultiTalk
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Парадигма меняется: Polaris выводит локальные модели на новый уровень

Polaris — это набор простых, но мощных приёмов, который позволяет даже компактным LLM (4 B, 7 B) догнать и превзойти «тяжеловесов» на задачах рассуждения (открытая 4B модель превосходи Claude-4-Opus).

Вот как это работает и почему важно:
Управление сложностью данных
– Генерируем несколько (например, 8) вариантов решения от базовой модели
– Оцениваем, какие примеры слишком простые (8/8) или слишком сложные (0/8), и убираем их
– Оставляем «умеренные» задачи с правильными решениями в 20–80 % случаев, чтобы быть ни слишком лёгкими, ни слишком сложными

Разнообразие «прогонов» (rollout-ов)
– Мы запускаем модель несколько раз на одной и той же задаче и смотрим, как меняются её рассуждения: одни и те же входные данные, но разные «пути» к решению.
– Считаем, насколько разнообразны эти пути (т. е. их «энтропия»): если модели всё время идут по одной линии, новых идей не появляется; если слишком хаотично — рассуждения неустойчивы.
– Задаём начальную “температуру” генерации там, где баланс между стабильностью и разнообразием оптимален, а затем постепенно её повышаем, чтобы модель не застревала на одних и тех же шаблонах и могла исследовать новые, более креативные ходы.

“Train-short, generate-long”
– Во время RL-обучения используем короткие цепочки рассуждений (короткие CoT) для экономии ресурсов
– На inference увеличиваем длину CoT, чтобы получить более детальные и понятные объяснения без накрутки стоимости обучения

Динамическое обновление датасета
– По мере роста точности удаляем примеры с accuracy > 90 %, чтобы не «портить» модель слишком лёгкими задачами
– Поддерживаем постоянный вызов модели на её пределе возможностей

Улучшенная reward-функция
– Комбинируем стандартный RL-reward с бонусами за разнообразие и глубину рассуждений
– Это позволяет модели учиться не только давать правильный ответ, но и объяснять логику своих решений

Преимущества Polaris
• Благодаря Polaris даже компактные LLM (4 B и 7 B) достигают и даже «тяжеловесов» (32 B–235 B) на AIME, MATH и GPQA
• Обучение на доступных GPU уровня consumer-grade — до 10× экономии ресурсов и затрат по сравнению с традиционными RL-пайплайнами

• Полный открытый стек: исходники, подборка данных и веса
• Простота и модульность: готовый к использованию фреймворк для быстрого внедрения и масштабирования без дорогостоящей инфраструктуры


Polaris доказывает, что качество данных и грамотная настройка RL-процесса важнее просто «больших моделей». С ним вы получите продвинутую reasoning-LLM, которую можно запустить локально и масштабировать везде, где есть обычная GPU.


Blog post: https://hkunlp.github.io/blog/2025/Polaris
Model: https://huggingface.co/POLARIS-Project
Code: https://github.com/ChenxinAn-fdu/POLARIS
Notion: https://honorable-payment-890.notion.site/POLARIS-A-POst-training-recipe-for-scaling-reinforcement-Learning-on-Advanced-ReasonIng-modelS-1dfa954ff7c38094923ec7772bf447a1

@ai_machinelearning_big_data

#ml #ai#Polaris #PostTraining #ReinforcementLearning #LLM
2025/06/28 17:56:32
Back to Top
HTML Embed Code: