Telegram Group Search
Forwarded from Институт AIRI
Финальная ИИшница этого года пройдет 4 декабря ⤵️

Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.

◼️14:00 Дмитрий Жемчужников cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning

◼️14:20 Назар Бузун HOTA: Hamiltonian framework for Optimal Transport Advection

◼️14:40 Александр Коротин Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization

◼️15:00 Максим Бобрин Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics

◼️15:20 Никита Качаев Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning

◼️15:40 Антон Корзников OrtSAE: Orthogonal Sparse Autoencoders Uncover Atomic Features

◼️16:00 Матвей Михальчук Inverting Black-Box Face Recognition Systems via Zero-Order Optimization in Eigenface Space

◼️16:20 Михаил Гончаров Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images

◼️16:40 Артём Важенцев Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs

◼️17:00 Даниил Сухоруков Block-wise distillation for lightweight weather models

◼️17:20 Илья Макаров Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia

◼️17:40 Никита Гущин Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting

◼️18:00 Егор Черепанов Recurrent Action Transformer with Memory

◼️18:20 Евгений Бурнаев Listening to the Wise Few: Query–Key Alignment Unlocks Latent Correct Answers in Large Language Models

◼️18:40 Андрей Шевцов A Benchmark for Arbitrary Geometric Preservation in Protein Generation

Ведущий ИИшницы — Артур Кадурин, AIRI.

YouTube | ВК

До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1615🤷‍♂5🥰4🤷2🤷‍♀1💘1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Tesla Optimus: прогресс за 2.5 года

@ai_machinelearning_big_data
👍58🔥25🤣13🥰8👏41🦄1
Объединение модальностей и развитие голосовых end-to-end моделей

На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.

Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:

— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.

— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).

— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.

Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.
👍116🥰4😁2🥱2
🌟 Trinity Nano и Trinity Mini: ответ американских разработчиков на китайское доминирование.

В последний год любой, кто следит за развитием моделей с открытыми весами знает - Китай недостижим.

Qwen и DeepSeek фактически задали стандарт того, как должна выглядеть современная архитектура MoE. В США же большинство компаний занимались лишь доработкой чужих чекпоинтов.

И вот, американская компания Arcee AI собралась Make America Great Again вернуть инициативу и создать семейство открытых моделей, обученных "от и до" в США, весами которых бизнес может владеть по-настоящему.

Компания столкнулась с тем, что корпоративным клиентам нужна "юрисдикционная безопасность" . Специалистов по комплаенсу уже не устраивает ответ "мы дообучили модель неизвестного происхождения". Им нужен полный контроль над пайплайном данных.

Семейство моделей Arcee AI получило имя Trinity. Пока в превью-релиз вошли 2 конфигурации:

🟢Trinity Mini — это обычная ризонинг-модель на 26 млрд. общих и 3 млрд активных параметров, обученная с нуля.

🟢Trinity Nano Preview — это модель чата. Она создана, чтобы быть харизматичной и интересной в общении несмотря на свои скромные 6 млрд. общих и 1 млрд. активных параметров.

И пока мы тестируем Nano и Mini, Arcee AI тренирует флагмана Trinity Large.

Его релиз запланирован на январь 2026 года. Это будет модель на 420 млрд. параметров, из которых 13 млрд. будут активны.

Обе доступные модели, Trinity Nano и Trinity Mini выпущены под лицензией Apache 2.0. Они опубликованы на Hugging Face и поддерживаются llama.cpp, LM Studio и vLLM.

Mini также доступна через OpenRouter по очень привлекательной цене - около 4,5 центов за 1 млн. токенов.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Набор моделей
🟡Demo Trinity Mini


@ai_machinelearning_big_data

#AI #ML #MoE #Trinity #ArceeAi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥75🥰5🦄2
2025/12/03 16:47:39
Back to Top
HTML Embed Code: