Forwarded from Институт AIRI
Финальная ИИшница этого года пройдет 4 декабря ⤵️
Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.
◼️ 14:00 Дмитрий Жемчужников cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning
◼️ 14:20 Назар Бузун HOTA: Hamiltonian framework for Optimal Transport Advection
◼️ 14:40 Александр Коротин Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization
◼️ 15:00 Максим Бобрин Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics
◼️ 15:20 Никита Качаев Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
◼️ 15:40 Антон Корзников OrtSAE: Orthogonal Sparse Autoencoders Uncover Atomic Features
◼️ 16:00 Матвей Михальчук Inverting Black-Box Face Recognition Systems via Zero-Order Optimization in Eigenface Space
◼️ 16:20 Михаил Гончаров Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images
◼️ 16:40 Артём Важенцев Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs
◼️ 17:00 Даниил Сухоруков Block-wise distillation for lightweight weather models
◼️ 17:20 Илья Макаров Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia
◼️ 17:40 Никита Гущин Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting
◼️ 18:00 Егор Черепанов Recurrent Action Transformer with Memory
◼️ 18:20 Евгений Бурнаев Listening to the Wise Few: Query–Key Alignment Unlocks Latent Correct Answers in Large Language Models
◼️ 18:40 Андрей Шевцов A Benchmark for Arbitrary Geometric Preservation in Protein Generation
Ведущий ИИшницы — Артур Кадурин, AIRI.
YouTube | ВК
До встречи!
Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.
Ведущий ИИшницы — Артур Кадурин, AIRI.
YouTube | ВК
До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍16❤15🤷♂5🥰4🤷2🤷♀1💘1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
👍58🔥25🤣13🥰8👏4❤1🦄1
Объединение модальностей и развитие голосовых end-to-end моделей
На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.
Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:
— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.
— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).
— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.
Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.
На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.
Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:
— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.
— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).
— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.
Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.
👍11❤6🥰4😁2🥱2
В последний год любой, кто следит за развитием моделей с открытыми весами знает - Китай недостижим.
Qwen и DeepSeek фактически задали стандарт того, как должна выглядеть современная архитектура MoE. В США же большинство компаний занимались лишь доработкой чужих чекпоинтов.
И вот, американская компания Arcee AI собралась
Компания столкнулась с тем, что корпоративным клиентам нужна "юрисдикционная безопасность" . Специалистов по комплаенсу уже не устраивает ответ
"мы дообучили модель неизвестного происхождения". Им нужен полный контроль над пайплайном данных.Семейство моделей Arcee AI получило имя Trinity. Пока в превью-релиз вошли 2 конфигурации:
И пока мы тестируем Nano и Mini, Arcee AI тренирует флагмана Trinity Large.
Его релиз запланирован на январь 2026 года. Это будет модель на 420 млрд. параметров, из которых 13 млрд. будут активны.
Обе доступные модели, Trinity Nano и Trinity Mini выпущены под лицензией Apache 2.0. Они опубликованы на Hugging Face и поддерживаются llama.cpp, LM Studio и vLLM.
Mini также доступна через OpenRouter по очень привлекательной цене - около 4,5 центов за 1 млн. токенов.
@ai_machinelearning_big_data
#AI #ML #MoE #Trinity #ArceeAi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥7❤5🥰5🦄2
