Telegram Group Search
Китайские коллеги ещё покушоть принесли

Представляем Kimi k1.5 — мультимодальную модель уровня [GPT-4]o1

Производительность Sota short-CoT, превосходящая GPT-4o и Claude Sonnet 3.5 на 📐AIME, 📐MATH-500, 💻 LiveCodeBench с большим отрывом (до +550%)
Производительность long-CoT соответствует o1 в нескольких модальностях (👀MathVista, 📐AIME, 💻Codeforces и т. д.)

https://github.com/MoonshotAI/Kimi-k1.5

Предобучение языковой модели с предсказанием следующего токена эффективно для масштабирования вычислений, но ограничено объемом доступных обучающих данных. Масштабирование обучения с подкреплением (RL) открывает новую ось для постоянного совершенствования искусственного интеллекта, обещая, что большие языковые модели (LLM) смогут масштабировать свои наборы обучающих данных, обучаясь исследованию с вознаграждением. Однако предыдущие опубликованные исследования не позволяли достичь конкурентоспособных результатов. В свете этого мы публикуем отчёт об обучении Kimi k1.5, нашей новейшей мультимодальной LLM, обученной с RL, включая описание её RL-методов, рецепты по подготовке мультимодальных данных и оптимизации инфраструктуры. Увеличение длины контекста и улучшенные методы оптимизации политики являются ключевыми компонентами нашего подхода, который основан на упрощенной, эффективной структуре RL без привлечения более сложных методов, такие как поиск по дереву Монте-Карло, оценочные функции и модели процессного вознаграждения. Примечательно, что наша система достигает передовой эффективности рассуждений в различных бенчмарках и модальностях — например, 77,5 на AIME, 96,2 на MATH 500, 94-й процентиль на Codeforces, 74,9 на MathVista — что соответствует o1 OpenAI. Более того, мы представляем эффективные методы long2short, которые используют методы long-CoT для улучшения моделей short-CoT, что позволяет получить передовые результаты в области рассуждений short-CoT — например, 60,8 на AIME, 94,6 на MATH500, 47,3 на LiveCodeBench — превосходя существующие модели short-CoT, такие как GPT-4o и Claude Sonnet 3.5, с большим отрывом (до +550%)

Тут бот, вроде: https://kimi.ai/
This media is not supported in your browser
VIEW IN TELEGRAM
Монополия на рынке ИИ — В С Ё?

Китайские нейросети DeepSeek и Qwen2.5-Max ворвались в игру, подняв ряд важных вопросов:

0️⃣ Можно ли создать ИИ быстро и дешево?
0️⃣ Как сравнивать ИИ-модели? Какие из них лучше?
0️⃣ Кто победит в технологической гонке: США или Китай?

Об этом и многом другом поговорили с Иваном Тюкиным (профессором Центра ИИ Сколтеха) и Сергеем Марковым (руководителем исследований в проекте GigaChat, Сбер).

Выпуск доступен на всех площадках:

ВКОНТАКТЕ

RUTUBE

YOUTUBE

PODCASTER.FM

ЯНДЕКС МУЗЫКА
Please open Telegram to view this post
VIEW IN TELEGRAM
А поделитесь разными расхожими заблуждениями об искусственном интеллекте
https://youtube.com/playlist?list=PLjrmJPA87Y-hNZAYcUSWC_0e1fiMqyOA1&si=d-K40jxlxJx53Nyw

Обновил на ютубе плейлист, в который собраны все мои выступления, интервью и лекции: от дебатов у Пушного до презентации книги

Параллельно узнал, что кроме полного тёзки политолога, есть ещё шансонье и даже какой-то персонаж, который массовыми исцелениями промышляет

Тяжело быть Сергеем Марковым (на самом деле нет)
Forwarded from AIRI Institute
Когда чувства компилируются без ошибок

Мы сделали валентинки для тех, кто видит красоту в коде, звёздное небо в репозиториях и всегда выбирает оптимальный путь — и в науке, и в жизни. Отправляйте их коллегам, друзьям и просто дорогим людям.

Пусть ваши градиенты сходятся, модели не переобучаются, а сердце остаётся в стабильной конвергенции!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/02/24 13:10:59
Back to Top
HTML Embed Code: