👑 Вчера была выпущена еще одна интересная китайская опенсорс модель ризонинга.
Kimi представила Kimi k1.5 - мультимодальную модель, использующую обучение с подкреплением с длинной и короткой цепочкой размышления (CoT).
- Контекст 128 тыс. токенов
- Согласно их опубликованному отчету, они достигли производительности SOTA в таких тестах, как AIME (77,5), MATH-500 (96,2) и LiveCodeBench (47,3).
→ Производительность Long-CoT соответствует o1 в нескольких тестах: Math Vista, Codeforces и т.д)
- Модель превосходит GPT-4o и Claude Sonnet 3.5 на AIME
⚡️ Технический отчет: https://github.com/MoonshotAI/Kimi-k1.5
#llm #reasoning #ml #Kimi #preview
Kimi представила Kimi k1.5 - мультимодальную модель, использующую обучение с подкреплением с длинной и короткой цепочкой размышления (CoT).
- Контекст 128 тыс. токенов
- Согласно их опубликованному отчету, они достигли производительности SOTA в таких тестах, как AIME (77,5), MATH-500 (96,2) и LiveCodeBench (47,3).
→ Производительность Long-CoT соответствует o1 в нескольких тестах: Math Vista, Codeforces и т.д)
- Модель превосходит GPT-4o и Claude Sonnet 3.5 на AIME
⚡️ Технический отчет: https://github.com/MoonshotAI/Kimi-k1.5
#llm #reasoning #ml #Kimi #preview
group-telegram.com/ai_machinelearning_big_data/6590
Create:
Last Update:
Last Update:
👑 Вчера была выпущена еще одна интересная китайская опенсорс модель ризонинга.
Kimi представила Kimi k1.5 - мультимодальную модель, использующую обучение с подкреплением с длинной и короткой цепочкой размышления (CoT).
- Контекст 128 тыс. токенов
- Согласно их опубликованному отчету, они достигли производительности SOTA в таких тестах, как AIME (77,5), MATH-500 (96,2) и LiveCodeBench (47,3).
→ Производительность Long-CoT соответствует o1 в нескольких тестах: Math Vista, Codeforces и т.д)
- Модель превосходит GPT-4o и Claude Sonnet 3.5 на AIME
⚡️ Технический отчет: https://github.com/MoonshotAI/Kimi-k1.5
#llm #reasoning #ml #Kimi #preview
Kimi представила Kimi k1.5 - мультимодальную модель, использующую обучение с подкреплением с длинной и короткой цепочкой размышления (CoT).
- Контекст 128 тыс. токенов
- Согласно их опубликованному отчету, они достигли производительности SOTA в таких тестах, как AIME (77,5), MATH-500 (96,2) и LiveCodeBench (47,3).
→ Производительность Long-CoT соответствует o1 в нескольких тестах: Math Vista, Codeforces и т.д)
- Модель превосходит GPT-4o и Claude Sonnet 3.5 на AIME
⚡️ Технический отчет: https://github.com/MoonshotAI/Kimi-k1.5
#llm #reasoning #ml #Kimi #preview
BY Machinelearning
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/bvspVUvyIiqFlsKFlyj9My64Yyj6MxeeuuC3c2e58nJfWh4-9znKV9eK9BEGGHnQJgBfl-soPqYhWEN2pHpffzasd9teCtdH0oMuNvywhN5uu1_GValS0Rv1cQGkp7PUGMxH5hzxS05MIYHo0FJ40rqS9lg8TLOPrZECiibrs4-LxhxS5MLLBlIwGznRZg_gRqkoVYAIc9B1VhBroTi84KEowm6ktd4KYoGe9HvFxJoS9LZX3eHbF7zSf-GN6leFlTLzk6CZ_VPqo2PWa1Uj22y-fFIzzt30whetju9yyapfFEf6cLOy0OyqPTzG6BbC41DyPGVoKCW9BP_l-P9Mug.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/YzWgeuG1s-d_hwqqHs2CxbVIS6NU-qLh0SLKLZpdprSTVXmB99s8TxlYHAwIQICic7w5YigMdBi4xol0SLlbkRYZbiUYMyVClv0b5AJnZCplILp7rGTRgBLaKnhJO9RJo-m7yh27SfpSCNQZbrCu3fx-f0DNeCavMm-q8nJMHCFhoQ9IipwJHpvbFq_plfgGlxNHO43bG5S4JFj7pfljFPWQdpwSfqyrZu_htxhFCDYA2pAgoTQMOGHw3_w3ManiXrqmbrBCCKpkxr-yLVe5jXyGx_E09FvDHOUR-QURiaU1RKfYDK-0nsWQ6uN99zH_2-Nay93cZMZisdd98J4D4g.jpg)
Share with your friend now:
group-telegram.com/ai_machinelearning_big_data/6590