group-telegram.com/data_analysis_ml/3210
Last Update:
🚀 Mistral-24B-Reasoning устанавливает новый стандарт для моделей рассуждений с открытым исходным кодом, превосходя s1.1-32B с меньшим количеством параметров!
Модель Mistral-Small-24B-Instruct-2501-reasoning представляет собой специализированную версию модели Mistral-Small-24B-Instruct-2501, оптимизированную для задач математического рассуждения.
Она была дообучена на датасетах: OpenR1-Math-и s1K-1.1, с целью повышения своих способностей к логическому и математическому анализу.
Ключевые особенности:
- Оптимизация для математических задач: Модель адаптирована для решения сложных математических задач, включая вычисления, доказательства теорем и анализ математических выражений.
- Высокая производительность: С 24 миллиардами параметров модель достигает результатов, сопоставимых с более крупными моделями, обеспечивая точность и эффективность в математическом рассуждении.
- Открытый исходный код: Доступность модели на платформе Hugging Face позволяет исследователям и разработчикам интегрировать её в различные приложения и проводить дополнительные исследования.
📊 Новая SOTA для открытых моделей на базе R1:
✅ Результат на Math 500: 95,0%
✅ Результат на AIME 2025: 53.33%
✅ Результат наGPQA-D: 62,02%
https://huggingface.co/yentinglin/Mistral-Small-24B-Instruct-2501-reasoning
BY Анализ данных (Data analysis)

Share with your friend now:
group-telegram.com/data_analysis_ml/3210