🚀 Mistral-24B-Reasoning устанавливает новый стандарт для моделей рассуждений с открытым исходным кодом, превосходя s1.1-32B с меньшим количеством параметров!
Модель Mistral-Small-24B-Instruct-2501-reasoning представляет собой специализированную версию модели Mistral-Small-24B-Instruct-2501, оптимизированную для задач математического рассуждения.
Она была дообучена на датасетах: OpenR1-Math-и s1K-1.1, с целью повышения своих способностей к логическому и математическому анализу.
Ключевые особенности: - Оптимизация для математических задач: Модель адаптирована для решения сложных математических задач, включая вычисления, доказательства теорем и анализ математических выражений.
- Высокая производительность: С 24 миллиардами параметров модель достигает результатов, сопоставимых с более крупными моделями, обеспечивая точность и эффективность в математическом рассуждении.
- Открытый исходный код: Доступность модели на платформе Hugging Face позволяет исследователям и разработчикам интегрировать её в различные приложения и проводить дополнительные исследования.
📊 Новая SOTA для открытых моделей на базе R1: ✅ Результат на Math 500: 95,0% ✅ Результат на AIME 2025: 53.33% ✅ Результат наGPQA-D: 62,02%
🚀 Mistral-24B-Reasoning устанавливает новый стандарт для моделей рассуждений с открытым исходным кодом, превосходя s1.1-32B с меньшим количеством параметров!
Модель Mistral-Small-24B-Instruct-2501-reasoning представляет собой специализированную версию модели Mistral-Small-24B-Instruct-2501, оптимизированную для задач математического рассуждения.
Она была дообучена на датасетах: OpenR1-Math-и s1K-1.1, с целью повышения своих способностей к логическому и математическому анализу.
Ключевые особенности: - Оптимизация для математических задач: Модель адаптирована для решения сложных математических задач, включая вычисления, доказательства теорем и анализ математических выражений.
- Высокая производительность: С 24 миллиардами параметров модель достигает результатов, сопоставимых с более крупными моделями, обеспечивая точность и эффективность в математическом рассуждении.
- Открытый исходный код: Доступность модели на платформе Hugging Face позволяет исследователям и разработчикам интегрировать её в различные приложения и проводить дополнительные исследования.
📊 Новая SOTA для открытых моделей на базе R1: ✅ Результат на Math 500: 95,0% ✅ Результат на AIME 2025: 53.33% ✅ Результат наGPQA-D: 62,02%
Since its launch in 2013, Telegram has grown from a simple messaging app to a broadcast network. Its user base isn’t as vast as WhatsApp’s, and its broadcast platform is a fraction the size of Twitter, but it’s nonetheless showing its use. While Telegram has been embroiled in controversy for much of its life, it has become a vital source of communication during the invasion of Ukraine. But, if all of this is new to you, let us explain, dear friends, what on Earth a Telegram is meant to be, and why you should, or should not, need to care. WhatsApp, a rival messaging platform, introduced some measures to counter disinformation when Covid-19 was first sweeping the world. Ukrainian forces have since put up a strong resistance to the Russian troops amid the war that has left hundreds of Ukrainian civilians, including children, dead, according to the United Nations. Ukrainian and international officials have accused Russia of targeting civilian populations with shelling and bombardments. Individual messages can be fully encrypted. But the user has to turn on that function. It's not automatic, as it is on Signal and WhatsApp. Oh no. There’s a certain degree of myth-making around what exactly went on, so take everything that follows lightly. Telegram was originally launched as a side project by the Durov brothers, with Nikolai handling the coding and Pavel as CEO, while both were at VK.
from us