🌟Вышла новая InternLM v3!
Internal выпустила 3 версию своей маленькой модели и утверждают, что на данный момент это лучшая модель класса 7B.
Интересно, что она “обучена всего на 4 триллионах высококачественных токенов”.
- Производительность уровня SoTA, превосходит на бенчмарках Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Обучалась только на токенах высокого качества 4T.
📌 Лицензия: Apache 2.0.
🤗 HF: https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@ai_machinelearning_big_data
#InternLM #opensource #llm #ml #reasoningmodel
Internal выпустила 3 версию своей маленькой модели и утверждают, что на данный момент это лучшая модель класса 7B.
Интересно, что она “обучена всего на 4 триллионах высококачественных токенов”.
- Производительность уровня SoTA, превосходит на бенчмарках Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Обучалась только на токенах высокого качества 4T.
📌 Лицензия: Apache 2.0.
🤗 HF: https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@ai_machinelearning_big_data
#InternLM #opensource #llm #ml #reasoningmodel
group-telegram.com/ai_machinelearning_big_data/6545
Create:
Last Update:
Last Update:
🌟Вышла новая InternLM v3!
Internal выпустила 3 версию своей маленькой модели и утверждают, что на данный момент это лучшая модель класса 7B.
Интересно, что она “обучена всего на 4 триллионах высококачественных токенов”.
- Производительность уровня SoTA, превосходит на бенчмарках Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Обучалась только на токенах высокого качества 4T.
📌 Лицензия: Apache 2.0.
🤗 HF: https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@ai_machinelearning_big_data
#InternLM #opensource #llm #ml #reasoningmodel
Internal выпустила 3 версию своей маленькой модели и утверждают, что на данный момент это лучшая модель класса 7B.
Интересно, что она “обучена всего на 4 триллионах высококачественных токенов”.
- Производительность уровня SoTA, превосходит на бенчмарках Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Обучалась только на токенах высокого качества 4T.
📌 Лицензия: Apache 2.0.
🤗 HF: https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@ai_machinelearning_big_data
#InternLM #opensource #llm #ml #reasoningmodel
BY Machinelearning
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/EGfrqqTqn-yEDGAO1xyviHH4epyMdUgRbYVquQjFY3gMkHcz5CJ75ubRPi1nL990CaW5GXPCIAjbWLyCJ7Tz2kllwfEVVzGpAoMlbn8LCIigPOSA0hgEcEyyOpATWI1B065QPpLMd9Jtn_2rNUVhKr0Y0DCInPZo6aCd8yDPpllJgB4OtC7-DRHfxWleSjQNvHeigIPRpd_PaGeaE8bGsa1zIAK9kahQLCOjCWomU1y4jwtOo-ZmNRDBhrAJwuzHootRSj7TrR22IzSvqbAyJHycaFiPtSZ9xtf2An0hDMFG0tSoGr2yJoS34aBWB-nsOJ8wGYxvEKcZFsnorNlqDQ.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/aw3WQZOYQU7NlnY83okmZAO09XQka7nyqf2L2koVxQij-T1b7i5qpbwezVq_yjaS_fbCaZiImfeJe3AASxKScoTRuvYc9DENlYws4gGNu5VOyvK6YMxiJamGmOGt4aCOCTSK7k7UHOOwlgxyYrrmn6fUT-Dh-HnVm1hTQdnI6rKLWmHVpp8W1eXhiUxEn-jLclxw7eHjDN9WxervW9dfBAVNuw6HIm-NNnXS0B3o7Bnep5YkpPfa68ksiicEvC2rCX2SYuxSxdWJ55UIrF3EcNHakQ8_kUSPfU-1LBk-aeG3Bm1whgGqiuXtVBv1Ei4PthntSl6GMTHsOMxo8cuLJw.jpg)
Share with your friend now:
group-telegram.com/ai_machinelearning_big_data/6545