🌟Вышла новая InternLM v3!
Internal выпустила 3 версию своей маленькой модели и утверждают, что на данный момент это лучшая модель класса 7B.
Интересно, что она “обучена всего на 4 триллионах высококачественных токенов”.
- Производительность уровня SoTA, превосходит на бенчмарках Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Обучалась только на токенах высокого качества 4T.
📌 Лицензия: Apache 2.0.
🤗 HF: https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@ai_machinelearning_big_data
#InternLM #opensource #llm #ml #reasoningmodel
Internal выпустила 3 версию своей маленькой модели и утверждают, что на данный момент это лучшая модель класса 7B.
Интересно, что она “обучена всего на 4 триллионах высококачественных токенов”.
- Производительность уровня SoTA, превосходит на бенчмарках Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Обучалась только на токенах высокого качества 4T.
📌 Лицензия: Apache 2.0.
🤗 HF: https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@ai_machinelearning_big_data
#InternLM #opensource #llm #ml #reasoningmodel
group-telegram.com/ai_machinelearning_big_data/6545
Create:
Last Update:
Last Update:
🌟Вышла новая InternLM v3!
Internal выпустила 3 версию своей маленькой модели и утверждают, что на данный момент это лучшая модель класса 7B.
Интересно, что она “обучена всего на 4 триллионах высококачественных токенов”.
- Производительность уровня SoTA, превосходит на бенчмарках Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Обучалась только на токенах высокого качества 4T.
📌 Лицензия: Apache 2.0.
🤗 HF: https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@ai_machinelearning_big_data
#InternLM #opensource #llm #ml #reasoningmodel
Internal выпустила 3 версию своей маленькой модели и утверждают, что на данный момент это лучшая модель класса 7B.
Интересно, что она “обучена всего на 4 триллионах высококачественных токенов”.
- Производительность уровня SoTA, превосходит на бенчмарках Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Обучалась только на токенах высокого качества 4T.
📌 Лицензия: Apache 2.0.
🤗 HF: https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@ai_machinelearning_big_data
#InternLM #opensource #llm #ml #reasoningmodel
BY Machinelearning
Share with your friend now:
group-telegram.com/ai_machinelearning_big_data/6545