Alibaba: выпустили выпустили мощную модель для кодинга — Qwen 2.5 Coder 32B.
На бенчах показывает себя лучше других опенсорсных и сопоставима по результатам с GPT-4o.
Поддержка уже вшита в LMStudio, OpenWebUI + Ollama, и HuggingChat. Можно гонять версии под нужное количество VRAM вашей видюхи: модельный ряд включает в себя версии в размерах от 0.5B до 32B (Q4_K_M квант 32B весит 20 ГБ и влезает в 4090) и контекстом от 32К до 128К (можно кормить книжки). Есть онлайн демо с Artifacts. Такое же можно получить в интерфейсе OpenWebUI. Ещё можно прицепить к редактору кода Cursor.
Анонс
Веса модели
Демо (хаггинг)
Демо (hugging.chat)
Гитхаб
На бенчах показывает себя лучше других опенсорсных и сопоставима по результатам с GPT-4o.
Поддержка уже вшита в LMStudio, OpenWebUI + Ollama, и HuggingChat. Можно гонять версии под нужное количество VRAM вашей видюхи: модельный ряд включает в себя версии в размерах от 0.5B до 32B (Q4_K_M квант 32B весит 20 ГБ и влезает в 4090) и контекстом от 32К до 128К (можно кормить книжки). Есть онлайн демо с Artifacts. Такое же можно получить в интерфейсе OpenWebUI. Ещё можно прицепить к редактору кода Cursor.
Анонс
Веса модели
Демо (хаггинг)
Демо (hugging.chat)
Гитхаб
group-telegram.com/Psy_Eyes/2226
Create:
Last Update:
Last Update:
Alibaba: выпустили выпустили мощную модель для кодинга — Qwen 2.5 Coder 32B.
На бенчах показывает себя лучше других опенсорсных и сопоставима по результатам с GPT-4o.
Поддержка уже вшита в LMStudio, OpenWebUI + Ollama, и HuggingChat. Можно гонять версии под нужное количество VRAM вашей видюхи: модельный ряд включает в себя версии в размерах от 0.5B до 32B (Q4_K_M квант 32B весит 20 ГБ и влезает в 4090) и контекстом от 32К до 128К (можно кормить книжки). Есть онлайн демо с Artifacts. Такое же можно получить в интерфейсе OpenWebUI. Ещё можно прицепить к редактору кода Cursor.
Анонс
Веса модели
Демо (хаггинг)
Демо (hugging.chat)
Гитхаб
На бенчах показывает себя лучше других опенсорсных и сопоставима по результатам с GPT-4o.
Поддержка уже вшита в LMStudio, OpenWebUI + Ollama, и HuggingChat. Можно гонять версии под нужное количество VRAM вашей видюхи: модельный ряд включает в себя версии в размерах от 0.5B до 32B (Q4_K_M квант 32B весит 20 ГБ и влезает в 4090) и контекстом от 32К до 128К (можно кормить книжки). Есть онлайн демо с Artifacts. Такое же можно получить в интерфейсе OpenWebUI. Ещё можно прицепить к редактору кода Cursor.
Анонс
Веса модели
Демо (хаггинг)
Демо (hugging.chat)
Гитхаб
BY Psy Eyes
Share with your friend now:
group-telegram.com/Psy_Eyes/2226