Notice: file_put_contents(): Write of 11604 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50
Neurogen | Telegram Webview: neurogen_news/998 -
Telegram Group & Telegram Channel
Qwen2.5-Coder - лучше чем GPT-4o для кодинга

Qwen2.5-Coder это целое семейство моделей:

Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B

При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.

Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.

Квантованные GGUF версии для локального запуска уже доступны для загрузки:

Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)

#llm #code #qwen



group-telegram.com/neurogen_news/998
Create:
Last Update:

Qwen2.5-Coder - лучше чем GPT-4o для кодинга

Qwen2.5-Coder это целое семейство моделей:

Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B

При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.

Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.

Квантованные GGUF версии для локального запуска уже доступны для загрузки:

Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)

#llm #code #qwen

BY Neurogen






Share with your friend now:
group-telegram.com/neurogen_news/998

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The fake Zelenskiy account reached 20,000 followers on Telegram before it was shut down, a remedial action that experts say is all too rare. In a statement, the regulator said the search and seizure operation was carried out against seven individuals and one corporate entity at multiple locations in Ahmedabad and Bhavnagar in Gujarat, Neemuch in Madhya Pradesh, Delhi, and Mumbai. Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government. Recently, Durav wrote on his Telegram channel that users' right to privacy, in light of the war in Ukraine, is "sacred, now more than ever." Now safely in France with his spouse and three of his children, Kliuchnikov scrolls through Telegram to learn about the devastation happening in his home country.
from us


Telegram Neurogen
FROM American