Если ты пользовался Claude из-за генерации кода и Artifacts, то пришло время потестить свою веру... и нужду в подписке.
OpenWebUI, которые делают открытый веб-интерфейс для работы с любыми локальными языковыми моделями (LLM), в последнем обновлении тоже добавили инструмент Artifacts, собирающий и запускающий код из чата в боковом меню.
Как и у Claude, каждая новая правка это отдельная версия кода, между которыми можно переключаться мышкой и выводить запущенное на весь экран.
Плюс, в отличие от Anthropic, для генерации кода или текста можно сразу подрубать любую LLM, которая появляется в топах бенчей: DeepSeek 2.5, лама 3.2, Qwen 2.5, Mixtral, итд. Быть может даже крупняк вроде ламы 405B или Grok получится запустить через распределёнку.
Народ пилит HTML-игры, визуализацию данных, простенькие прилы под свои нужды, итд. Ну и просто чатится по файлам, или получает ответы на бытовые вопросы.
Для локальной работы нужно ещё Ollama установить. Запускайте те ллм, которые у вас влезут в видюху: грубо говоря в 8ГБ максимум влезет модель 7B (7 млрд параметров). Чтобы поставить например последнюю Qwen 2.5 7B с контекстом 128к (можно кормить книжки) нужно рядом с выбором модели нажать плюс и вбить команду
Осталось чтобы оно папки и файлы само создавало и в агентном режиме тестило код плюс деплоило его.
Сайт
Установка через Pinokio
Гитхаб OpenWebUI
Ollama
OpenWebUI, которые делают открытый веб-интерфейс для работы с любыми локальными языковыми моделями (LLM), в последнем обновлении тоже добавили инструмент Artifacts, собирающий и запускающий код из чата в боковом меню.
Как и у Claude, каждая новая правка это отдельная версия кода, между которыми можно переключаться мышкой и выводить запущенное на весь экран.
Плюс, в отличие от Anthropic, для генерации кода или текста можно сразу подрубать любую LLM, которая появляется в топах бенчей: DeepSeek 2.5, лама 3.2, Qwen 2.5, Mixtral, итд. Быть может даже крупняк вроде ламы 405B или Grok получится запустить через распределёнку.
Народ пилит HTML-игры, визуализацию данных, простенькие прилы под свои нужды, итд. Ну и просто чатится по файлам, или получает ответы на бытовые вопросы.
Для локальной работы нужно ещё Ollama установить. Запускайте те ллм, которые у вас влезут в видюху: грубо говоря в 8ГБ максимум влезет модель 7B (7 млрд параметров). Чтобы поставить например последнюю Qwen 2.5 7B с контекстом 128к (можно кормить книжки) нужно рядом с выбором модели нажать плюс и вбить команду
ollama run qwen2.5:7b
и нажать pull. Команды для скачивания других моделей тут.Осталось чтобы оно папки и файлы само создавало и в агентном режиме тестило код плюс деплоило его.
Сайт
Установка через Pinokio
Гитхаб OpenWebUI
Ollama
group-telegram.com/Psy_Eyes/2072
Create:
Last Update:
Last Update:
Если ты пользовался Claude из-за генерации кода и Artifacts, то пришло время потестить свою веру... и нужду в подписке.
OpenWebUI, которые делают открытый веб-интерфейс для работы с любыми локальными языковыми моделями (LLM), в последнем обновлении тоже добавили инструмент Artifacts, собирающий и запускающий код из чата в боковом меню.
Как и у Claude, каждая новая правка это отдельная версия кода, между которыми можно переключаться мышкой и выводить запущенное на весь экран.
Плюс, в отличие от Anthropic, для генерации кода или текста можно сразу подрубать любую LLM, которая появляется в топах бенчей: DeepSeek 2.5, лама 3.2, Qwen 2.5, Mixtral, итд. Быть может даже крупняк вроде ламы 405B или Grok получится запустить через распределёнку.
Народ пилит HTML-игры, визуализацию данных, простенькие прилы под свои нужды, итд. Ну и просто чатится по файлам, или получает ответы на бытовые вопросы.
Для локальной работы нужно ещё Ollama установить. Запускайте те ллм, которые у вас влезут в видюху: грубо говоря в 8ГБ максимум влезет модель 7B (7 млрд параметров). Чтобы поставить например последнюю Qwen 2.5 7B с контекстом 128к (можно кормить книжки) нужно рядом с выбором модели нажать плюс и вбить команду
Осталось чтобы оно папки и файлы само создавало и в агентном режиме тестило код плюс деплоило его.
Сайт
Установка через Pinokio
Гитхаб OpenWebUI
Ollama
OpenWebUI, которые делают открытый веб-интерфейс для работы с любыми локальными языковыми моделями (LLM), в последнем обновлении тоже добавили инструмент Artifacts, собирающий и запускающий код из чата в боковом меню.
Как и у Claude, каждая новая правка это отдельная версия кода, между которыми можно переключаться мышкой и выводить запущенное на весь экран.
Плюс, в отличие от Anthropic, для генерации кода или текста можно сразу подрубать любую LLM, которая появляется в топах бенчей: DeepSeek 2.5, лама 3.2, Qwen 2.5, Mixtral, итд. Быть может даже крупняк вроде ламы 405B или Grok получится запустить через распределёнку.
Народ пилит HTML-игры, визуализацию данных, простенькие прилы под свои нужды, итд. Ну и просто чатится по файлам, или получает ответы на бытовые вопросы.
Для локальной работы нужно ещё Ollama установить. Запускайте те ллм, которые у вас влезут в видюху: грубо говоря в 8ГБ максимум влезет модель 7B (7 млрд параметров). Чтобы поставить например последнюю Qwen 2.5 7B с контекстом 128к (можно кормить книжки) нужно рядом с выбором модели нажать плюс и вбить команду
ollama run qwen2.5:7b
и нажать pull. Команды для скачивания других моделей тут.Осталось чтобы оно папки и файлы само создавало и в агентном режиме тестило код плюс деплоило его.
Сайт
Установка через Pinokio
Гитхаб OpenWebUI
Ollama
BY Psy Eyes
Share with your friend now:
group-telegram.com/Psy_Eyes/2072