Это Python-фреймворк с открытым исходным кодом, в котором используется LLM для создания SQL-запросов на основе естественного языка.
✔️ Всё просто: сначала обучаете модель на своих данных, а потом можно задать вопросы на обычном языке.
В ответ модель выдает готовые SQL-запросы, которые можно сразу запускать в своей базе данных.
⚡️ Установка:
pip install vanna
▪GitHub: https://github.com/vanna-ai/vanna
@ai_machinelearning_big_data
#python #sql #opensource #vanna #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
В релиз добавлен ряд улучшений:
🔥 torch.compile теперь поддерживает Python 3.13
🔥 Новый torch.compiler.set_stance
🔥 Улучшения в AOTInductor
🔥 Поддержка FP16 на процессорах X86.
Сегодня утром был опубликован Международный отчет о безопасности искусственного интеллекта, и OpenAI поделилась предварительными результатами тестов o3.
«значительно более высокие показатели, чем у любой предыдущей модели, в ряде самых сложных тестов в области программирования, абстрактного мышления и научного мышления»
- LLama 4 и LLama 4 mini (на претренинге)
- Подтверждает ризонинг в LLaMa!
- Llama 4 будет изначально мультимодальной
- это омни-модель
- она будет иметь агентские возможности.
- 👓 — идеальный форм-фактор для ИИ
- строительство центра обработки данных размером с Манхэттен
Компания Wiz Research обнаружила «DeepLeak» — общедоступную базу данных ClickHouse, принадлежащую DeepSeek, которая раскрывает крайне конфиденциальную информацию, включая секретные ключи, текстовые сообщения чата, сведения о бэкэнде и журналы.
Codegen - это новый SDK к мощному многоязычному языковому серверу,
Который позволяет делать рефакторинг, применение паттернов, анализ целых проектов и т. д.
Несмотря на открытие завода в Аризоне, TSMC по-прежнему производит большую часть своих чипов на Тайване.
А поскольку чипы TSMC обычно отправляются в Китай и другие азиатские страны для сборки, прежде чем попасть в США, эти пошлины в случае их введения могут привести к росту стоимости такой электроники, как iPhone, игровые графические процессоры и ноутбуки.
- превосходит лучшие малые модели в задачах оценки на 11 бенчмарках
- превосходит GPT-4o в RewardBench и EvalBiasBench
- отлично работает в реальных приложениях
Коллекция записных книжек, демонстрирующих варианты использования Qwen2.5-VL, включая локальную модель и API. Примеры включают в себя использование вычислений, пространственное понимание, разбор документов, мобильный агент, распознавание текста, Универсальное распознавание, понимание видео.
@ai_machinelearning_big_data
#pytorch #pytorchrelease #opensource #LLama #LLama4 #openai #chatgpt #ai #news #ml #llm #ainews #LumaLabsAI #Microsoft #DeepSeek #qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Perforator анализирует производительность сервисов и помогает компаниям существенно оптимизировать затраты на серверную инфраструктуру. Система уже помогла Яндексу сократить нагрузку на серверах крупных сервисов — Поиска и Рекламы.
Ключевые преимущества:
1️⃣ Аналитика от Perforator помогает снизить затраты на серверы до 20% без потери производительности.
2️⃣ Инструмент работает без необходимости модификации исходного кода и использует возможности eBPF для сбора данных прямо в ядре Linux.
3️⃣ Решение позволяет проводить глубокую аналитику и визуализировать полученные данные с помощью flamegraph.
4️⃣ Поддерживает C++, C, Go, Rust (скоро Python и Java).
🏅 Perforator может применяться в 95% российских компаний, у которых есть свои или арендованные серверы. Инструмент поможет значительно сократить расходы на инфраструктуру без потери производительности.
📄 Статья: https://habr.com/ru/companies/yandex/articles/875070/
📕 Paper
@ai_machinelearning_big_data
#news #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
⭐️ Mistral AI только что дропнули Small 3!
Вот все, что вам нужно знать:
- 24B параметров
- 81% точности на MMLU и задержка 150 токенов/с
- Позиционируется как замена GPT-40-mini
- Конкурирует с Llama 3.3 70B и Qwen 32B
- в 3 раза быстрее, чем Llama 3.3 70B
- Лицензия Apache 2.0
- Доступны как предварительно обученные, так и настроенные контрольные точки
- без RL и без синтетических данных
- Доступно на la Plateforme, HF и других провайдерах
Великолепная маленькая модель, которая дополняет другие более крупные модели, такие как DeepSeek-R1.
▪HF: https://huggingface.co/mistralai/Mistral-Small-24B-Instruct-2501
▪Blog: https://mistral.ai/news/mistral-small-3/
@ai_machinelearning_big_data
#mistral #llm #ml #ai
Вот все, что вам нужно знать:
- 24B параметров
- 81% точности на MMLU и задержка 150 токенов/с
- Позиционируется как замена GPT-40-mini
- Конкурирует с Llama 3.3 70B и Qwen 32B
- в 3 раза быстрее, чем Llama 3.3 70B
- Лицензия Apache 2.0
- Доступны как предварительно обученные, так и настроенные контрольные точки
- без RL и без синтетических данных
- Доступно на la Plateforme, HF и других провайдерах
Великолепная маленькая модель, которая дополняет другие более крупные модели, такие как DeepSeek-R1.
▪HF: https://huggingface.co/mistralai/Mistral-Small-24B-Instruct-2501
▪Blog: https://mistral.ai/news/mistral-small-3/
@ai_machinelearning_big_data
#mistral #llm #ml #ai
🐫Tülu 3 (ну и название) 405B - еще один релиз!
Модель с открытым исходным кодом (и нет, это не китайская модель), которая превосходит по производительности DeepSeek-V3! на нескольких бенчмарках
▪Блог: https://allenai.org/blog/tulu-3-405B
▪Потестить можно тут: https://playground.allenai.org/?model=tulu3-405b
▪Technical report: https://allenai.org/blog/tulu-3-technical
▪Hugging Face: https://huggingface.co/collections/allenai/tulu-3-models-673b8e0dc3512e30e7dc54f5
@ai_machinelearning_big_data
#llm #ml #ai #opensource
Модель с открытым исходным кодом (и нет, это не китайская модель), которая превосходит по производительности DeepSeek-V3! на нескольких бенчмарках
▪Блог: https://allenai.org/blog/tulu-3-405B
▪Потестить можно тут: https://playground.allenai.org/?model=tulu3-405b
▪Technical report: https://allenai.org/blog/tulu-3-technical
▪Hugging Face: https://huggingface.co/collections/allenai/tulu-3-models-673b8e0dc3512e30e7dc54f5
@ai_machinelearning_big_data
#llm #ml #ai #opensource
🐋 DeepClaude
Высокопроизводительный LLM-интерфейс, который позволяет использовать возможности рассуждений DeepSeek R1 и творческие способности Claude с помощью единого и простого API и удобного иинтерфейса.
Особенности
🚀 Нулевая задержка - Очень быстрые ответы на базе высокопроизводительного API, написанного на Rust.
⚙️ Гибкая настройка соответствии с вашими потребностями
🌟 Открытый исходный код
🤖 Двойная мощь ИИ - объедините рассуждения DeepSeek R1 с и возможностями Claude
⭐️ DeepClaude объединяет обе модели, чтобы обеспечить:
- Новая SOTA 64,0% на бенчмарке aider polyglot
- 14-кратное снижение затрат по сравнению с предыдущей SOTA
- Повышенную точность генерации кода для различных языков программирования
▪ Github
▪Docs
@ai_machinelearning_big_data
#DeepSeek #Claude #llm #ml #ai #DeepClaude #opensource
Высокопроизводительный LLM-интерфейс, который позволяет использовать возможности рассуждений DeepSeek R1 и творческие способности Claude с помощью единого и простого API и удобного иинтерфейса.
Особенности
🚀 Нулевая задержка - Очень быстрые ответы на базе высокопроизводительного API, написанного на Rust.
⚙️ Гибкая настройка соответствии с вашими потребностями
🌟 Открытый исходный код
🤖 Двойная мощь ИИ - объедините рассуждения DeepSeek R1 с и возможностями Claude
- Новая SOTA 64,0% на бенчмарке aider polyglot
- 14-кратное снижение затрат по сравнению с предыдущей SOTA
- Повышенную точность генерации кода для различных языков программирования
git clone https://github.com/getasterisk/deepclaude.git
cd deepclaude
▪ Github
▪Docs
@ai_machinelearning_big_data
#DeepSeek #Claude #llm #ml #ai #DeepClaude #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥🔥🔥Разработчики SmolVLM выложили в опенсорс код для обучения SmolVLM с нуля на 256 H100!
Вдохновленные DeepSeek R1, они выложили в открытый доступ полный код для обучения модели и веса!
Теперь вы можете обучать любой из SmolVLM или создавать свои собственные VLM!
Запустить обучение для SmolVLM 256M очень просто:
▪Код: https://github.com/huggingface/smollm/tree/main/vision
▪ SmolVLM: https://github.com/huggingface/smollm/tree/main
@ai_machinelearning_big_data
#SmolVLM #llm #opensource #ml #ai
Вдохновленные DeepSeek R1, они выложили в открытый доступ полный код для обучения модели и веса!
Теперь вы можете обучать любой из SmolVLM или создавать свои собственные VLM!
Запустить обучение для SmolVLM 256M очень просто:
./vision/experiments/pretraining/vloom/tr_341_smolvlm_025b_1st_stage/01_launch . sh
▪Код: https://github.com/huggingface/smollm/tree/main/vision
▪ SmolVLM: https://github.com/huggingface/smollm/tree/main
@ai_machinelearning_big_data
#SmolVLM #llm #opensource #ml #ai
Про-пользователи получат неограниченный доступ к o3-mini.
Бесплатные пользователи могут попробовать o3-mini в ChatGPT, выбрав кнопку Reason под сообщением.
Платные пользователи также могут выбрать o3-mini-high в меню выбора моделей, чтобы получить версию с более высоким уровнем интеллекта, которой требуется немного больше времени для ответов.
o3-mini превосходит предыдущие модели на бенчмарке GPQA Diamond, в математике (AIME) и в кодингке (Codeforces).
▪Chatgpt:
▪System Card
@ai_machinelearning_big_data
#openai #chatgp #ai #release #ml #llm
Please open Telegram to view this post
VIEW IN TELEGRAM