Только что вышла версия CUDA 12.8 с поддержкой Blackwell.
Гайд по работе с TensorCore 5-го поколения:
https://docs.nvidia.com/cuda/parallel-thread-execution/index.html#tensorcore-5th-generation-instructions
#cuda #TensorCore #nvidia
Гайд по работе с TensorCore 5-го поколения:
https://docs.nvidia.com/cuda/parallel-thread-execution/index.html#tensorcore-5th-generation-instructions
#cuda #TensorCore #nvidia
⭐️ DataDreamer, библиотека Python с открытым исходным кодом, позволяет легко генерировать синтетические данные и интегрируется с huggingface
🔍 Узнайте, как это сделать: https://huggingface.co/blog/asoria/datadreamer-datasets#6790671e20a7d3ca6f72b6cb
@data_analysis_ml
🔍 Узнайте, как это сделать: https://huggingface.co/blog/asoria/datadreamer-datasets#6790671e20a7d3ca6f72b6cb
@data_analysis_ml
▪ Model: https://huggingface.co/collections/DAMO-NLP-SG/videollama3-678cdda9281a0e32fe79af15
▪ Paper: https://huggingface.co/papers/2501.13106
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Minima — это open source решение для RAG в контейнерах для развертывания на любых мощностях (клауд или локал), с возможностью интеграции с ChatGPT и MCP.
Minima также может использоваться как RAG на вашей машине.
Minima поддерживает три режима работы:
1. Изолированная установка — Работа в контейнерах без внешних зависимостей, таких как ChatGPT или Claude. Все нейронные сети (LLM, ранкер, эмбеддинг) и векторный сторедж запускаются на вашем сервере или ПК, обеспечивая безопасность ваших данных.
2. Кастомный GPT — Запросы к вашим локальным документам через приложение или веб-версию ChatGPT с использованием кастомных GPT. Индексатор работает на вашем сервере или локальном ПК, а основная LLM остаётся ChatGPT.
3. Anthropic Claude — Использование приложения Anthropic Claude для запросов к вашим локальным документам. Индексатор работает на вашем локальном ПК, а основная LLM — это Anthropic Claude.
В данный момент, Minima решает задачу RAG on-premises и призывает всех поставить звезду и форкнуть репозиторий, а так же не стесняться и принять участие в разработке.
📌 Лицензия MPL-2.0
▪ Github
@data_analysis_ml
Minima также может использоваться как RAG на вашей машине.
Minima поддерживает три режима работы:
1. Изолированная установка — Работа в контейнерах без внешних зависимостей, таких как ChatGPT или Claude. Все нейронные сети (LLM, ранкер, эмбеддинг) и векторный сторедж запускаются на вашем сервере или ПК, обеспечивая безопасность ваших данных.
2. Кастомный GPT — Запросы к вашим локальным документам через приложение или веб-версию ChatGPT с использованием кастомных GPT. Индексатор работает на вашем сервере или локальном ПК, а основная LLM остаётся ChatGPT.
3. Anthropic Claude — Использование приложения Anthropic Claude для запросов к вашим локальным документам. Индексатор работает на вашем локальном ПК, а основная LLM — это Anthropic Claude.
В данный момент, Minima решает задачу RAG on-premises и призывает всех поставить звезду и форкнуть репозиторий, а так же не стесняться и принять участие в разработке.
📌 Лицензия MPL-2.0
▪ Github
@data_analysis_ml
⚡️ Повторно дистиллированная
Deepseek AiR1 (1,5B) превосходит по своим характеристикам оригинальную дистиллированную модель!
https://huggingface.co/mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-1.5B-v1.0
@data_analysis_ml
Deepseek AiR1 (1,5B) превосходит по своим характеристикам оригинальную дистиллированную модель!
https://huggingface.co/mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-1.5B-v1.0
@data_analysis_ml
Он демонстрирует использование передовых методов рассуждений LLM, методов RAG и облачной инфраструктуры для решения сложных задач программирования в больших масштабах.
Посмотрите запись: https://www.youtube.com/watch?v=cvIeT4MlIx4
@data_analysis_ml
#pytorch #ai #expertexchange
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
PyTorch Expert Exchange Hacker Cup AI
AI-Powered Competitive Programming: My HackerCup 2024 Experience with Anton Pidkuiko, Meta.
In this talk, Anton shares how he built an AI agent that ranked #1 in the finals of Meta HackerCup 2024 (AI division). Anton developed a workflow that could solve…
In this talk, Anton shares how he built an AI agent that ranked #1 in the finals of Meta HackerCup 2024 (AI division). Anton developed a workflow that could solve…
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Qwen 2.5 - 7B and 14B с длинной контекста в 1 миллион!
Они также выпустили свой собственный форк vllm - чтобы вы могли развернуть модель у себя дома! 💥
Стоит отметить, что модель 14B-1M выигрывает у гораздо более крупной модели Qwen 2.5 Turbo (предположительно MoE с тем же количеством активных параметров).
Более того, она еще и превосходит бета-версия GPT-4/ 4o на длинном контексте!
https://huggingface.co/collections/Qwen/qwen25-1m-679325716327ec07860530ba
@data_analysis_ml
#Qwen
Они также выпустили свой собственный форк vllm - чтобы вы могли развернуть модель у себя дома! 💥
Стоит отметить, что модель 14B-1M выигрывает у гораздо более крупной модели Qwen 2.5 Turbo (предположительно MoE с тем же количеством активных параметров).
Более того, она еще и превосходит бета-версия GPT-4/ 4o на длинном контексте!
https://huggingface.co/collections/Qwen/qwen25-1m-679325716327ec07860530ba
@data_analysis_ml
#Qwen
Базы данных для задач любой сложности
Безопасность, масштабируемость и отказоустойчивость баз данных — ключевые требования для любых современных веб-сервисов и приложений. А наличие этих требований по умолчанию, без дополнительной головной боли — мечта для любого бизнеса. Или не мечта, а реальность? Selectel предлагает одни из лучших облачных баз данных на рынке и берет эти на заботы на себя:
● предоставляет высокую производительность за счет оптимальной настройки ПО, подбора мощного железа и локальных NVMe-дисков;
● обеспечивает резервное копирование. Бесплатные бэкапы создаются автоматически, а восстановление данных происходит вплоть до секунды;
● гарантирует отказоустойчивость. Создать отказоустойчивый кластер можно всего от двух нод, что позволяет сэкономить до 33% стоимости ресурсов;
● дает возможности для быстрого масштабирования. При росте нагрузки можно поменять конфигурацию облачного сервера и количество реплик без простоя.
● заботится о безопасности: сервис соответствует российским и международным стандартам — закону 152-ФЗ (УЗ-1), приказу ФСТЭК № 21, PCI DSS, ISO 27001, 27017, 27018 и ГОСТ Р 57580.
Развернуть готовые к работе кластеры облачных баз данных в несколько кликов: https://slc.tl/v7gmo
Реклама, АО «Селектел», ИНН: 7810962785, ERID: 2VtzqwgdXD6
Безопасность, масштабируемость и отказоустойчивость баз данных — ключевые требования для любых современных веб-сервисов и приложений. А наличие этих требований по умолчанию, без дополнительной головной боли — мечта для любого бизнеса. Или не мечта, а реальность? Selectel предлагает одни из лучших облачных баз данных на рынке и берет эти на заботы на себя:
● предоставляет высокую производительность за счет оптимальной настройки ПО, подбора мощного железа и локальных NVMe-дисков;
● обеспечивает резервное копирование. Бесплатные бэкапы создаются автоматически, а восстановление данных происходит вплоть до секунды;
● гарантирует отказоустойчивость. Создать отказоустойчивый кластер можно всего от двух нод, что позволяет сэкономить до 33% стоимости ресурсов;
● дает возможности для быстрого масштабирования. При росте нагрузки можно поменять конфигурацию облачного сервера и количество реплик без простоя.
● заботится о безопасности: сервис соответствует российским и международным стандартам — закону 152-ФЗ (УЗ-1), приказу ФСТЭК № 21, PCI DSS, ISO 27001, 27017, 27018 и ГОСТ Р 57580.
Развернуть готовые к работе кластеры облачных баз данных в несколько кликов: https://slc.tl/v7gmo
Реклама, АО «Селектел», ИНН: 7810962785, ERID: 2VtzqwgdXD6
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Релиз R1 и новости об инвестировании в развитие отрасли, вызвали падение акций американских ИТ-гигантов на бирже NASDAQ.
Но помимо R1 в этом месяце разработчики из Китая выпустили еще очень много интересных моделей 🔥 Китай набирает очень серьезные обороты,
Давайте посмотрим на список самых ярких релизов из Поднебесной за январь:
LLM:
✨ InternLM3-8B-Instruct
✨ MiniMax-Text-01
✨ RWKV-7 RNN + трансформер 👀
✨ Собственно сам DeepSeek-R1
✨ Baichuan-M1-14B медицинский LLM 🩺
✨ Qwen2.5-Math-PRM от Alibaba
✨ Qwen2.5 -1M
Модели кодинга:
✨ Tare от BytedanceTalk
TTS модели синтеза и генерации речи:
✨ T2A-01-HD от MiniMax AI
✨ LLaSA
МЛЛМ:
✨ Kimi k1.5 от Moonshot AI
✨ MiniCPM-o-2_6 от OpenBMB
✨ Sa2VA-4B от ByteDanceOSS
✨ VideoLLaMA 3 от Alibaba DAMO
✨ LLaVA-Mini от Китайской академии наук
✨Hunyuan-7B от TXhunyuan
✨ Hunyuan 3D 2.0
ИИ-агенты:
✨ UI-TARS от ByteDanceOSS
✨ GLM-PC
Датасеты:
✨ Fineweb-Edu-Chinese-V2.1
✨ Multimodal_textbook от Alibaba
✨ MME-Finance от Hithink AI
✨ GameFactory от KwaiVGI
📌 Полный список Релизов
#ai #ml #digest #china #deepseek #Alibaba
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Open Suno уже здесь! Вы можете генерировать целые песни с моделью параметров 7B! 🔥
Вы можете выбрать фоновую музыку, жанр, тексты песен — качество на выходе просто безумное!
Доступны все контрольные точки модели
https://huggingface.co/m-a-p
Вы можете выбрать фоновую музыку, жанр, тексты песен — качество на выходе просто безумное!
Доступны все контрольные точки модели
https://huggingface.co/m-a-p
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤗 На HF только что появились два новых ризонинг датасета.
1. OpenThoughts: 114 тыс примеров, полученных из R1 по математике, кодингу и науке https://huggingface.co/datasets/open-thoughts/OpenThoughts-114k.
2. R1-Distill-SFT: 1.7M (!), отобранных из R1-32B на NuminaMath и Tulu data
https://huggingface.co/datasets/ServiceNow-AI/R1-Distill-SFT
@data_analysis_ml
1. OpenThoughts: 114 тыс примеров, полученных из R1 по математике, кодингу и науке https://huggingface.co/datasets/open-thoughts/OpenThoughts-114k.
2. R1-Distill-SFT: 1.7M (!), отобранных из R1-32B на NuminaMath и Tulu data
https://huggingface.co/datasets/ServiceNow-AI/R1-Distill-SFT
@data_analysis_ml
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🐋 DeepSeek только что потерпел поражение в ходе аудита NewsGuard и занял предпоследнее место по точности ответов чат-ботов, провалив 83% тестов.
В сравнении с западными конкурентами такими, как ChatGPT от OpenAI и Google Gemini, DeepSeek разделил 10-е место с другим чат-ботом.
т.е. когда предъявлялись явно ложные утверждения, они опровергались лишь в 17% случаев.
→ NewsGuard применил свой стандартный аудит дезинформации к DeepSeek, оценив, как он справлялся с ложными заявлениями в политике, здравоохранении, бизнесе и международных отношениях. В то время как ведущие чат-боты имели средний показатель ошибок 62%, DeepSeek показал себя значительно хуже, ошибившись в 83% случаев.
→ Чат-бот особенно плохо справлялся с запросами, связанными с новостями, повторяя ложные утверждения в 30% случаев и не давая прямых ответов в 53% случаев.
https://www.reuters.com/world/china/deepseeks-chatbot-achieves-17-accuracy-trails-western-rivals-newsguard-audit-2025-01-29/
#DeepSeek #ai #ml
В сравнении с западными конкурентами такими, как ChatGPT от OpenAI и Google Gemini, DeepSeek разделил 10-е место с другим чат-ботом.
т.е. когда предъявлялись явно ложные утверждения, они опровергались лишь в 17% случаев.
→ NewsGuard применил свой стандартный аудит дезинформации к DeepSeek, оценив, как он справлялся с ложными заявлениями в политике, здравоохранении, бизнесе и международных отношениях. В то время как ведущие чат-боты имели средний показатель ошибок 62%, DeepSeek показал себя значительно хуже, ошибившись в 83% случаев.
→ Чат-бот особенно плохо справлялся с запросами, связанными с новостями, повторяя ложные утверждения в 30% случаев и не давая прямых ответов в 53% случаев.
https://www.reuters.com/world/china/deepseeks-chatbot-achieves-17-accuracy-trails-western-rivals-newsguard-audit-2025-01-29/
#DeepSeek #ai #ml
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⭐️ Mistral AI только что выпустили Small 3!
Вот все, что вам нужно знать:
- Доступны как предварительно обученные, так и настроенные контрольные точки
- без RL и без синтетических данных
- Mistral Small 3 оптимизирован по задержке
- 24B параметров
- 81% точности на MMLU и задержка 150 токенов/с
- Позиционируется как замена GPT-40-mini
- Конкурирует с Llama 3.3 70B и Qwen 32B
- в 3 раза быстрее, чем инструкция Llama 3.3 70B
- Лицензия Apache 2.0
- Доступно в la Plateforme, HF и других провайдерах
Варианты использования включают в себя быстродействующих речевых помощников, вызов функций с малой задержкой, тонкую настройку экспертных моделей и локальный вывод.
Великолепная маленькая модель, которая дополняет другие более крупные модели, такие как DeepSeek-R1.
https://mistral.ai/news/mistral-small-3/
#mistral #llm #ml #ai
Вот все, что вам нужно знать:
- Доступны как предварительно обученные, так и настроенные контрольные точки
- без RL и без синтетических данных
- Mistral Small 3 оптимизирован по задержке
- 24B параметров
- 81% точности на MMLU и задержка 150 токенов/с
- Позиционируется как замена GPT-40-mini
- Конкурирует с Llama 3.3 70B и Qwen 32B
- в 3 раза быстрее, чем инструкция Llama 3.3 70B
- Лицензия Apache 2.0
- Доступно в la Plateforme, HF и других провайдерах
Варианты использования включают в себя быстродействующих речевых помощников, вызов функций с малой задержкой, тонкую настройку экспертных моделей и локальный вывод.
Великолепная маленькая модель, которая дополняет другие более крупные модели, такие как DeepSeek-R1.
https://mistral.ai/news/mistral-small-3/
#mistral #llm #ml #ai