Это квантованная версия DeepSeek V3.1, которая дает заметную экономию памяти и ускоряет работу при использовании TensorRT LLM.
При этом модель сохраняет высокое качество генерации текста.
https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🦄43👍26❤12🔥6🌚2
Media is too big
VIEW IN TELEGRAM
Университет Цинхуа опубликовал в Nature Machine Intelligence работу, декларирующую новый эмпирический закон развития ИИ - Densing Law. Согласно их данным, «плотность способностей» языковых моделей растет по экспоненте: количество параметров, необходимых для достижения фиксированного уровня качества, сокращается вдвое каждые 3,5 месяца.
Как следствие, стоимость инференса падает в 2 раза каждые 2,6 месяца, что подтверждается рыночной динамикой цен на API (падение в 266 раз за неполные 2 года).
Авторы прогнозируют скорый расцвет Edge AI: с учетом прогресса мобильных чипов, эффективная мощность моделей, способных работать локально на смартфонах и часах, теперь удваивается каждые 88 дней.
nature.com
Администрация киберпространства Китая заблокировала возможность использования ускорителей Nvidia при развертывании новых вычислительных мощностей ByteDance. По данным The Information, материнская компания TikTok, ставшая в этом году крупнейшим закупщиком оборудования Nvidia в регионе, теперь располагает внушительными складскими запасами железа, которое невозможно пустить в дело из-за регуляторных ограничений.
Этот запрет стал очередным шагом Пекина в кампании по снижению зависимости от американских технологий. Власти принудительно переориентируют техгигантов на использование отечественной продукции, продвигая решения от Huawei и Cambricon в качестве безальтернативной замены импортному кремнию.
theinformation.com
Столица ОАЭ стала четвертым городом в мире и первой локацией на Ближнем Востоке, где агрегатор начал массовую эксплуатацию роботакси. Технологическим партнером выступил китайский стартап WeRide: их автономные автомобили теперь курсируют в районе острова Яс и доступны для заказа в приложении через тарифы UberX и Uber Comfort.
Хотя в США Uber уже возит пассажиров без водителей в Остине, Финиксе и Атланте, запуск в Абу-Даби знаменует начало масштабной глобальной экспансии. В ближайшие пять лет партнеры планируют вывести беспилотные авто WeRide на улицы еще 15 городов, включая европейский рынок.
cnbc.com
Новая функция Retake в платформе LTX приносит точечный контроль в видео-продакшен, она умеет «переснимать» конкретные временные отрезки внутри ролика без потери общей целостности сцены.
Технически это работает как темпоральный инпэйнт: модель перегенерирует выделенный фрагмент (от 2 до 16 секунд), жестко привязываясь к контексту соседних кадров для сохранения освещения, динамики и стиля. Это дает возможность менять реплики персонажей, корректировать актерскую игру или переписывать концовку сцены, оставляя остальной футаж нетронутым.
Инструмент уже доступен всем пользователям платформы и через API.
ltx.studio
Google опубликовала на YouTube полную версию документальной ленты The Thinking Game. Картина, съемки которой заняли 5 лет, погружает зрителя во внутреннюю кухню лаборатории DeepMind и показывает эволюцию команды: от первых побед в стратегических играх до решения фундаментальной биологической проблемы с помощью AlphaFold.
В центре сюжета не только технические прорывы, но и личная история сооснователя DeepMind Демиса Хассабиса, посвятившего жизнь созданию AGI.
youtube.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍55❤22🥰9🔥2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Ноябрь — месяц One Day Offer в GigaChat и Kandinsky 📆
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
❤18👍7🔥5🤣3💋1
🍌 Awesome Nano Banana - лучшие промпты, стили, приёмы и полезные материалы для визуальных экспериментов.
Всё собрано в одном репозиториит и аккуратно структурировано.
Что внутри
• промпты, которые реально дают сильные и выразительные результаты
• коллекция визуальных стилей для разных задач
• примеры, разборы и ресурсы, помогающие глубже понять механику Nano Banana
• удобный набор ссылок, если хочешь расширять свой набор техник
https://github.com/ZeroLu/awesome-nanobanana-pro
@ai_machinelearning_big_data
Всё собрано в одном репозиториит и аккуратно структурировано.
Что внутри
• промпты, которые реально дают сильные и выразительные результаты
• коллекция визуальных стилей для разных задач
• примеры, разборы и ресурсы, помогающие глубже понять механику Nano Banana
• удобный набор ссылок, если хочешь расширять свой набор техник
https://github.com/ZeroLu/awesome-nanobanana-pro
@ai_machinelearning_big_data
1❤43👍13🥰6👌3🥱2
Опубликован tech report по Qwen3-VL - мультимодальным моделям, работающим с изображениями и текстом.
Кратко :
- Три модели собрали 1M+ загрузок за месяц.
- Qwen3-VL-8B - более 2M скачиваний.
- Линейка развивает идеи Qwen2.5-VL (2800+ цитирований).
Что описано в отчёте:
- Архитектура vision–language модели.
- Процесс обучения: pretraining + post-training.
- Источники данных и методы фильтрации.
- Сравнения с другими VLM и ключевые метрики.
🔗 PDF: https://arxiv.org/pdf/2511.21631
🔗 Видео: https://www.youtube.com/watch?v=clwFmuJX_wQ
@ai_machinelearning_big_data
#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤33🔥16👍6❤🔥3🦄2👌1
🚀 DeepSeek выпустили DeepSeek Math V2 - мощную модель для самопроверяемых математических рассуждений.
Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.
Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.
📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024
🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.
Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
@ai_machinelearning_big_data
#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.
Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.
📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024
🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.
Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
@ai_machinelearning_big_data
#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
❤62👍19🔥13⚡2🤔2🦄2❤🔥1
💡 Релиз Z-Image: быстрая 6B модель
Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.
Главное из отчета:
* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.
Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.
🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@ai_machinelearning_big_data
#Tongyi #ai #genai #ml
Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.
Главное из отчета:
* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.
Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.
🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@ai_machinelearning_big_data
#Tongyi #ai #genai #ml
❤24👍11🥰3🦄3🔥1😁1
Prime Intellect выкатили INTELLECT-3 - 106B Mixture-of-Experts модель, обученнfz на GLM-4.5 Air Base с двумя этапами: SFT и масштабным RL-дообучением.
Это первая модель такого масштаба, где асинхронный RL - не эксперимент, а основа обучения. В результате модель демонстрирует сильный перформанс в математике, коде и reasoning.
Фокус модели - долгие цепочки действий и агентные задачи, а не просто генерация текста.
Главное:
- Модель показывает топ-результаты для своего размера в математике, коде и reasoning.
- Обучение шло на 512×H200 в течение ~2 месяцев.
- Использован собственный стек: PRIME-RL, Verifiers, Environments Hub и sandbox-инфра.
- Всё открыто: код, среды, инструменты.
@ai_machinelearning_big_data
#ai #intellect3 #primeintellect #glm45
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24👍11🔥10🥰4😁1🦄1
Анонсируем новый вебинар!
2 декабря расскажем про технологии против любых дипфейков: на изображениях, видео и аудио.
✨ Вы узнаете, как команда повышала точность детектора и какие проблемы приходилось решать при внедрении — глазами клиента и разработчиков.
На вебинаре обсудим:
⚫️ Трансформацию подходов к безопасности и коммуникациям
⚫️ Когда голос обманывает: методы детекции аудиодипфейков
⚫️ Как выявляют попытки обмана при онлайн‑идентификации
А также эксперты MWS AI и MTC ID ответят на любые вопросы о дипфейках!
Регистрируйтесь и приходите🌨
2 декабря расскажем про технологии против любых дипфейков: на изображениях, видео и аудио.
На вебинаре обсудим:
А также эксперты MWS AI и MTC ID ответят на любые вопросы о дипфейках!
Регистрируйтесь и приходите
Please open Telegram to view this post
VIEW IN TELEGRAM
🥰12❤6🔥3🤣2🤔1
Логан Килпатрик из команды DeepMind беседует с Кораем Кавукчуоглу, CTO DeepMind и по совместительству новым главным архитектором Google по искусственному интеллекту.
Корай Кавукчуоглу рассказал о своих взглядах на текущее состояние ИИ, архитектуру Gemini и стратегию Google по достижению AGI. Он считает, что это «новая эра», где технологии стремительно меняются, и что ближайшие 6 месяцев обещают быть такими же захватывающими, как и предыдущие.
Основные темы интервью:
Недавний запуск Gemini 3 получился суперпозитивным. Но прогресс не замедляется, и Gemini 3, подобно 2.5, снова «отодвинула рубеж по ряду измерений». Центральная философия Google в том, что AGI будет «совместно создаваться с нашими клиентами». Это не чисто исследовательская работа, проводимая в изоляции, а совместное усилие с миром, требующее инженерного мышления.
Несмотря на то, что модели Google достигают лидирующих позиций на бенчмарках, истинное мерило прогресса в реальном применении. Старые бенчмарки перестают определять текущий рубеж, и новая мера успеха — это предоставление большей ценности в реальном мире, где модели используют ученые, студенты, юристы и инженеры.
Приоритеты для улучшения в будущих версиях Gemini Pro:
Интеграция- важная тема для сбора фидбэка от пользователей, который необходим для понимания того, как нужно улучшать модели. Риск для Gemini заключается не в отсутствии масштабирования, а в исчерпании инноваций. Поэтому Google DeepMind и Google Research должны постоянно заниматься исследованиями, чтобы находить новые идеи, которые будут питать «двигатель ИИ» Google.
Генеративные медиа-модели сходятся с текстовыми моделями. Яркий пример - Nano Banana Pro, которая показала, как слияние понимания мира из текста с пониманием из изображений позволяет модели создавать более детализированные и концептуально связные изображения, например, инфографику на основе сложных документов.
Фоном идет история о личном пути Корая Кавукчуоглу : от исследователя Deep Learning в DeepMind в 2012 году до текущей руководящей роли.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27🔥15🥰5❤🔥1🤩1😇1🦄1
