Telegram Group Search
⚡️ NVIDIA выложила DeepSeek V3.1 FP4 на Hugging Face

Это квантованная версия DeepSeek V3.1, которая дает заметную экономию памяти и ускоряет работу при использовании TensorRT LLM.

При этом модель сохраняет высокое качество генерации текста.

https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🦄43👍2612🔥6🌚2
🖥 Картина маслом - Nvidia продает свои лопаты работягам

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁22134👍24🔥14❤‍🔥2👀1
Media is too big
VIEW IN TELEGRAM
✔️ Densing Law: эффективность LLM удваивается каждые 3,5 месяца.

Университет Цинхуа опубликовал в Nature Machine Intelligence работу, декларирующую новый эмпирический закон развития ИИ - Densing Law. Согласно их данным, «плотность способностей» языковых моделей растет по экспоненте: количество параметров, необходимых для достижения фиксированного уровня качества, сокращается вдвое каждые 3,5 месяца.

Как следствие, стоимость инференса падает в 2 раза каждые 2,6 месяца, что подтверждается рыночной динамикой цен на API (падение в 266 раз за неполные 2 года).

Авторы прогнозируют скорый расцвет Edge AI: с учетом прогресса мобильных чипов, эффективная мощность моделей, способных работать локально на смартфонах и часах, теперь удваивается каждые 88 дней.
nature.com

✔️ Власти Китая запретили ByteDance использовать чипы Nvidia.

Администрация киберпространства Китая заблокировала возможность использования ускорителей Nvidia при развертывании новых вычислительных мощностей ByteDance. По данным The Information, материнская компания TikTok, ставшая в этом году крупнейшим закупщиком оборудования Nvidia в регионе, теперь располагает внушительными складскими запасами железа, которое невозможно пустить в дело из-за регуляторных ограничений.

Этот запрет стал очередным шагом Пекина в кампании по снижению зависимости от американских технологий. Власти принудительно переориентируют техгигантов на использование отечественной продукции, продвигая решения от Huawei и Cambricon в качестве безальтернативной замены импортному кремнию.
theinformation.com

✔️ Uber запустила в Абу-Даби сервис беспилотных такси.

Столица ОАЭ стала четвертым городом в мире и первой локацией на Ближнем Востоке, где агрегатор начал массовую эксплуатацию роботакси. Технологическим партнером выступил китайский стартап WeRide: их автономные автомобили теперь курсируют в районе острова Яс и доступны для заказа в приложении через тарифы UberX и Uber Comfort.

Хотя в США Uber уже возит пассажиров без водителей в Остине, Финиксе и Атланте, запуск в Абу-Даби знаменует начало масштабной глобальной экспансии. В ближайшие пять лет партнеры планируют вывести беспилотные авто WeRide на улицы еще 15 городов, включая европейский рынок.
cnbc.com

✔️ LTX Studio представила инструмент для изменения сюжета внутри видео.

Новая функция Retake в платформе LTX приносит точечный контроль в видео-продакшен, она умеет «переснимать» конкретные временные отрезки внутри ролика без потери общей целостности сцены.

Технически это работает как темпоральный инпэйнт: модель перегенерирует выделенный фрагмент (от 2 до 16 секунд), жестко привязываясь к контексту соседних кадров для сохранения освещения, динамики и стиля. Это дает возможность менять реплики персонажей, корректировать актерскую игру или переписывать концовку сцены, оставляя остальной футаж нетронутым.

Инструмент уже доступен всем пользователям платформы и через API.
ltx.studio

✔️ Google DeepMind выложила в открытый доступ фильм-хронику создания AlphaFold.

Google опубликовала на YouTube полную версию документальной ленты The Thinking Game. Картина, съемки которой заняли 5 лет, погружает зрителя во внутреннюю кухню лаборатории DeepMind и показывает эволюцию команды: от первых побед в стратегических играх до решения фундаментальной биологической проблемы с помощью AlphaFold.

В центре сюжета не только технические прорывы, но и личная история сооснователя DeepMind Демиса Хассабиса, посвятившего жизнь созданию AGI.
youtube.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5522🥰9🔥2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Ноябрь — месяц One Day Offer в GigaChat и Kandinsky 📆

В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.

Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
18👍7🔥5🤣3💋1
🍌 Awesome Nano Banana - лучшие промпты, стили, приёмы и полезные материалы для визуальных экспериментов.

Всё собрано в одном репозиториит и аккуратно структурировано.

Что внутри
• промпты, которые реально дают сильные и выразительные результаты
• коллекция визуальных стилей для разных задач
• примеры, разборы и ресурсы, помогающие глубже понять механику Nano Banana
• удобный набор ссылок, если хочешь расширять свой набор техник

https://github.com/ZeroLu/awesome-nanobanana-pro

@ai_machinelearning_big_data
143👍13🥰6👌3🥱2
⚡️ Qwen3-VL: выпустили технический отчёт по новой линейке VLM

Опубликован tech report по Qwen3-VL - мультимодальным моделям, работающим с изображениями и текстом.

Кратко :
- Три модели собрали 1M+ загрузок за месяц.
- Qwen3-VL-8B - более 2M скачиваний.
- Линейка развивает идеи Qwen2.5-VL (2800+ цитирований).

Что описано в отчёте:
- Архитектура vision–language модели.
- Процесс обучения: pretraining + post-training.
- Источники данных и методы фильтрации.
- Сравнения с другими VLM и ключевые метрики.

🔗 PDF: https://arxiv.org/pdf/2511.21631
🔗
Видео: https://www.youtube.com/watch?v=clwFmuJX_wQ

@ai_machinelearning_big_data

#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
133🔥16👍6❤‍🔥3🦄2👌1
🚀 DeepSeek выпустили DeepSeek Math V2 - мощную модель для самопроверяемых математических рассуждений.

Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.

Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.

📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024

🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.

Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.

https://huggingface.co/deepseek-ai/DeepSeek-Math-V2

@ai_machinelearning_big_data

#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
62👍19🔥132🤔2🦄2❤‍🔥1
💡 Релиз Z-Image: быстрая 6B модель

Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.

Главное из отчета:

* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.

Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.


🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo

@ai_machinelearning_big_data


#Tongyi #ai #genai #ml
24👍11🥰3🦄3🔥1😁1
✔️ INTELLECT-3 - новая мощная открытая модель от Prime Intellect

Prime Intellect выкатили INTELLECT-3 - 106B Mixture-of-Experts модель, обученнfz на GLM-4.5 Air Base с двумя этапами: SFT и масштабным RL-дообучением.

Это первая модель такого масштаба, где асинхронный RL - не эксперимент, а основа обучения. В результате модель демонстрирует сильный перформанс в математике, коде и reasoning.

Фокус модели - долгие цепочки действий и агентные задачи, а не просто генерация текста.

Главное:
- Модель показывает топ-результаты для своего размера в математике, коде и reasoning.
- Обучение шло на 512×H200 в течение ~2 месяцев.
- Использован собственный стек: PRIME-RL, Verifiers, Environments Hub и sandbox-инфра.
- Всё открыто: код, среды, инструменты.

🟠Technical Report: https://storage.googleapis.com/intellect-3-paper/INTELLECT_3_Technical_Report.pdf
🟠Hugging Face: https://huggingface.co/PrimeIntellect/INTELLECT-3
🟠PRIME-RL: https://github.com/PrimeIntellect-ai/prime-rl
🟠Verifiers: https://github.com/PrimeIntellect-ai/verifiers
🟠Environments Hub: https://hub.primeintellect.ai

@ai_machinelearning_big_data


#ai #intellect3 #primeintellect #glm45
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
24👍11🔥10🥰4😁1🦄1
Анонсируем новый вебинар!

2 декабря расскажем про технологии против любых дипфейков: на изображениях, видео и аудио.

Вы узнаете, как команда повышала точность детектора и какие проблемы приходилось решать при внедрении — глазами клиента и разработчиков.

На вебинаре обсудим:


⚫️Трансформацию подходов к безопасности и коммуникациям

⚫️Когда голос обманывает: методы детекции аудиодипфейков

⚫️Как выявляют попытки обмана при онлайн‑идентификации

А также эксперты MWS AI и MTC ID ответят на любые вопросы о дипфейках!

Регистрируйтесь и приходите 🌨
Please open Telegram to view this post
VIEW IN TELEGRAM
🥰126🔥3🤣2🤔1
📌This Is How We Are Going to Build AGI: CAIA Google рассказал о состоянии ИИ.

Логан Килпатрик из команды DeepMind беседует с Кораем Кавукчуоглу, CTO DeepMind и по совместительству новым главным архитектором Google по искусственному интеллекту.

Корай Кавукчуоглу рассказал о своих взглядах на текущее состояние ИИ, архитектуру Gemini и стратегию Google по достижению AGI. Он считает, что это «новая эра», где технологии стремительно меняются, и что ближайшие 6 месяцев обещают быть такими же захватывающими, как и предыдущие.

Основные темы интервью:

🟡Успех Gemini 3 и подход к AGI

Недавний запуск Gemini 3 получился суперпозитивным. Но прогресс не замедляется, и Gemini 3, подобно 2.5, снова «отодвинула рубеж по ряду измерений». Центральная философия Google в том, что AGI будет «совместно создаваться с нашими клиентами». Это не чисто исследовательская работа, проводимая в изоляции, а совместное усилие с миром, требующее инженерного мышления.

🟡Новый взгляд на прогресс и бенчмарки

Несмотря на то, что модели Google достигают лидирующих позиций на бенчмарках, истинное мерило прогресса в реальном применении. Старые бенчмарки перестают определять текущий рубеж, и новая мера успеха — это предоставление большей ценности в реальном мире, где модели используют ученые, студенты, юристы и инженеры.

🟡Планы на будущее

Приоритеты для улучшения в будущих версиях Gemini Pro:

🟢Следование инструкциям: Модель должна уметь понимать и выполнять запрос пользователя, а не просто отвечать так, как считает нужным.

🟢Интернационализация: Google сосредоточен на языках, где исторически производительность была невысокой.

🟢Функциональные и инструментальные вызовы: Это критически важные технические области, поскольку они позволяют моделям естественно использовать существующие инструменты.

🟢Код и агентские действия : Код - это база для создания чего угодно в цифровом мире. Корай считает, что агентские действия и код — это наиболее перспективные области роста, в которых еще есть много возможностей для совершенствования.

🟡Интеграция с продуктами и инновации

Интеграция- важная тема для сбора фидбэка от пользователей, который необходим для понимания того, как нужно улучшать модели. Риск для Gemini заключается не в отсутствии масштабирования, а в исчерпании инноваций. Поэтому Google DeepMind и Google Research должны постоянно заниматься исследованиями, чтобы находить новые идеи, которые будут питать «двигатель ИИ» Google.

🟡Единство моделей и генеративные медиа

Генеративные медиа-модели сходятся с текстовыми моделями. Яркий пример - Nano Banana Pro, которая показала, как слияние понимания мира из текста с пониманием из изображений позволяет модели создавать более детализированные и концептуально связные изображения, например, инфографику на основе сложных документов.

Фоном идет история о личном пути Корая Кавукчуоглу : от исследователя Deep Learning в DeepMind в 2012 году до текущей руководящей роли.

🔜 Смотреть полное интервью на Youtube


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
27🔥15🥰5❤‍🔥1🤩1😇1🦄1
2025/11/28 03:07:59
Back to Top
HTML Embed Code: