🚀 Релиз DeepSeek-V3.2 и DeepSeek-V3.2-Speciale - модели нового поколения, созданные в первую очередь для reasoning и работы в агентных системах.
Что нового:
- DeepSeek-V3.2 - официальный преемник V3.2-Exp. Доступна в приложении, на сайте и через API.
- DeepSeek-V3.2-Speciale - улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока что работает только через API.
Обе модели делают упор на глубокие цепочки рассуждений и поведение, нацеленное на агентные сценарии: планирование, решение задач, сложные выводы и работу со структурированными данными.
🏆 Производительность
• V3.2 - баланс скорости и качества, уровень примерно GPT-5
• V3.2-Speciale - топовый reasoning, конкурирует с Gemini-3.0-Pro.
• Speciale - лидер на IMO, CMO, ICPC.
🤖 Новый подход к обучению агентов
• Синтезированы большие тренировочные данные для 1800+ сред и 85k сложных инструкций.
• V3.2 - первая модель DeepSeek, у которой мышление встроено прямо в tool-use.
💻 API
• V3.2 использует тот же интерфейс, что V3.2-Exp.
• Speciale доступна через временный endpoint, работать будет до 15 декабря 2025.
📦 DeepSeek-V3.2 Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
📦 DeepSeek-V3.2-Speciale Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
@ai_machinelearning_big_data
#deepseek, #deepseekv3, #ai, #нейросети, #искусственныйинтеллект, #llm
Что нового:
- DeepSeek-V3.2 - официальный преемник V3.2-Exp. Доступна в приложении, на сайте и через API.
- DeepSeek-V3.2-Speciale - улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока что работает только через API.
Обе модели делают упор на глубокие цепочки рассуждений и поведение, нацеленное на агентные сценарии: планирование, решение задач, сложные выводы и работу со структурированными данными.
🏆 Производительность
• V3.2 - баланс скорости и качества, уровень примерно GPT-5
• V3.2-Speciale - топовый reasoning, конкурирует с Gemini-3.0-Pro.
• Speciale - лидер на IMO, CMO, ICPC.
🤖 Новый подход к обучению агентов
• Синтезированы большие тренировочные данные для 1800+ сред и 85k сложных инструкций.
• V3.2 - первая модель DeepSeek, у которой мышление встроено прямо в tool-use.
💻 API
• V3.2 использует тот же интерфейс, что V3.2-Exp.
• Speciale доступна через временный endpoint, работать будет до 15 декабря 2025.
📦 DeepSeek-V3.2 Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
📦 DeepSeek-V3.2-Speciale Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
@ai_machinelearning_big_data
#deepseek, #deepseekv3, #ai, #нейросети, #искусственныйинтеллект, #llm
❤53🔥23👍17🦄2👏1
🚨 95% внедрений ИИ проваливаются. Почему это происходит и как не оказаться среди них?
Статистика с полей внедрения ИИ продолжает поражать неподготовленные умы. MIT (Massachusetts Institute of Technology) пишет, что только 5% инициатив приносят измеримую пользу. Benedict Evans тушат огонь бензином добавляют: 50% (половина, Карл!) компаний просто бросает попытки.
Почему?
Большинство компаний искренне верит, что для успеха достаточно подключить LLM. Помните Незнайку на Луне? Сделаем ракету 🚀– полетим на Марс! Ну или выберем модель, подключим API, сделаем агента – и Великий Волшебный ИИ всё сделает за нас.
А на практике всё ломается не на стороне моделей, а на:
● сопротивлении людей (ИИ заберёт мою работу! 😨)
● неподготовленном ИТ-ландшафте
● бардаке в процессах
Другими словами, дело не в технологиях. Модели уже достаточно зрелые. Они работают. Но они не решают базовые вопросы: какую задачу выбрать? как встроить ИИ в процессы? что делать с людьми? как посчитать эффект? кто будет этим управлять? что делать дальше?
Что дальше?
Чтобы выйти из категории «95% провалов» и попасть в те самые 5% компаний, которые действительно получают бизнес-ценность от ИИ, нужен другой подход. Именно вокруг этого построена концепция AIM и роль AI Business Partner (AIBP) – лидера, который связывает людей, процессы и технологии в единую рабочую систему.
Именно этой теме команда создателей AIM посвятит открытый вебинар, который пройдет 2 декабря в 19:00 (МСК). На вебинаре мы
разберем:
1. Почему внедрения ИИ проваливаются – на конкретных примерах из реальных проектов.
2. Как выглядит работающий подход к внедрению ИИ в процессы на основе методологии AIM.
3. Кто такой AIBP, где его взять и как им стать.
Если вам важно понимать не только технологии, но и то, как сделать ИИ рабочим инструментом для бизнеса – этот вебинар точно для вас. 💡
👉 Регистрация и подробности в боте: https://www.group-telegram.com/aim_education_bot
Реклама: ИП: Новикова Алина Сергеевна ИНН:262810436353 erid: 2VtzqxiJFwF
Статистика с полей внедрения ИИ продолжает поражать неподготовленные умы. MIT (Massachusetts Institute of Technology) пишет, что только 5% инициатив приносят измеримую пользу. Benedict Evans тушат огонь бензином добавляют: 50% (половина, Карл!) компаний просто бросает попытки.
Почему?
Большинство компаний искренне верит, что для успеха достаточно подключить LLM. Помните Незнайку на Луне? Сделаем ракету 🚀– полетим на Марс! Ну или выберем модель, подключим API, сделаем агента – и Великий Волшебный ИИ всё сделает за нас.
А на практике всё ломается не на стороне моделей, а на:
● сопротивлении людей (ИИ заберёт мою работу! 😨)
● неподготовленном ИТ-ландшафте
● бардаке в процессах
Другими словами, дело не в технологиях. Модели уже достаточно зрелые. Они работают. Но они не решают базовые вопросы: какую задачу выбрать? как встроить ИИ в процессы? что делать с людьми? как посчитать эффект? кто будет этим управлять? что делать дальше?
Что дальше?
Чтобы выйти из категории «95% провалов» и попасть в те самые 5% компаний, которые действительно получают бизнес-ценность от ИИ, нужен другой подход. Именно вокруг этого построена концепция AIM и роль AI Business Partner (AIBP) – лидера, который связывает людей, процессы и технологии в единую рабочую систему.
Именно этой теме команда создателей AIM посвятит открытый вебинар, который пройдет 2 декабря в 19:00 (МСК). На вебинаре мы
разберем:
1. Почему внедрения ИИ проваливаются – на конкретных примерах из реальных проектов.
2. Как выглядит работающий подход к внедрению ИИ в процессы на основе методологии AIM.
3. Кто такой AIBP, где его взять и как им стать.
Если вам важно понимать не только технологии, но и то, как сделать ИИ рабочим инструментом для бизнеса – этот вебинар точно для вас. 💡
👉 Регистрация и подробности в боте: https://www.group-telegram.com/aim_education_bot
Реклама: ИП: Новикова Алина Сергеевна ИНН:262810436353 erid: 2VtzqxiJFwF
🤣51❤13👍5🦄3🙈2🥰1
⚡️ Отличный ресурс, если хотите глубже понять, как работает параллельное исполнение на GPU.
Документация NVIDIA PTX раскрывает низкоуровневую модель выполнения: устройство команд, иерархию потоков, блоков, варпов, регистров и видов памяти.
Это базовый материал, без которого сложно разобраться, почему ядра GPU ведут себя именно так, как ведут, и как правильно писать высокопроизводительный код под CUDA.
Ссылка: https://docs.nvidia.com/cuda/parallel-thread-execution
@ai_machinelearning_big_data
#nvidia
Документация NVIDIA PTX раскрывает низкоуровневую модель выполнения: устройство команд, иерархию потоков, блоков, варпов, регистров и видов памяти.
Это базовый материал, без которого сложно разобраться, почему ядра GPU ведут себя именно так, как ведут, и как правильно писать высокопроизводительный код под CUDA.
Ссылка: https://docs.nvidia.com/cuda/parallel-thread-execution
@ai_machinelearning_big_data
#nvidia
👍37❤13🥰7🦄2❤🔥1🔥1👏1
Media is too big
VIEW IN TELEGRAM
⚡️ Runway представили новый видеогенератор **Gen-4.5** - заметный шаг вперёд по качеству и управляемости видео.
Что улучшили:
- более детализированное и чистое изображение
- реалистичную динамику и движения объектов
- улучшенную физику, освещение и поведение материалов
- точное следование промпту, включая сложные сцены
Gen-4.5 уверенно работает с быстрыми движениями, сложными ракурсами и умеет контролировать камеру, композицию, звук и другие параметры сцены.
Поддерживаются разные стили-— от фотореализма до пластилиновой анимации.
Что может:
- Image-to-Video
- Video-to-Video
- Keyframes
- Управление движением камеры
Runway заявляет, что скорость и потребление ресурсов сопоставимы с Gen-4, но качество заметно выше.
На сайте модель пока помечена как *soon*, цены ещё не отображаются, API пока недоступен. Доступ пользователям будут открывать постепенно.
По метрикам тоже впечатляет: Gen-4.5 набрала 1 247 Elo в рейтинге *Artificial Analysis Text-to-Video*, установив новый рекорд и обойдя все существующие AI-модели для генерации видео.
Анонс: https://app.runwayml.com/video-tools/
@ai_machinelearning_big_data
#runway #runwayml #gen45 #gen4_5 #videogen #ai_
Что улучшили:
- более детализированное и чистое изображение
- реалистичную динамику и движения объектов
- улучшенную физику, освещение и поведение материалов
- точное следование промпту, включая сложные сцены
Gen-4.5 уверенно работает с быстрыми движениями, сложными ракурсами и умеет контролировать камеру, композицию, звук и другие параметры сцены.
Поддерживаются разные стили-— от фотореализма до пластилиновой анимации.
Что может:
- Image-to-Video
- Video-to-Video
- Keyframes
- Управление движением камеры
Runway заявляет, что скорость и потребление ресурсов сопоставимы с Gen-4, но качество заметно выше.
На сайте модель пока помечена как *soon*, цены ещё не отображаются, API пока недоступен. Доступ пользователям будут открывать постепенно.
По метрикам тоже впечатляет: Gen-4.5 набрала 1 247 Elo в рейтинге *Artificial Analysis Text-to-Video*, установив новый рекорд и обойдя все существующие AI-модели для генерации видео.
Анонс: https://app.runwayml.com/video-tools/
@ai_machinelearning_big_data
#runway #runwayml #gen45 #gen4_5 #videogen #ai_
🔥31❤14👍10🤗2👌1🤨1🦄1
🔥 Kling Omni (O1) только что вышел - и первые тесты впечатляют.
Это как nano-banana pro, только для видео: бери любой материал и превращай его во что угодно.
Модель:
- удаляет объекты,
- меняет стиль сцен,
- перерисовывает ролик целиком,
- и при этом держит персонажей одинаковыми в любых ракурсах.
OpenArt включили безлимит - можно спокойно экспериментировать.
Главное отличие: больше не нужно править каждый кадр вручную. Меняешь целое видео одним промптом — экономишь время и не тратишь кредиты на повторные генерации.
O1 ощущается как живой креативный напарник:
- удаляет объекты,
- меняет стиль сцен,
- перерисовывает ролик целиком,
- и при этом держит персонажей одинаковыми в любых ракурсах.
Новый стандарт AI-видео.
https://app.klingai.com/global/omni/new
@ai_machinelearning_big_data
#Kling #KlingO1 #KlingOmni #AIvideo #AIGeneration
Это как nano-banana pro, только для видео: бери любой материал и превращай его во что угодно.
Модель:
- удаляет объекты,
- меняет стиль сцен,
- перерисовывает ролик целиком,
- и при этом держит персонажей одинаковыми в любых ракурсах.
OpenArt включили безлимит - можно спокойно экспериментировать.
Главное отличие: больше не нужно править каждый кадр вручную. Меняешь целое видео одним промптом — экономишь время и не тратишь кредиты на повторные генерации.
O1 ощущается как живой креативный напарник:
- удаляет объекты,
- меняет стиль сцен,
- перерисовывает ролик целиком,
- и при этом держит персонажей одинаковыми в любых ракурсах.
Новый стандарт AI-видео.
https://app.klingai.com/global/omni/new
@ai_machinelearning_big_data
#Kling #KlingO1 #KlingOmni #AIvideo #AIGeneration
❤72👍26🔥21🦄4🥰3
Media is too big
VIEW IN TELEGRAM
CEO Nvidia обратился к сотрудникам с директивой использовать ИИ-инструменты для решения абсолютно любой задачи, где это технически возможно. Хуанг считает, что компания должна не только давать миру железо для вычислений, но и сама служить эталоном ИИ-эффективности.
Особое внимание он уделил инструментам разработки, настаивая на их тотальном внедрении в инженерные процессы. Несмотря на автоматизацию, компания продолжает расти. За год штат Nvidia увеличился с 29,6 до 36 тысяч человек, и для покрытия текущих задач требуется нанять еще около 10 тысяч специалистов.
NVIDIA не первая, кто требует от сотрудников использования ИИ - Google и Microsoft также начали привязывать использование нейросетей к KPI сотрудников.
techspot.com
Разработчик Тибор Блахо обнаружил в тестовой версии ChatGPT для Android отсылки на рекламный функционал. Строки содержат формулировки: «рекламная функция», «поисковая реклама» и «карусель поисковой рекламы», что указывает на то, что OpenAI, возможно, разрабатывает функцию показа рекламы в ChatGPT.
Tibor Blaho в сети X
Мажорное обновление платформы Pinokio, позиционирует пятую версию как «Vercel для localhost». Инструмент позволяет разворачивать на macOS, Windows и Linux любые веб-серверы, CLI-приложения и ИИ-модели в один клик. Система полностью автоматизирует рутину по настройке окружения, самостоятельно подтягивая необходимые пакетные менеджеры.
Pinokio может создавать лаунчеры для любых проектов с помощью ИИ-агентов. Интерфейс стал универсальным, добавлена поддержка интерактивных терминалов и режим Cells для параллельной работы с фронтендом, бэкендом и логами в одном окне. В новой версии появился «локальный интернет»: Pinokio присваивает запущенным приложениям короткие HTTPS-домены и делает их доступными для других устройств в сети, автоматически активируя сервисы при входящем запросе.
Автор Pinokio в сети X
Организаторы конференции ICLR опубликовали результаты проверки контента, проведенной совместно с Pangram Labs. Анализ массива из 75 800 отзывов показал, что почти 16 тыс. рецензий (около 21%) были полностью сгенерированы ИИ, а не написаны людьми. Проблема затронула и сами научные статьи: 199 поданных рукописей были распознаны как полностью написанные ИИ, а еще в 9% работ доля сгенерированного текста превысила 50%.
Хотя регламент ICLR допускает использование ИИ-инструментов для правки текста или генерации кода при условии явного указания, создание синтетических рецензий подрывает доверие к процессу ревью. В ответ на инцидент организаторы вводят обязательный автоматизированный скрининг всех материалов на использование ИИ.
nature.com
Проект позиционируется как попытка вернуть пользователям достоверный интернет эпохи до ChatGPT. Расширение использует Google Search API для жесткой фильтрации выдачи, отсекая любые материалы, опубликованные после 30 ноября 2022 года. Автор называет этот подход тактикой «выжженной земли»: по ее мнению, это единственный надежный способ гарантировать, что контент создан человеком, в условиях тотального ИИ-слопа.
Slop Evader работает с YouTube, Reddit, Stack Exchange и архивами других крупных платформ. Очевидный технический недостаток полной потери доступа к актуальным новостям является осознанной частью концепции. Создатель расширения надеется, что растущий запрос пользователей на «человеческий» контент в итоге вынудит поисковые системы внедрить маркировку генеративных материалов.
404media.co
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28❤24🔥9🦄2
⚡️Ozon Profit расширяет сбор и разметку данных для ML по всей России
Краудсорсинговая платформа Ozon Profit, которая изначально фокусировалась на онлайн-задачах, теперь позволяет собирать данные и проводить проверки в офлайне по всей России. Это полезно для проектов, чьи ML-модели требуют физической верификации.
Компании могут отправлять исполнителей для фотофиксации витрин, проверки цен и качества сервиса в любом городе. Параллельно за год в 5 раз вырос объем чисто онлайн-проектов по разметке изображений, текстов и видео, а также анализу тональности обращений — критически важных задач для обучения моделей.
Сейчас в офлайне исполнители выезжают на точку для сбора данных, а в онлайне занимаются разметкой данных, анализом эмоций в комментариях, модерацией. Сегодня на платформе зарегистрировано более 100 000 исполнителей.
@ai_machinelearning_big_data
#news #ml
Краудсорсинговая платформа Ozon Profit, которая изначально фокусировалась на онлайн-задачах, теперь позволяет собирать данные и проводить проверки в офлайне по всей России. Это полезно для проектов, чьи ML-модели требуют физической верификации.
Компании могут отправлять исполнителей для фотофиксации витрин, проверки цен и качества сервиса в любом городе. Параллельно за год в 5 раз вырос объем чисто онлайн-проектов по разметке изображений, текстов и видео, а также анализу тональности обращений — критически важных задач для обучения моделей.
Сейчас в офлайне исполнители выезжают на точку для сбора данных, а в онлайне занимаются разметкой данных, анализом эмоций в комментариях, модерацией. Сегодня на платформе зарегистрировано более 100 000 исполнителей.
@ai_machinelearning_big_data
#news #ml
👍27❤12🥱11🥰3🌚2🤣2😢1🍓1🦄1
NVIDIA анонсировала, о чем расскажет на конференции NeurIPS, которая началась сегодня и пройдет до 7 декабря в Сан-Диего.
NVIDIA DRIVE Alpamayo-R1, или сокращенно AR1.
Это первая в мире открытая ризонинг-VLA модель специально для исследований в области автопилотов. Модель построена на базе NVIDIA Cosmos Reason и отлично поддается дообучению с помощью RL.
Alpamayo-R1 будет доступна на GitHub и Hugging Face, а фреймворк AlpaSim для тестов уже опубликован.
Cosmos Cookbook - руководство с рецептами для физического ИИ и генерации синтетических данных и оценки моделей.
LidarGen - "модель мира", которая генерирует данные лидаров для симуляций.
Omniverse NuRec Fixer - инструмент мгновенного исправления артефактов в нейронных реконструкциях а робототехнике и БПЛА.
ProtoMotions3 - открытый фреймворк на базе Isaac Lab, позволяющий тренировать цифровых людей с невероятно реалистичной физикой.
MultiTalker Parakeet - модель для ASR нескольких спикеров даже в быстром темпе и с перекрытиями.
В паре с ней идет Sortformer - инструмент для диаризации, т. е. разделения спикеров в аудиопотоке в реальном времени.
Ну и, конечно, NeMo Gym - библиотека для создания сред обучения с RL в комплекте с NeMo Data Designer, комплексом для создания и проверки синтетических наборов данных.
К конференции NVIDIA подготовила более 70 научных работ. Вот лишь несколько жемчужин из этого списка:
Audio Flamingo 3. Это большая аудио-языковая модель, которая может "понимать" и анализировать аудиозаписи длительностью до 10 минут.
Minitron-SSM. Техника прунинга, которая позволила уменьшить модель Nemotron-H 8B с 8 до 4 млрд. параметров, при этом удвоив скорость инференса.
ProRL, или Prolonged Reinforcement Learning. Концепция, которая доказала, что продление процесса RL выводит модели на совершенно новый уровень в ризонинге.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28❤19🔥7🤗3❤🔥1🦄1
Media is too big
VIEW IN TELEGRAM
«Всё реальная съёмка - без CGI, без AI, без ускорения видео.»
Основные характеристики робота:
- рост 173 см
- 29 степеней свободы (без учёта кистей)
- пиковый крутящий момент суставов - 450 Н·м
Функции и возможности:
- система кругового обзора 360°
- активное охлаждение суставов ног
- аккумулятор на 4–5 часов работы
@ai_machinelearning_big_data
#ai #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
❤47🤣46👍25😨17🥰4🤩3❤🔥1
Линейка включает флагманскую Mistral Large 3 и компактные Ministral-модели - все под лицензией Apache 2.0 с коммерческим использованием.
Модели оптимизированы для широкого спектра задач: от работы на устройствах с ограниченными ресурсами до корпоративных нагрузок.
- Mistral Small 3 вышла на уровень свыше 81 % на MMLU: для компактной модели это очень высокий показатель при низких задержках.
- Mistral Medium 3.1 заняла верхние позиции в LM Arena: первое место в категории English (no style control), второе, в общем зачёте, плюс топ-3 в задачах кодирования и длинных запросов.
- Medium 3.1 показывает около 90 % качества «тяжёлых» моделей, но при существенно меньших ресурсных затратах - одно из лучших соотношений цена/производительность на рынке.
https://mistral.ai/news/mistral-3
@ai_machinelearning_big_data
#mistral #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62❤27🔥7🦄4
Media is too big
VIEW IN TELEGRAM
Компания объявила о приобретении Bun — популярного инструментария для запуска и сборки JavaScript-приложений. Технологии и команда стартапа станут фундаментом для дальнейшего масштабирования платформы Claude Code.
Bun, основанный Джаредом Самнером в 2021 году, завоевал популярность как экстремально быстрая альтернатива Node.js, объединяющая в себе рантайм, пакетный менеджер, бандлер и тестовый раннер.
Bun останется опенсорсным проектом под лицензией MIT. Anthropic обещает продолжить инвестировать в инструмент, сохраняя его статус независимого и универсального решения для JS/TS-экосистемы.
anthropic.com
Это третье поколение тензорных процессоров Amazon. Trainium3, изготовленный по 3-нм техпроцессу, показывает буст по производительности до 4.4x и энергоэффективности в 4 раза по сравнению с Trainium 2. Архитектура чипа поддерживает новые форматы данных MXFP8 и MXFP4.
UltraServer - это вычислительный узел, объединяющий 144 чипа с общим объемом памяти 20.7 ТБ HBM3e и агрегированной пропускной способностью 706 ТБ/с. Такие серверы можно объединять в кластеры EC2 UltraClusters масштабом более 1 млн. чипов.
Также AWS потизерила будущий Trainium 4: следующее поколение чипов получит совместимость с GPU NVIDIA через шину NVLink Fusion.
aws.amazon.com
Команда vLLM анонсировала релиз vLLM-Omni, расширения, созданного для адаптации инфраструктуры под omni-модели, которые могут бесшовно работать с текстом, изображениями, видео и аудио в рамках одного процесса.
Архитектура vLLM-Omni предлагает полностью переработанный поток данных. Система использует дезагрегированный пайплайн, объединяющий 3 этапа: мультимодальные энкодеры, логическое ядро на базе vLLM и генераторы.
vLLM-Omni может эффективно оркестрировать сложные гетерогенные рабочие процессы и параллельно выполнять вычисления. Фреймворк сохраняет простоту внедрения, поддерживая полную совместимость с OpenAI API и Hugging Face.
blog.vllm.ai
Важное обновление SGLang, которое кардинально упрощает работу ML-инженеров, позволяя проводить квантование и деплой моделей внутри одной экосистемы без использования сторонних утилит и сложных пайплайнов.
Теперь разработчики могут напрямую через API конвертировать модели в форматы NVFP4, MXFP4, FP8 и сразу запускать их в продакшн. Тесты на архитектуре NVIDIA Blackwell показали, что использование квантования NVFP4 через SGLang удваивает пропускную способность по сравнению с базовым FP8.
lmsys.org
Openness Index — новый стандарт оценки ИИ, который отделяет настоящий опен-сорс от моделей, которые лишь притворяются открытыми. Рейтинг анализирует проекты по 2 направлениям: доступность весов и прозрачность процесса разработки (методология и датасеты для пре- и пост-трейна).
Верхние строчки рейтинга заняли китайские разработки. Среди коммерческих решений хороший результат показала Nemotron Nano 9B v2 (67 баллов), а вот полностью закрытые проприетарные модели ожидаемо остались на дне рейтинга с оценками в 1–5 баллов. Лидером списка стала модель OLMo с показателем 89.
Индекс наглядно подсвечивает проблему термина «open weights»: модели, публикующие только веса без контекста, теряют баллы на прозрачности.
Artificial Analysis в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43❤31🍓6👍4🦄1
На Хабре вышел подробный разбор о том, как Яндекс внедряет LLM в процессы тестирования. Из интересного: генерация чек-листов и тест-кейсов, создание автотестов, первые шаги в сторону ИИ-агентов для ручного тестирования.
Разобрали и технические сложности: интеграции с TMS, единые MCP-коннекторы, LLM-As-A-Judge и работу с «зоопарком» инструментов. В статье много схем и цифр, включая рост скорости написания автотестов на ~30%.
@ai_machinelearning_big_data
#ai #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤷23❤9👍8🔥5🤬3😁2
🎥 Two Minute Papers выпустили 22-минутное интервью с Джоном Джампером, нобелевским лауреатом и лидом команды DeepMind, создавшей AlphaFold
В беседе Джон Джампер рассказывает, как появилось AlphaFold. Он объясняет, что проект начинался как почти недостижимый идеал: попытка научиться предсказывать структуру белков с точностью, которая раньше казалась невозможной.
Ключевые моменты видео:
Что такое AlphaFold: Система глубокого обучения, которая предсказывает точную трехмерную структуру белка (его рабочую форму) на основе его аминокислотной последовательности.
Революция Скорости: AlphaFold выполняет задачу, которая ранее занимала год и стоила $100 000, всего за 5–10 минут с точностью, близкой к экспериментальной.
Масштаб Влияния: Предсказаны структуры 200 миллионов белков (все известные науке), что сделало AlphaFold фундаментальным инструментом для миллионов ученых в области разработки лекарств и биологии.
Удивительные Открытия: Джампер делится воспоминаниями о том, как команда сомневалась в успехе из-за "слишком легкого" роста производительности, и как модель научилась неявно предсказывать белковые комплексы и даже области, не имеющие фиксированной структуры ("беспорядок").
Будущее: AlphaFold является первым ИИ, который достиг "сверхчеловеческого" уровня в науке, и, по прогнозам, повлияет на почти каждое достижение в современной медицине в ближайшие 20 лет.
✔️ Смотреть интервью: https://www.youtube.com/watch?v=Vhcwjzeukts
@ai_machinelearning_big_data
#DeepMind #google #AlphaFold
В беседе Джон Джампер рассказывает, как появилось AlphaFold. Он объясняет, что проект начинался как почти недостижимый идеал: попытка научиться предсказывать структуру белков с точностью, которая раньше казалась невозможной.
Ключевые моменты видео:
Что такое AlphaFold: Система глубокого обучения, которая предсказывает точную трехмерную структуру белка (его рабочую форму) на основе его аминокислотной последовательности.
Революция Скорости: AlphaFold выполняет задачу, которая ранее занимала год и стоила $100 000, всего за 5–10 минут с точностью, близкой к экспериментальной.
Масштаб Влияния: Предсказаны структуры 200 миллионов белков (все известные науке), что сделало AlphaFold фундаментальным инструментом для миллионов ученых в области разработки лекарств и биологии.
Удивительные Открытия: Джампер делится воспоминаниями о том, как команда сомневалась в успехе из-за "слишком легкого" роста производительности, и как модель научилась неявно предсказывать белковые комплексы и даже области, не имеющие фиксированной структуры ("беспорядок").
Будущее: AlphaFold является первым ИИ, который достиг "сверхчеловеческого" уровня в науке, и, по прогнозам, повлияет на почти каждое достижение в современной медицине в ближайшие 20 лет.
@ai_machinelearning_big_data
#DeepMind #google #AlphaFold
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43❤16🔥13❤🔥1⚡1🥱1🤣1
