Magistral — первая модель рассуждений от Mistral AI. Она сочетает глубокую логическую обработку с возможностью отслеживать каждый шаг её «мышления».
Модель получила поддержку 8 языков, включая русский и выпущена в 2 вариантах:
Внутри Magistral работает в режиме рассуждений, разбивая задачи на цепочки логических шагов, а Flash Answers ускоряет вывод в 10 раз по сравнению с конкурентами. Для интеграции в рабочие процессы модель умеет взаимодействовать с внешними инструментами (API или базами данных).
В тестах Magistral Medium показал 73,6% точности на задачах AIME2024, демонстрируя силу в физических симуляциях и математических расчетах.
Для разработчиков доступны версии на Hugging Face, AWS и IBM WatsonX, а в будущем — на Azure и Google Cloud. Демо Magistral доступно в интерфейсе Le Chat или по API в La Plateforme.
@ai_machinelearning_big_data
#AI #ML #LLM #Magistral #MistralAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Гендир OpenAI объявил о снижении цены на o3 на 80% и намекнул на предстоящий выпуск o3-pro.
Говорит, что нам понравится соотношение цена\перфоманс у о3-pro.
Пост Sam Altman в сети Х
Please open Telegram to view this post
VIEW IN TELEGRAM
В экспертных оценках тестировщики отдают предпочтение OpenAI o3-pro по сравнению с o3.
https://x.com/OpenAI/status/1932530409684005048
@ai_machinelearning_big_data
#chatgpt #openai #o3pro
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
OpenAI договорилась с Google Cloud о поставках вычислительных ресурсов для тренировки и запуска своих моделей - неожиданный шаг для конкурентов в сфере ИИ. Ранее OpenAI зависела от Microsoft Azure, но теперь диверсифицирует поставщиков, заключив сделки с Oracle и SoftBank на $500 млрд для проекта Stargate.
Google предоставит доступ к собственным чипам TPU, которые ранее использовались только внутри компании. Это усиливает позиции Google Cloud, конкурирующего с Amazon и Microsoft за клиентов среди ИИ-стартапов. Внутренние проблемы с мощностями у Google и одновременная конкуренция через DeepMind создают сложные задачи для управления ресурсами в новом партнерстве.
reuters.com
IBM заявила о планах построить первый в истории крупномасштабный квантовый компьютер Quantum Starling до конца десятилетия. Он будет в 20 тысяч раз мощнее современных квантовых систем, используя новые методы исправления ошибок — коды qLDPC и реальное время коррекции с помощью классических вычислений.
Аналитики осторожны: коммерческая выгода пока неочевидна, а детали запуска систем туманны. Тем не менее, IBM подчеркивает, что ее дорожная карта самая прозрачная в индустрии, призывая разработчиков готовить алгоритмы для будущих машин.
wsj.com
Цукерберг анонсировал создание новой лаборатории по исследованию «суперинтеллекта» — гипотетической ИИ-системы, превосходящей возможности человеческого мозга. В рамках проекта, она договорилась о сотрудничестве с Алексом Ваном, основателем Scale AI, и планирует инвестировать в его компанию, одновременно переманивая ключевых специалистов.
Источники сообщают, что компания Марка Цукерберга предлагает исследователям из OpenAI, Google и других крупных компаний зарплаты от сотен тысяч до миллионов долларов. Это часть масштабной перестройки ИИ-направления, которое столкнулось с внутренними конфликтами, текучкой кадров и неудачными запусками продуктов.
nytimes.com
Qualcomm анонсировала процессор Snapdragon AR1+ Gen 1 для умных очков, способный запускать ИИ без подключения к облаку или смартфону. Это позволяет пользователям использовать функции голосового ассистента или отображения текста прямо на стеклах без дополнительных устройств. Чип на 28% компактнее предыдущей версии, что позволяет уменьшить размеры оправы на 20%.
Новинка поддерживает бинокулярное изображение, стабилизацию и обработку нескольких кадров одновременно. Главная фишка - NPU третьего поколения, способный запускать небольшие модели локально.
engadget.com
Традиционный подход к очистке данных перед обучением LLM оказался не самым эффективным. Ученые выяснили, что добавление небольшого количества провокационного контента из 4chan (до 10%) улучшает «детоксикацию» моделей на поздних этапах. Модель Olmo-1B, обученная на смеси токсичных постов и чистого датасета C4, показала, что ядовитые идеи в модели становятся четче, а значит — их проще подавлять.
Методы вроде коррекции при генерации текста работают точнее, если модель «видела» токсичность заранее. Однако переизбыток 4chan-данных сводит эффект к нулю: модель становится агрессивной и сложной для контроля.
Исследователи предполагают, что аналогичный подход применим к другим «чувствительным» темам — от стереотипов до политики.
arxiv.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🎥 Веса и инференс для SeedVR2 — многообещающей модели для восстановления видео.
🛠️ Что это?
SeedVR2 — одношаговая диффузионная модель для восстановления видео, которая проходит пост-тренировку в противоборстве с реальными данными.
Она показывает отличные результаты даже на высоком разрешении.
🔍 Зачем нужна SeedVR2?
Обычные модели плохо справляются с AIGC и реальными видео — особенно в мелких деталях вроде текста и лиц.
Даже продвинутые диффузионные методы, использующие ControlNet или адаптеры, работают только на фиксированном разрешении (512, 1024) и требуют нарезки видео на перекрывающиеся патчи. Это:
• сильно замедляет работу
• усложняет обработку длинных и больших видео
🚀 Что нового в SeedVR2:
• Восстановление на любом разрешении без заранее обученного диффузионного приоритета
• Архитектура с крупным диффузионным трансформером, обученным с нуля
▪Github: https://github.com/ByteDance-Seed/SeedVR
x
▪ Веса: https://huggingface.co/ByteDance-Seed/SeedVR-Models
@ai_machinelearning_big_data
#news #ai #ml #ByteDance #video
🛠️ Что это?
SeedVR2 — одношаговая диффузионная модель для восстановления видео, которая проходит пост-тренировку в противоборстве с реальными данными.
Она показывает отличные результаты даже на высоком разрешении.
🔍 Зачем нужна SeedVR2?
Обычные модели плохо справляются с AIGC и реальными видео — особенно в мелких деталях вроде текста и лиц.
Даже продвинутые диффузионные методы, использующие ControlNet или адаптеры, работают только на фиксированном разрешении (512, 1024) и требуют нарезки видео на перекрывающиеся патчи. Это:
• сильно замедляет работу
• усложняет обработку длинных и больших видео
🚀 Что нового в SeedVR2:
• Восстановление на любом разрешении без заранее обученного диффузионного приоритета
• Архитектура с крупным диффузионным трансформером, обученным с нуля
▪Github: https://github.com/ByteDance-Seed/SeedVR
x
▪ Веса: https://huggingface.co/ByteDance-Seed/SeedVR-Models
@ai_machinelearning_big_data
#news #ai #ml #ByteDance #video
🔥 Опубликован 65-й выпуск рейтинга TOP500 — списка самых мощных суперкомпьютеров мира
💡 Тройка лидеров осталась неизменной:
• El Capitan (США, Ливерморская нац. лаборатория):
11 млн CPU ядер (AMD EPYC + GPU AMD MI300X),
1.742 экзафлопса, ОС HPE Cray OS (SUSE Linux).
• Frontier (США, Ок-Ридж):
9 млн CPU (AMD EPYC + MI250X),
1.353 экзафлопса, ОС HPE Cray OS.
• Aurora (США, Аргонн):
9.2 млн CPU (Intel Xeon Max + GPU Max),
1.012 экзафлопса, ОС SUSE Linux Enterprise Server 15 SP4.
🔹 На 4-е место вышел JUPITER Booster (Германия):
4.8 млн ядер (NVIDIA GH200), 793 петафлопса, ОС RHEL.
🔟 **Кластеры 5–10 мест:**
- Eagle (Microsoft Azure, США): 561 петафлопс
- HPC6 (ЭНИ, Италия): 477 петафлопс
- Fugaku (Япония): 442 петафлопса
- Alps (Швейцария): 434 петафлопса
- LUMI (Финляндия): 379 петафлопс
- Leonardo (CINECA, Италия): 241 петафлопс
🇷🇺 Российские суперкомпьютеры:
- Червоненкис (Яндекс): 75 место, 21.5 петафлопса
- Галушкин (Яндекс): 102 место, 16 петафлопс
- Ляпунов (Яндекс): 120 место, 12.8 петафлопса
- Christofari Neo (Сбер): 125 место, 11.95 петафлопса
- Christofari (Сбер): 201 место
- Lomonosov 2: 495 место (в 2015 году был на 31 месте)
🌍 Страны по количеству систем:
- США: 175 кластеров (48.4% производительности)
- Китай: 47 кластеров (2%)
- Германия: 41 (8.6%)
- Япония: 39 (8.9%)
- Франция: 25 (2.4%)
- Италия: 17 (6.3%)
- Россия: 6 (0.1%)
🧠 Тренды:
- Все 500 систем используют Linux.
- Дистрибутивы: неизвестно (38.2%), RHEL (20%), Ubuntu (11.8%), Cray Linux (9.8%), CentOS (8.2%), Rocky (5.8%), SUSE (4.2%), Alma (1.6%)
- Минимальный порог входа в рейтинг: 2.44 петафлопса.
- Общее число процессорных ядер: 137.6 млн.
- С ускорителями работают 234 кластера (в основном NVIDIA A100).
🔧 Лидеры среди производителей:
- Lenovo (27.2%)
- HPE (26.4%)
- EVIDEN (11%)
- Dell EMC (8.2%)
- NVIDIA (5.4%)
🌐 Сети:
- InfiniBand — 54.2% (40.3% производительности)
- Ethernet — 32.8% (52.2%)
- Omni-Path — 6.6%
📊 Также обновлён рейтинг Graph500 (оценка задач с графами)
и интегрированы рейтинги Green500, HPCG и HPL-AI.
🔥 За 10 лет производительность Top500 выросла с 0.31 до 13.8 экзафлопсов. Для входа в Top100 теперь нужно минимум 16.59 петафлопса.
📌 Подробнее
@ai_machinelearning_big_data
#news #ai #ml
💡 Тройка лидеров осталась неизменной:
• El Capitan (США, Ливерморская нац. лаборатория):
11 млн CPU ядер (AMD EPYC + GPU AMD MI300X),
1.742 экзафлопса, ОС HPE Cray OS (SUSE Linux).
• Frontier (США, Ок-Ридж):
9 млн CPU (AMD EPYC + MI250X),
1.353 экзафлопса, ОС HPE Cray OS.
• Aurora (США, Аргонн):
9.2 млн CPU (Intel Xeon Max + GPU Max),
1.012 экзафлопса, ОС SUSE Linux Enterprise Server 15 SP4.
🔹 На 4-е место вышел JUPITER Booster (Германия):
4.8 млн ядер (NVIDIA GH200), 793 петафлопса, ОС RHEL.
🔟 **Кластеры 5–10 мест:**
- Eagle (Microsoft Azure, США): 561 петафлопс
- HPC6 (ЭНИ, Италия): 477 петафлопс
- Fugaku (Япония): 442 петафлопса
- Alps (Швейцария): 434 петафлопса
- LUMI (Финляндия): 379 петафлопс
- Leonardo (CINECA, Италия): 241 петафлопс
🇷🇺 Российские суперкомпьютеры:
- Червоненкис (Яндекс): 75 место, 21.5 петафлопса
- Галушкин (Яндекс): 102 место, 16 петафлопс
- Ляпунов (Яндекс): 120 место, 12.8 петафлопса
- Christofari Neo (Сбер): 125 место, 11.95 петафлопса
- Christofari (Сбер): 201 место
- Lomonosov 2: 495 место (в 2015 году был на 31 месте)
🌍 Страны по количеству систем:
- США: 175 кластеров (48.4% производительности)
- Китай: 47 кластеров (2%)
- Германия: 41 (8.6%)
- Япония: 39 (8.9%)
- Франция: 25 (2.4%)
- Италия: 17 (6.3%)
- Россия: 6 (0.1%)
🧠 Тренды:
- Все 500 систем используют Linux.
- Дистрибутивы: неизвестно (38.2%), RHEL (20%), Ubuntu (11.8%), Cray Linux (9.8%), CentOS (8.2%), Rocky (5.8%), SUSE (4.2%), Alma (1.6%)
- Минимальный порог входа в рейтинг: 2.44 петафлопса.
- Общее число процессорных ядер: 137.6 млн.
- С ускорителями работают 234 кластера (в основном NVIDIA A100).
🔧 Лидеры среди производителей:
- Lenovo (27.2%)
- HPE (26.4%)
- EVIDEN (11%)
- Dell EMC (8.2%)
- NVIDIA (5.4%)
🌐 Сети:
- InfiniBand — 54.2% (40.3% производительности)
- Ethernet — 32.8% (52.2%)
- Omni-Path — 6.6%
📊 Также обновлён рейтинг Graph500 (оценка задач с графами)
и интегрированы рейтинги Green500, HPCG и HPL-AI.
🔥 За 10 лет производительность Top500 выросла с 0.31 до 13.8 экзафлопсов. Для входа в Top100 теперь нужно минимум 16.59 петафлопса.
📌 Подробнее
@ai_machinelearning_big_data
#news #ai #ml
AI-инфраструктура Авито: практические решения для LLM и VLM
На Data Fest 2025 команда Авито показала, как устроена их внутренняя ML разработка. В основе большинства продуктовых ИИ-решений — собственная языковая модель A-Vibe (до 7 млрд параметров, обучена на 700 млрд токенов). Для нее специально сделали токенизатор под русский язык — он обрабатывает тексты на 29% эффективнее стандартных. Это позволило в два раза ускорить работу модели. A-Vibe уже работает в продакшене и заняла первое место среди моделей до 7 миллиардов параметров в бенчмарке МЕРА.
Для техподдержки сделали инструмент на базе LLM: он переписывает ответы агентов, чтобы они звучали более эмпатично и по-человечески, и саммаризует обращения при передаче между сотрудниками. Агенты довольны: 97% отметили, что стало удобнее.
Под все это в Авито построили свою ML-платформу. В ней есть хранилище признаков для моделей, система разметки с проверкой качества и решение Aqueduct — оно встраивается прямо в модель и экономит до 30% ресурсов на инференсе. Платформа уже позволяет запускать продакшен-модели без программирования, через no-code интерфейс.
Стажеры тоже работают с реальными задачами — например, обучают модели с нуля и оптимизируют пайплайны. Один такой проект помог в 10 раз сократить расходы на проверку звонков.
Отдельный блок на фестивале занял ML Cup от Авито. Участники решали задачи по рекомендациям и поиску дублей — те же, что крутятся в продакшене и обрабатывают 4 миллиарда событий в день. За два месяца подали 6500 решений, в конкурсе участвовало почти 900 человек.
На Data Fest 2025 команда Авито показала, как устроена их внутренняя ML разработка. В основе большинства продуктовых ИИ-решений — собственная языковая модель A-Vibe (до 7 млрд параметров, обучена на 700 млрд токенов). Для нее специально сделали токенизатор под русский язык — он обрабатывает тексты на 29% эффективнее стандартных. Это позволило в два раза ускорить работу модели. A-Vibe уже работает в продакшене и заняла первое место среди моделей до 7 миллиардов параметров в бенчмарке МЕРА.
Для техподдержки сделали инструмент на базе LLM: он переписывает ответы агентов, чтобы они звучали более эмпатично и по-человечески, и саммаризует обращения при передаче между сотрудниками. Агенты довольны: 97% отметили, что стало удобнее.
Под все это в Авито построили свою ML-платформу. В ней есть хранилище признаков для моделей, система разметки с проверкой качества и решение Aqueduct — оно встраивается прямо в модель и экономит до 30% ресурсов на инференсе. Платформа уже позволяет запускать продакшен-модели без программирования, через no-code интерфейс.
Стажеры тоже работают с реальными задачами — например, обучают модели с нуля и оптимизируют пайплайны. Один такой проект помог в 10 раз сократить расходы на проверку звонков.
Отдельный блок на фестивале занял ML Cup от Авито. Участники решали задачи по рекомендациям и поиску дублей — те же, что крутятся в продакшене и обрабатывают 4 миллиарда событий в день. За два месяца подали 6500 решений, в конкурсе участвовало почти 900 человек.
Media is too big
VIEW IN TELEGRAM
🔥 Manus Chat Mode — чат с ИИ бесплатно и без ограничений для всех!
💬 Работает супер быстро.
🚀 Так же доступен Agent Mode с расширенными возможностями.
От простых вопросов до сложных задач — всё в одном окне : https://manus.im/
@ai_machinelearning_big_data
#news #ai #ml #manus
💬 Работает супер быстро.
🚀 Так же доступен Agent Mode с расширенными возможностями.
От простых вопросов до сложных задач — всё в одном окне : https://manus.im/
@ai_machinelearning_big_data
#news #ai #ml #manus
Media is too big
VIEW IN TELEGRAM
Новые графические процессоры серии Rubin R100 и процессоры Vera, вероятно, дебютируют в сентябре. Это стало возможным благодаря ускорению графика разработки — теперь обновления выходят каждые 6 месяцев вместо традиционных 12.
Rubin R100 будет использовать память HBM4, литографию TSMC 3 нм и упаковку CoWoS-L, а также впервые внедрит чиплет-дизайн с 4-кратным увеличением площади кристалла. . Вместе с этим линейка Vera сменит ARM-процессоры Grace и будет основан на новом поколении ядер ARM, обещая значительный прирост производительности. Смена графика разработки несет в себе риски: рынок может не успеть адаптироваться, а первые партии часто сталкиваются с проблемами, как это было с Blackwell.
ctee.com.tw
Google Cloud анонсировал превью новых виртуальных машин G4 на базе GPU NVIDIA RTX PRO 6000 Blackwell, став первым публичным облаком, внедрившим эту технологию. Каждый экземпляр объединяет 8 GPU, два процессора AMD Turin с 384 виртуальными ядрами и 1,5 ТБ памяти DDR5, а также сетевые ускорители Titanium с пропускной способностью до 400 Гб/с. Все это дает в 4 раза большую вычислительную мощность и увеличенную в 6 раз пропускную способность памяти по сравнению с предыдущим поколением.
G4 подходит для задач от ИИ-инференса до рендеринга и симуляций с физически точными расчетами. RT-ядра ускоряют трассировку лучей для реалистичной графики, а фреймворк NVIDIA Dynamo оптимизирует обработку генеративных моделей.
Экземпляры будут доступны в составе системы AI Hypercomputer и получат интеграцию с сервисами Google Cloud. Доступность новых VM - ближе к концу года.
cloud.google.com
OpenAI откладывает релиз открытой языковой модели до конца этого лета, сообщил генеральный директор Сэм Альтман в X. Первоначально модель планировалось выпустить до конца июня и она, по обещаниям, должна быть с ризонингом.
Альтман сказал, что исследовательская группа достигла неожиданного прогресса, который теперь требует больше времени, назвав результат "стоящим ожидания".
Sam Altman в сети X
Компании подали совместный иск против разработчика ИИ-генератора Midjourney, обвиняя его в нелегальном создании изображений персонажей Дарта Вейдера и Миньонов. Судебный иск был зарегистрирован в федеральном суде Калифорнии, где стороны заявили, что Midjourney продолжал использовать защищенные авторским правом материалы даже после предыдущих требований остановить это.
Студии требуют компенсации убытков, запрета на дальнейшее использование образов и проведения судебного разбирательства с присяжными. Midjourney пока не ответила на запрос публично.
wsj.com
ChatGPT 4o потерпел неожиданное поражение от шахматной игры 1979 года для консоли Atari 2600 — даже на уровне «начинающий». Инженер Robert Caruso протестировал систему через эмулятор, удивившись, как ChatGPT повторял грубые ошибки: забывал где находятся фигуры и путал их, обвинял слишком абстрактные иконки Atari и пропускал элементарные угрозы.
Программа Atari, работавшая на процессоре 1.19 МГц и анализировавшая лишь 1-2 хода вперед, обыграла нейросеть без шансов на победу. Хотя Роберт менял оформление фигур, пытаясь облегчить задачу, ChatGPT продолжал «тупить», давал обещания выиграть в следующей партии, но в итоге сдался.
tomshardware.com
V-JEPA 2 — новая версия модели Joint Embedding Predictive Architecture, обученной на видео.
Она задаёт новый стандарт в визуальном понимании, предсказании и планировании действий в физическом мире.
Github
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
🚀 Cosmos-Predict2 — новая открытая версия видео-модели для Physical AI от NVIDIA!
Cosmos-Predict2 — ключевая часть экосистемы World Foundation Models (WFMs), созданная для Physical AI. Модель умеет предсказывать будущее состояние визуального мира, используя текст и видео. Cosmos разработан для ускорения обучения моделей, которые понимают физику, среду и действия — от автономных автомобилей до роботов. Выглядит очень интересно.
Это самое мощное поколение моделей в экосистеме Cosmos. Модель заметно улучшена по сравнению с Predict1:
🎯 лучшее качество видео
🧠 точнее соответствует текстовому описанию
🎥 более реалистичная динамика движения
📊 Cosmos-Predict2 превосходит другие open-source видео foundation-модели.
▪ Веса
▪ Полный код для инференса и обучения (с туториалами)
@ai_machinelearning_big_data
#Cosmos #NVIDIA
Cosmos-Predict2 — ключевая часть экосистемы World Foundation Models (WFMs), созданная для Physical AI. Модель умеет предсказывать будущее состояние визуального мира, используя текст и видео. Cosmos разработан для ускорения обучения моделей, которые понимают физику, среду и действия — от автономных автомобилей до роботов. Выглядит очень интересно.
Это самое мощное поколение моделей в экосистеме Cosmos. Модель заметно улучшена по сравнению с Predict1:
🎯 лучшее качество видео
🧠 точнее соответствует текстовому описанию
🎥 более реалистичная динамика движения
📊 Cosmos-Predict2 превосходит другие open-source видео foundation-модели.
▪ Веса
▪ Полный код для инференса и обучения (с туториалами)
@ai_machinelearning_big_data
#Cosmos #NVIDIA
Media is too big
VIEW IN TELEGRAM
По аналогии с автосалонами, робототехнический 4S будет предлагать полный цикл: продажи (Sales), сервис (Service), запчасти (Spare parts) и консультации/анализ (Surveys). Планируется зона с демонстрацией роботов в реалистичных сценариях – можно будет всё пощупать руками и увидеть их возможности в деле. Плюс создадут быструю сеть поставки комплектующих по стране и соберут профильную команду для сборки, ремонта и обслуживания машин.
Первыми партнерами станут несколько лидеров сферы: UBTECH и Galaxea. Откроется центр в августе на базе промпарка в районе Ичжуан на юге столицы.
english.news.cn
The Browser Company открыл доступ к бета-версии браузера Dia (по инвайтам). Dia позиционируется как решение, где ИИ глубоко интегрирован в самую суть взаимодействия, он встроен прямо в рабочий процесс пользователя, избавляя от необходимости постоянно ходить на сайты ChatGPT или Claude.
Dia построен на Chromium, так что интерфейс многим знаком. Главная фича — умная адресная строка: она работает и как поиск, и как чат-бот с ИИ. Помощник умеет искать в сети, суммировать загруженные файлы, автоматически переключаться между режимами. Можно даже спросить его о содержимом всех открытых вкладок или попросить составить черновик на их основе.
Настройки производятся через диалог с ботом: можно задать тон, стиль письма, параметры для кода. Опция History (по желанию) позволяет браузеру использовать недельную историю просмотров как контекст для ответов. А функция Skills помогает создавать мини-скрипты — ярлыки для сложных настроек или действий.
techcrunch.com
Mistral AI анонсировала Mistral Compute - инфраструктурную платформу для разработки и запуска ИИ. Это полноценный приватный стек: от GPU и систем оркестрации до API и сервисов. На выбор любой формат, от bare-metal до полностью управляемой PaaS.
Mistral Compute нацелен дать государствам, компаниям и научным центрам, ищущих альтернативу решениям из США или Китая, возможность самим строить ИИ-среду под свои нужды и полностью ею владеть.
Платформа использует новейшие архитектуры NVIDIA, с доступом к десяткам тысяч GPU. Она создана командой с огромным опытом в HPC и обучении топовых ИИ-моделей. Ключевые акценты: устойчивость и суверенитет данных, инфраструктура соответствует строгим европейским нормам и работает на декарбонизированной энергии.
mistral.ai
Seedance 1.0 - новая генеративная модель для создания видео, которая, по утверждениям ByteDance, превосходит конкурентов в точности выполнения запросов, качестве движений и резкости изображения. В тестах на Artificial Analysis она лидирует в задачах text-to-video и image-to-video, обходя Google Veo 3, Kuaishou Kling 2.0 и OpenAI Sora. Модель справляется с длинными сценами, сохраняя стабильность персонажей и переходов между ракурсами, но пока не поддерживает добавление звука.
Seedance 1.0 генерирует 5-секундный Full HD-ролик за 41 секунду — это быстрее аналогов, хотя новый Google Veo 3 Fast может нивелировать это преимущество. Инструмент планируют внедрить в платформы Doubao и Jimeng. Целевая аудитория — от профессиональных видеомейкеров до обычных пользователей.
seed.bytedance.com
Midjourney объявила о начале открытого тестирования модели генерации видео по текстовым запросам. Задача тестирования собрать обратную связь для улучшения алгоритма.
Создатели пригласили сообщество принять участие в онлайн-рейтинге сгенерированных роликов, присоединиться можно по ссылке. Пока некоторые образцы выглядят достойно и сохраняют фирменный стиль Midjourney, но в целом результаты пока нестабильны.
Компания подчеркивает: это не финальная версия модели, а лишь первый шаг. Дополнительные сессии тестирования уже запланированы, но дату релиза и цену пока не раскрывают.
midjourney.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM