Telegram Group Search
Please open Telegram to view this post
VIEW IN TELEGRAM
Вот как изменилась доля трафика на рынке ИИ за последние полгода:

🗓️ 6 месяцев назад:
🥇 ChatGPT: 87,5%
🥈 Google: 5,4%
🥉 Perplexity: 2,0%
Claude: 1,6%

🗓️ 3 месяца назад:
🥇 ChatGPT: 77,6% (−9,9%)
🥈 DeepSeek: 8,1% (новый игрок!)
🥉 Google: 4,9%
🤖 Grok: 2,7% (входит в игру от X)
🚀 Perplexity: 2,0%

🗓️ 1 месяц назад:
🥇 ChatGPT: 80,2% (+2,6%)
🥈 Google: 6,1% (+1,2%)
🥉DeepSeek: 5,9% (−2,2%)
🤖 Grok: 2,4%
🚀 Perplexity: 1,6%
Claude: 1,2%

🗓️ Сейчас:
🥇 ChatGPT: 78,9% (−1,3%)
🥈 Google: 8,0% (+1,9% 📈)
🥉 DeepSeek: 5,3% (−0,6%)
🤖 Grok: 2,1% (−0,3%)
🚀Perplexity: 1,7% (+0,1%)
Claude: 1,4% (+0,2%)

Главные выводы:
- ChatGPT по-прежнему лидирует, но понемногу теряет долю рынка (−8,6% за полгода).
- Google стабильно растёт (+2,6% с прошлого года).
- DeepSeek мощно стартовал, но в последнее время сдал позиции.
- Grok и Perplexity держатся, а Claude показывает небольшой рост.

@ai_machinelearning_big_data


#GenAI #ТрендыРынка
⚡️ Mistral выпустила ризонинг-модель Magistral.

Magistral — первая модель рассуждений от Mistral AI. Она сочетает глубокую логическую обработку с возможностью отслеживать каждый шаг её «мышления».

Модель получила поддержку 8 языков, включая русский и выпущена в 2 вариантах:

🟢опенсорсный Magistral Small с 24 млрд. параметров;

🟠корпоративный Magistral Medium.

Внутри Magistral работает в режиме рассуждений, разбивая задачи на цепочки логических шагов, а Flash Answers ускоряет вывод в 10 раз по сравнению с конкурентами. Для интеграции в рабочие процессы модель умеет взаимодействовать с внешними инструментами (API или базами данных).

В тестах Magistral Medium показал 73,6% точности на задачах AIME2024, демонстрируя силу в физических симуляциях и математических расчетах.

Для разработчиков доступны версии на Hugging Face, AWS и IBM WatsonX, а в будущем — на Azure и Google Cloud. Демо Magistral доступно в интерфейсе Le Chat или по API в La Plateforme.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Модель
🟡Техотчет
🟡Web Demo


@ai_machinelearning_big_data

#AI #ML #LLM #Magistral #MistralAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Сэм Альтман анонсирует снижение стоимости на о3 на 80%

Гендир OpenAI объявил о снижении цены на o3 на 80% и намекнул на предстоящий выпуск o3-pro.

Говорит, что нам понравится соотношение цена\перфоманс у о3-pro.


Пост Sam Altman в сети Х
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 Новая версия модели постепенно становится доступна всем пользователям подписки ChatGPT Pro и через API.

В экспертных оценках тестировщики отдают предпочтение OpenAI o3-pro по сравнению с o3.

https://x.com/OpenAI/status/1932530409684005048

@ai_machinelearning_big_data

#chatgpt #openai #o3pro
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI переходит к Google Cloud для расширения вычислительных мощностей.

OpenAI договорилась с Google Cloud о поставках вычислительных ресурсов для тренировки и запуска своих моделей - неожиданный шаг для конкурентов в сфере ИИ. Ранее OpenAI зависела от Microsoft Azure, но теперь диверсифицирует поставщиков, заключив сделки с Oracle и SoftBank на $500 млрд для проекта Stargate.

Google предоставит доступ к собственным чипам TPU, которые ранее использовались только внутри компании. Это усиливает позиции Google Cloud, конкурирующего с Amazon и Microsoft за клиентов среди ИИ-стартапов. Внутренние проблемы с мощностями у Google и одновременная конкуренция через DeepMind создают сложные задачи для управления ресурсами в новом партнерстве.
reuters.com

✔️ IBM планирует создать первый в мире устойчивый к ошибкам квантовый компьютер к 2029 году.

IBM заявила о планах построить первый в истории крупномасштабный квантовый компьютер Quantum Starling до конца десятилетия. Он будет в 20 тысяч раз мощнее современных квантовых систем, используя новые методы исправления ошибок — коды qLDPC и реальное время коррекции с помощью классических вычислений.

Аналитики осторожны: коммерческая выгода пока неочевидна, а детали запуска систем туманны. Тем не менее, IBM подчеркивает, что ее дорожная карта самая прозрачная в индустрии, призывая разработчиков готовить алгоритмы для будущих машин.
wsj.com

✔️ Марк Цукерберг создает лабораторию для разработки суперинтеллекта.

Цукерберг анонсировал создание новой лаборатории по исследованию «суперинтеллекта» — гипотетической ИИ-системы, превосходящей возможности человеческого мозга. В рамках проекта, она договорилась о сотрудничестве с Алексом Ваном, основателем Scale AI, и планирует инвестировать в его компанию, одновременно переманивая ключевых специалистов.

Источники сообщают, что компания Марка Цукерберга предлагает исследователям из OpenAI, Google и других крупных компаний зарплаты от сотен тысяч до миллионов долларов. Это часть масштабной перестройки ИИ-направления, которое столкнулось с внутренними конфликтами, текучкой кадров и неудачными запусками продуктов.
nytimes.com

✔️ Qualcomm представила чип для AR-очков с локальной обработкой ИИ.

Qualcomm анонсировала процессор Snapdragon AR1+ Gen 1 для умных очков, способный запускать ИИ без подключения к облаку или смартфону. Это позволяет пользователям использовать функции голосового ассистента или отображения текста прямо на стеклах без дополнительных устройств. Чип на 28% компактнее предыдущей версии, что позволяет уменьшить размеры оправы на 20%.

Новинка поддерживает бинокулярное изображение, стабилизацию и обработку нескольких кадров одновременно. Главная фишка - NPU третьего поколения, способный запускать небольшие модели локально.
engadget.com

✔️ Исследование: токсичные данные из 4chan помогают тренировать «устойчивые» ИИ.

Традиционный подход к очистке данных перед обучением LLM оказался не самым эффективным. Ученые выяснили, что добавление небольшого количества провокационного контента из 4chan (до 10%) улучшает «детоксикацию» моделей на поздних этапах. Модель Olmo-1B, обученная на смеси токсичных постов и чистого датасета C4, показала, что ядовитые идеи в модели становятся четче, а значит — их проще подавлять.

Методы вроде коррекции при генерации текста работают точнее, если модель «видела» токсичность заранее. Однако переизбыток 4chan-данных сводит эффект к нулю: модель становится агрессивной и сложной для контроля.

Исследователи предполагают, что аналогичный подход применим к другим «чувствительным» темам — от стереотипов до политики.
arxiv.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🎥 Веса и инференс для SeedVR2 — многообещающей модели для восстановления видео.

🛠️ Что это?
SeedVR2 — одношаговая диффузионная модель для восстановления видео, которая проходит пост-тренировку в противоборстве с реальными данными.

Она показывает отличные результаты даже на высоком разрешении.

🔍 Зачем нужна SeedVR2?
Обычные модели плохо справляются с AIGC и реальными видео — особенно в мелких деталях вроде текста и лиц.
Даже продвинутые диффузионные методы, использующие ControlNet или адаптеры, работают только на фиксированном разрешении (512, 1024) и требуют нарезки видео на перекрывающиеся патчи. Это:
• сильно замедляет работу
• усложняет обработку длинных и больших видео

🚀 Что нового в SeedVR2:
• Восстановление на любом разрешении без заранее обученного диффузионного приоритета
• Архитектура с крупным диффузионным трансформером, обученным с нуля

Github: https://github.com/ByteDance-Seed/SeedVR
x
Веса: https://huggingface.co/ByteDance-Seed/SeedVR-Models

@ai_machinelearning_big_data

#news #ai #ml #ByteDance #video
🔥 Опубликован 65-й выпуск рейтинга TOP500 — списка самых мощных суперкомпьютеров мира

💡 Тройка лидеров осталась неизменной:

El Capitan (США, Ливерморская нац. лаборатория):
11 млн CPU ядер (AMD EPYC + GPU AMD MI300X),
1.742 экзафлопса, ОС HPE Cray OS (SUSE Linux).

Frontier (США, Ок-Ридж):
9 млн CPU (AMD EPYC + MI250X),
1.353 экзафлопса, ОС HPE Cray OS.

Aurora (США, Аргонн):
9.2 млн CPU (Intel Xeon Max + GPU Max),
1.012 экзафлопса, ОС SUSE Linux Enterprise Server 15 SP4.

🔹 На 4-е место вышел JUPITER Booster (Германия):
4.8 млн ядер (NVIDIA GH200), 793 петафлопса, ОС RHEL.

🔟 **Кластеры 5–10 мест:**
- Eagle (Microsoft Azure, США): 561 петафлопс
- HPC6 (ЭНИ, Италия): 477 петафлопс
- Fugaku (Япония): 442 петафлопса
- Alps (Швейцария): 434 петафлопса
- LUMI (Финляндия): 379 петафлопс
- Leonardo (CINECA, Италия): 241 петафлопс

🇷🇺 Российские суперкомпьютеры:
- Червоненкис (Яндекс): 75 место, 21.5 петафлопса
- Галушкин (Яндекс): 102 место, 16 петафлопс
- Ляпунов (Яндекс): 120 место, 12.8 петафлопса
- Christofari Neo (Сбер): 125 место, 11.95 петафлопса
- Christofari (Сбер): 201 место
- Lomonosov 2: 495 место (в 2015 году был на 31 месте)

🌍 Страны по количеству систем:
- США: 175 кластеров (48.4% производительности)
- Китай: 47 кластеров (2%)
- Германия: 41 (8.6%)
- Япония: 39 (8.9%)
- Франция: 25 (2.4%)
- Италия: 17 (6.3%)
- Россия: 6 (0.1%)

🧠 Тренды:
- Все 500 систем используют Linux.
- Дистрибутивы: неизвестно (38.2%), RHEL (20%), Ubuntu (11.8%), Cray Linux (9.8%), CentOS (8.2%), Rocky (5.8%), SUSE (4.2%), Alma (1.6%)
- Минимальный порог входа в рейтинг: 2.44 петафлопса.
- Общее число процессорных ядер: 137.6 млн.
- С ускорителями работают 234 кластера (в основном NVIDIA A100).

🔧 Лидеры среди производителей:
- Lenovo (27.2%)
- HPE (26.4%)
- EVIDEN (11%)
- Dell EMC (8.2%)
- NVIDIA (5.4%)

🌐 Сети:
- InfiniBand — 54.2% (40.3% производительности)
- Ethernet — 32.8% (52.2%)
- Omni-Path — 6.6%

📊 Также обновлён рейтинг Graph500 (оценка задач с графами)
и интегрированы рейтинги Green500, HPCG и HPL-AI.

🔥 За 10 лет производительность Top500 выросла с 0.31 до 13.8 экзафлопсов. Для входа в Top100 теперь нужно минимум 16.59 петафлопса.

📌 Подробнее

@ai_machinelearning_big_data

#news #ai #ml
AI-инфраструктура Авито: практические решения для LLM и VLM

На Data Fest 2025 команда Авито показала, как устроена их внутренняя ML разработка. В основе большинства продуктовых ИИ-решений — собственная языковая модель A-Vibe (до 7 млрд параметров, обучена на 700 млрд токенов). Для нее специально сделали токенизатор под русский язык — он обрабатывает тексты на 29% эффективнее стандартных. Это позволило в два раза ускорить работу модели. A-Vibe уже работает в продакшене и заняла первое место среди моделей до 7 миллиардов параметров в бенчмарке МЕРА.

Для техподдержки сделали инструмент на базе LLM: он переписывает ответы агентов, чтобы они звучали более эмпатично и по-человечески, и саммаризует обращения при передаче между сотрудниками. Агенты довольны: 97% отметили, что стало удобнее.

Под все это в Авито построили свою ML-платформу. В ней есть хранилище признаков для моделей, система разметки с проверкой качества и решение Aqueduct — оно встраивается прямо в модель и экономит до 30% ресурсов на инференсе. Платформа уже позволяет запускать продакшен-модели без программирования, через no-code интерфейс.

Стажеры тоже работают с реальными задачами — например, обучают модели с нуля и оптимизируют пайплайны. Один такой проект помог в 10 раз сократить расходы на проверку звонков.

Отдельный блок на фестивале занял ML Cup от Авито. Участники решали задачи по рекомендациям и поиску дублей — те же, что крутятся в продакшене и обрабатывают 4 миллиарда событий в день. За два месяца подали 6500 решений, в конкурсе участвовало почти 900 человек.
Media is too big
VIEW IN TELEGRAM
🔥 Manus Chat Mode — чат с ИИ бесплатно и без ограничений для всех!

💬 Работает супер быстро.

🚀 Так же доступен Agent Mode с расширенными возможностями.

От простых вопросов до сложных задач — всё в одном окне : https://manus.im/

@ai_machinelearning_big_data

#news #ai #ml #manus
2025/06/12 00:59:32
Back to Top
HTML Embed Code: