Telegram Group Search
Qwen-2.5-Max - китайцам тоже сложно конкурировать с DeepSeek

На бенчах соревнуется с фронтирными не-reasoner моделями, но стоит как reasoner.

Цена тут и правда MAX. За модель просят 10 долларов за миллион токенов на вход и 30 долларов за миллион токенов на выход. Это, если что, в разы дороже чем все конкуренты - в 2.5x дороже чем Sonnet и аж в 30x дороже DeepSeek V3. Причём Qwen тут не предлагает никаких фич для оптимизации цен, даже тех, что уже стали стандартом.

Основное достоинство модели при такой цене - то, что её главный конкурент в Китае находится под жуткой нагрузкой уже второй день и не может выдержать всех желающих.

Ко всему прочему это закрытая модель, как и все современные MoE модельки Qwen. Бесплатно потестить можно в их чат интерфейсе.

chat.qwenlm.ai

Хух, в Китае наступил Китайский Новый год и релизов от них должно стать чуть меньше

@ai_newz
Опенсорс Suno🤡🤡🤡

Наконец-то в опенсорс генераторах музыки сподвижки. Угадайте, кто? Правильно, китайцы YuE — по-русски йе! Yeah, ну или просто 乐. По звуку похоже скорее на Suno v2, но и это уже очень хорошо. Примеры в видосе и полные треки в комментариях.

К сожалению, какого-то демо не нашёл, поэтому своих тестов нет. Пейпер обещают скоро, а вот раскатить модельку у себя уже можно. Потребуется только 24 GB VRAM, то есть 4090 может осилить.

Ждём, когда оптимизируют и понаделают всякие финтифлюшки, по типу звуковых IP-адаптеров и контролнетов. :)

Модели на HF
Project page
GitHub

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Фотоотчет с тусовки "эйай ньюз" на Бали

Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!

Как всегда было очень круто - интересные люди (не обошлось и без присущих Бали приколов), классное пространство (отдельное спасибо Ash Nuanu), и глубокие разговоры про AI! Кстати, это был первый раз, когда подготовка к ивенту была настолько серьезной, что у нас было даже целых два микрофона, чтобы все могли хорошо слышать дискуссию и задавать вопросы.

Я в очередной раз приятно удивлен концентрацией умных, приятных и талантливых людей в нашем комьюнити!

---

Как вы уже могли заметить, я очень люблю организовывать такие тусы. Поэтому, пользуясь случаем, хочу анонсировать, что я буду на Кипре, в Лимассоле на этих выходных и хочу там тоже организовать сходку! Ориентировочно в Вск вечером 2.02.2025. За подробностями присоединяйтесь к Кипрскому чату, если вы на Кипре. Буду рас вас всех увидеть!

@ai_newz
Mistral Small 3

О, вот и новая моделька от Mistral, от который уже несколько месяцев не было опенсорс релизов. 24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.

Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.

magnet:?xt=urn:btih:11f2d1ca613ccf5a5c60104db9f3babdfa2e6003&dn=Mistral-Small-3-Instruct&tr=udp%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=http%3A%2F%http://2Fopen.tracker.cl%3A1337%2Fannounce

Блогпост

@ai_newz
эйай ньюз
Пришли ревью с ICLR. Мы получили отличные рецензии! Но как всегда есть тот самый Reviewer #2, который порет какую-то фигню. С поддержкой остальных ревьюеров, думаю, мы легко сможем опровергнуть R2, и, надеюсь, статья будет принята. Что за статья пока точно…
В суматохе работы cовсем забыл поделиться хорошими новостями! Нашу статейку приняли на ICLR – spotlight! Ну, и кстати, я впервые сабмитил что-то на ICLR, до этого были либо конференции по зрению либо NeurIPS.

Это моя первая статья непосредственно по LLM, мы там представляем новый метод по значительному ускорению инференса 405-миллиардной модели.

В ближайшие дни будет на архиве, тогда и напишу про нее подробнее.

#резерч

@ai_newz
Qwen Video?

Пару дней назад я писал про Qwen-2.5-Maxвот тут. Так вот, туда прикрутили видео генератор! Он не встроенный, конечно, тут дёргается сторонняя диффузионная модель.

Теперь доступ к видео есть почти у всех (в ЕС не работает, работает под американским и британским VPN).

Ну, как для всех… Сервера, конечно, лежат, как это часто бывает с релизом видео-моделей. Это уже как будто must-have: если сервера не падают, значит, ваша модель – никому не нужная хрень. Так что, если бы я делал свой стартап, то положил бы серверы специально 😂

Подробностей про эту модельку нет от слова совсем, только текст на вотермарке – TONGYI WANX. Однако качество и следование промпту оч добротное, анатомия в том числе. Можно было бы подумать, что это Kling 1.6 или Minimax, подключенный по API, но Qwen лепит свою вотермарку на видосы, да еще и генерит их бесплатно. Поэтому в этой версии возникают сомнения. Кто-то предположил, что это может быть новый Minimax, они вроде бы связаны с Qwen через Alibaba.

Я собрал черипики из твиттера на оценку местным мастерам. Еще примеры в комментариях. Как думаете, это новая безымянная модель от Qwen или что-то из уже известных?

chat.qwenlm.ai

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI выпустили o3-mini - бесплатно

Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.

Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).

У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.

Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.

Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.

@ai_newz
У ChatGPT 15,5 миллионов платных подписчиков

По данным The Information, с сентября добавилось более 4 миллионов подписчиков. Их доля общем количестве юзеров не растёт и составляет около 5%, а рост в количестве подписчиков обусловлен ростом юзербазы, которая за 2024 год утроилась.

А вот средняя выручка с подписчика растёт - Pro подписка уже приносит больше выручки чем Enterprise, то есть количество Pro подписчиков уже измеряется в сотнях тысяч. При этом всём, по заявлениям Сэма Альтмана, подписка месяц назад была убыточной - OpenAI не расчитывали на такое активное использование. При таких вводных подписка в $2,000 звучит уже не так безумно как несколько месяцев назад.

Ещё быстрее подписок росла выручка с API - за 2024 она выросла в 7 раз, при том что компания несколько раз за 2024 год сбрасывала цены. Вот вам и наглядная иллюстрация парадокса Джевонса.

При этом всём, сколько именно зарабатывают сейчас OpenAI понять трудно. Хоть мы и знаем, что за первое полугодие 2024 проекция выручки удвоилась до $3,4 миллиарда долларов в год, но как повлияли на выручку запуск Voice API и o1 - незвестно. Зато известно что переговоры про новый раунд инвестиций размером в $40 миллиардов, ведутся уже при оценке компании в $260 миллиардов, что на 73% выше оценки в октябре 2024

@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Датамайнеры нашли в Claude (пока) не релизнутую возможность заплатить за "сброс" лимита сообщений, когда сообщения заканчиваются. Сколько это будет стоить - пока что непонятно.

У Claude последние несколько месяцев всё очень плохо с лимитами - они у Anthropic динамические и зависят от нагрузки, но серверов им не хватает и нагрузка там всегда очень высокая и лимиты крайне маленькие. Я, в последние несколько месяцев, много раз видел в твиттере пользователей умоляющих о такой функции, ну вот они и прислушались. Но насколько нужно это сейчас, когда есть несколько серьёзных конкурентов без таких проблем с лимитами, куда и перешла значительная часть пользователей Claude - вопрос.

А вам какой из новых способов монетизации низких лимитов больше нравится - этот, или подписка за $200?

@ai_newz
Нейродайджест за неделю (#54)

LLM
- DeepSeek — топ 1 — текущее состояние апсторов.
- R1 + Perplexity — один из лучших AI-поисковиков добавил режим с DeepSeek R1.
- Кратко о релизах Qwen — Qwen 2.5 VL (визуальная модель), новый интерфейс, Qwen 2.5-1M с 1 млн токенов контекста.
- Qwen 2.5 Max — тестируем в чате. Это не лучше, чем R1, но есть много фич, например, генерация картинок и артефакты.
- Mistral Small 3 — довольно маленькая, зато можно погонять на 3090. А лицензия Apache просто сок — можно юзать в проде без заморочек.
- Трамп про DeepSeek — успехи китайцев дошли даже до президента. Когда тебя так нагибают, нужно что-то сказать.
- Сброс лимитов в Claude – датамайнеры нашли ещё не анонсированную фичу, которая обещает стать спасением для тех, кто любит потранжирить токены.
- OpenAI o3-mini — главный релиз недели! Топ-1 в коде. OpenAI не хочет отдавать первенство и поспешил с релизом. Можно потыкаться даже без подписки.

Генеративные модели
- YuE — добротный генератор музыки с открытым исходным кодом. Станет ли он Stable Diffusion в мире музыки — пока неясно, но движение в этом направлении есть.
- Qwen Video — таинственный видеогенератор из чата Qwen. О нём совсем нет информации, но генерит он сносно, да ещё и бесплатно.

Чуть про меня

- Сходка на Бали — отчёт с фотками со встречи. Как всегда, прекрасно поболтали! + Анонс новой сходки сегодня (2 февраля) на Кипре.
- Моя первая принятая статья на ICLR — впервые работаю непосредственно над LLM. Ускоряем 405B модель.

Прочее
- Сколько зарабатывает OpenAI? — The Information слил примерные цифры.

> Читать дайджест #53

#дайджест
@ai_newz
Deep Research - продвинутый поиск от OpenAI

Выглядит это так - вы описываете модели что бы вы хотели узнать, она задаёт уточняющие вопросы и начинает поиск. Он занимает от 5 минут, до, примерно, получаса. Модель ищет новую инфу на основе уже найденой и возвращается с детальным репортом, с указанием источников.

Основана модель для Deep Research на ещё не релизнутой o3, которую зафайнтюнили делать поиск в интернете. Кроме обычного поиска ей в руки дали ещё и интерпретатор питона - так что она сможет строить графики и другие визуализации, на основе найденной информации.

На Humanity's last exam она умудряется набрать 26,6%, правда используя внешние источники и Python. И двух недель не прошло, а топовые результаты на бенче уже практически утроились с 9,4% на старте.

Фича уже доступна Pro подписчикам (100 запросов в месяц), Plus и Team на очереди (~10 запросов в месяц), остальные получат ещё позже. У гугла, если что, такая же фича запустилась ещё в декабре. Правда внутри там Gemini 1.5 Pro, так что качество по идее заметно хуже. Если кто-то пользовался - как ваши впечатления?

@ai_newz
2025/02/04 06:20:36
Back to Top
HTML Embed Code: