Qwen-2.5-Max - китайцам тоже сложно конкурировать с DeepSeek
На бенчах соревнуется с фронтирными не-reasoner моделями, но стоит как reasoner.
Цена тут и правда MAX. За модель просят 10 долларов за миллион токенов на вход и 30 долларов за миллион токенов на выход. Это, если что, в разы дороже чем все конкуренты - в 2.5x дороже чем Sonnet и аж в 30x дороже DeepSeek V3. Причём Qwen тут не предлагает никаких фич для оптимизации цен, даже тех, что уже стали стандартом.
Основное достоинство модели при такой цене - то, что её главный конкурент в Китае находится под жуткой нагрузкой уже второй день и не может выдержать всех желающих.
Ко всему прочему это закрытая модель, как и все современные MoE модельки Qwen. Бесплатно потестить можно в их чат интерфейсе.
chat.qwenlm.ai
Хух, в Китае наступил Китайский Новый год и релизов от них должно стать чуть меньше
@ai_newz
На бенчах соревнуется с фронтирными не-reasoner моделями, но стоит как reasoner.
Цена тут и правда MAX. За модель просят 10 долларов за миллион токенов на вход и 30 долларов за миллион токенов на выход. Это, если что, в разы дороже чем все конкуренты - в 2.5x дороже чем Sonnet и аж в 30x дороже DeepSeek V3. Причём Qwen тут не предлагает никаких фич для оптимизации цен, даже тех, что уже стали стандартом.
Основное достоинство модели при такой цене - то, что её главный конкурент в Китае находится под жуткой нагрузкой уже второй день и не может выдержать всех желающих.
Ко всему прочему это закрытая модель, как и все современные MoE модельки Qwen. Бесплатно потестить можно в их чат интерфейсе.
chat.qwenlm.ai
Хух, в Китае наступил Китайский Новый год и релизов от них должно стать чуть меньше
@ai_newz
Опенсорс Suno🤡 🤡 🤡
Наконец-то в опенсорс генераторах музыки сподвижки. Угадайте, кто? Правильно, китайцы YuE — по-русски йе! Yeah, ну или просто 乐. По звуку похоже скорее на Suno v2, но и это уже очень хорошо. Примеры в видосе и полные треки в комментариях.
К сожалению, какого-то демо не нашёл, поэтому своих тестов нет. Пейпер обещают скоро, а вот раскатить модельку у себя уже можно. Потребуется только 24 GB VRAM, то есть 4090 может осилить.
Ждём, когда оптимизируют и понаделают всякие финтифлюшки, по типу звуковых IP-адаптеров и контролнетов. :)
Модели на HF
Project page
GitHub
@ai_newz
Наконец-то в опенсорс генераторах музыки сподвижки. Угадайте, кто? Правильно, китайцы YuE — по-русски йе! Yeah, ну или просто 乐. По звуку похоже скорее на Suno v2, но и это уже очень хорошо. Примеры в видосе и полные треки в комментариях.
К сожалению, какого-то демо не нашёл, поэтому своих тестов нет. Пейпер обещают скоро, а вот раскатить модельку у себя уже можно. Потребуется только 24 GB VRAM, то есть 4090 может осилить.
Ждём, когда оптимизируют и понаделают всякие финтифлюшки, по типу звуковых IP-адаптеров и контролнетов. :)
Модели на HF
Project page
GitHub
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Фотоотчет с тусовки "эйай ньюз" на Бали
Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!
Как всегда было очень круто - интересные люди (не обошлось и без присущих Бали приколов), классное пространство (отдельное спасибо Ash Nuanu), и глубокие разговоры про AI! Кстати, это был первый раз, когда подготовка к ивенту была настолько серьезной, что у нас было даже целых два микрофона, чтобы все могли хорошо слышать дискуссию и задавать вопросы.
Я в очередной раз приятно удивлен концентрацией умных, приятных и талантливых людей в нашем комьюнити!
---
Как вы уже могли заметить, я очень люблю организовывать такие тусы. Поэтому, пользуясь случаем, хочу анонсировать, что я буду на Кипре, в Лимассоле на этих выходных и хочу там тоже организовать сходку! Ориентировочно в Вск вечером 2.02.2025. За подробностями присоединяйтесь к Кипрскому чату, если вы на Кипре. Буду рас вас всех увидеть!
@ai_newz
Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!
Как всегда было очень круто - интересные люди (не обошлось и без присущих Бали приколов), классное пространство (отдельное спасибо Ash Nuanu), и глубокие разговоры про AI! Кстати, это был первый раз, когда подготовка к ивенту была настолько серьезной, что у нас было даже целых два микрофона, чтобы все могли хорошо слышать дискуссию и задавать вопросы.
Я в очередной раз приятно удивлен концентрацией умных, приятных и талантливых людей в нашем комьюнити!
---
Как вы уже могли заметить, я очень люблю организовывать такие тусы. Поэтому, пользуясь случаем, хочу анонсировать, что я буду на Кипре, в Лимассоле на этих выходных и хочу там тоже организовать сходку! Ориентировочно в Вск вечером 2.02.2025. За подробностями присоединяйтесь к Кипрскому чату, если вы на Кипре. Буду рас вас всех увидеть!
@ai_newz
Mistral Small 3
О, вот и новая моделька от Mistral, от который уже несколько месяцев не было опенсорс релизов. 24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.
Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.
magnet:?xt=urn:btih:11f2d1ca613ccf5a5c60104db9f3babdfa2e6003&dn=Mistral-Small-3-Instruct&tr=udp%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=http%3A%2F%http://2Fopen.tracker.cl%3A1337%2Fannounce
Блогпост
@ai_newz
О, вот и новая моделька от Mistral, от который уже несколько месяцев не было опенсорс релизов. 24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.
Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.
magnet:?xt=urn:btih:11f2d1ca613ccf5a5c60104db9f3babdfa2e6003&dn=Mistral-Small-3-Instruct&tr=udp%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=http%3A%2F%http://2Fopen.tracker.cl%3A1337%2Fannounce
Блогпост
@ai_newz
эйай ньюз
Пришли ревью с ICLR. Мы получили отличные рецензии! Но как всегда есть тот самый Reviewer #2, который порет какую-то фигню. С поддержкой остальных ревьюеров, думаю, мы легко сможем опровергнуть R2, и, надеюсь, статья будет принята. Что за статья пока точно…
В суматохе работы cовсем забыл поделиться хорошими новостями! Нашу статейку приняли на ICLR – spotlight! Ну, и кстати, я впервые сабмитил что-то на ICLR, до этого были либо конференции по зрению либо NeurIPS.
Это моя первая статья непосредственно по LLM, мы там представляем новый метод по значительному ускорению инференса 405-миллиардной модели.
В ближайшие дни будет на архиве, тогда и напишу про нее подробнее.
#резерч
@ai_newz
Это моя первая статья непосредственно по LLM, мы там представляем новый метод по значительному ускорению инференса 405-миллиардной модели.
В ближайшие дни будет на архиве, тогда и напишу про нее подробнее.
#резерч
@ai_newz
Qwen Video?
Пару дней назад я писал про Qwen-2.5-Max – вот тут. Так вот, туда прикрутили видео генератор! Он не встроенный, конечно, тут дёргается сторонняя диффузионная модель.
Теперь доступ к видео есть почти у всех (в ЕС не работает, работает под американским и британским VPN).
Ну, как для всех… Сервера, конечно, лежат, как это часто бывает с релизом видео-моделей. Это уже как будто must-have: если сервера не падают, значит, ваша модель – никому не нужная хрень. Так что, если бы я делал свой стартап, то положил бы серверы специально😂
Подробностей про эту модельку нет от слова совсем, только текст на вотермарке – TONGYI WANX. Однако качество и следование промпту оч добротное, анатомия в том числе. Можно было бы подумать, что это Kling 1.6 или Minimax, подключенный по API, но Qwen лепит свою вотермарку на видосы, да еще и генерит их бесплатно. Поэтому в этой версии возникают сомнения. Кто-то предположил, что это может быть новый Minimax, они вроде бы связаны с Qwen через Alibaba.
Я собрал черипики из твиттера на оценку местным мастерам. Еще примеры в комментариях. Как думаете, это новая безымянная модель от Qwen или что-то из уже известных?
chat.qwenlm.ai
@ai_newz
Пару дней назад я писал про Qwen-2.5-Max – вот тут. Так вот, туда прикрутили видео генератор! Он не встроенный, конечно, тут дёргается сторонняя диффузионная модель.
Теперь доступ к видео есть почти у всех (в ЕС не работает, работает под американским и британским VPN).
Ну, как для всех… Сервера, конечно, лежат, как это часто бывает с релизом видео-моделей. Это уже как будто must-have: если сервера не падают, значит, ваша модель – никому не нужная хрень. Так что, если бы я делал свой стартап, то положил бы серверы специально
Подробностей про эту модельку нет от слова совсем, только текст на вотермарке – TONGYI WANX. Однако качество и следование промпту оч добротное, анатомия в том числе. Можно было бы подумать, что это Kling 1.6 или Minimax, подключенный по API, но Qwen лепит свою вотермарку на видосы, да еще и генерит их бесплатно. Поэтому в этой версии возникают сомнения. Кто-то предположил, что это может быть новый Minimax, они вроде бы связаны с Qwen через Alibaba.
Я собрал черипики из твиттера на оценку местным мастерам. Еще примеры в комментариях. Как думаете, это новая безымянная модель от Qwen или что-то из уже известных?
chat.qwenlm.ai
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI выпустили o3-mini - бесплатно
Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.
Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).
У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.
Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.
Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.
@ai_newz
Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.
Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).
У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.
Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.
Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.
@ai_newz
У ChatGPT 15,5 миллионов платных подписчиков
По данным The Information, с сентября добавилось более 4 миллионов подписчиков. Их доля общем количестве юзеров не растёт и составляет около 5%, а рост в количестве подписчиков обусловлен ростом юзербазы, которая за 2024 год утроилась.
А вот средняя выручка с подписчика растёт - Pro подписка уже приносит больше выручки чем Enterprise, то есть количество Pro подписчиков уже измеряется в сотнях тысяч. При этом всём, по заявлениям Сэма Альтмана, подписка месяц назад была убыточной - OpenAI не расчитывали на такое активное использование. При таких вводных подписка в $2,000 звучит уже не так безумно как несколько месяцев назад.
Ещё быстрее подписок росла выручка с API - за 2024 она выросла в 7 раз, при том что компания несколько раз за 2024 год сбрасывала цены. Вот вам и наглядная иллюстрация парадокса Джевонса.
При этом всём, сколько именно зарабатывают сейчас OpenAI понять трудно. Хоть мы и знаем, что за первое полугодие 2024 проекция выручки удвоилась до $3,4 миллиарда долларов в год, но как повлияли на выручку запуск Voice API и o1 - незвестно. Зато известно что переговоры про новый раунд инвестиций размером в $40 миллиардов, ведутся уже при оценке компании в $260 миллиардов, что на 73% выше оценки в октябре 2024
@ai_newz
По данным The Information, с сентября добавилось более 4 миллионов подписчиков. Их доля общем количестве юзеров не растёт и составляет около 5%, а рост в количестве подписчиков обусловлен ростом юзербазы, которая за 2024 год утроилась.
А вот средняя выручка с подписчика растёт - Pro подписка уже приносит больше выручки чем Enterprise, то есть количество Pro подписчиков уже измеряется в сотнях тысяч. При этом всём, по заявлениям Сэма Альтмана, подписка месяц назад была убыточной - OpenAI не расчитывали на такое активное использование. При таких вводных подписка в $2,000 звучит уже не так безумно как несколько месяцев назад.
Ещё быстрее подписок росла выручка с API - за 2024 она выросла в 7 раз, при том что компания несколько раз за 2024 год сбрасывала цены. Вот вам и наглядная иллюстрация парадокса Джевонса.
При этом всём, сколько именно зарабатывают сейчас OpenAI понять трудно. Хоть мы и знаем, что за первое полугодие 2024 проекция выручки удвоилась до $3,4 миллиарда долларов в год, но как повлияли на выручку запуск Voice API и o1 - незвестно. Зато известно что переговоры про новый раунд инвестиций размером в $40 миллиардов, ведутся уже при оценке компании в $260 миллиардов, что на 73% выше оценки в октябре 2024
@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Датамайнеры нашли в Claude (пока) не релизнутую возможность заплатить за "сброс" лимита сообщений, когда сообщения заканчиваются. Сколько это будет стоить - пока что непонятно.
У Claude последние несколько месяцев всё очень плохо с лимитами - они у Anthropic динамические и зависят от нагрузки, но серверов им не хватает и нагрузка там всегда очень высокая и лимиты крайне маленькие. Я, в последние несколько месяцев, много раз видел в твиттере пользователей умоляющих о такой функции, ну вот они и прислушались. Но насколько нужно это сейчас, когда есть несколько серьёзных конкурентов без таких проблем с лимитами, куда и перешла значительная часть пользователей Claude - вопрос.
А вам какой из новых способов монетизации низких лимитов больше нравится - этот, или подписка за $200?
@ai_newz
У Claude последние несколько месяцев всё очень плохо с лимитами - они у Anthropic динамические и зависят от нагрузки, но серверов им не хватает и нагрузка там всегда очень высокая и лимиты крайне маленькие. Я, в последние несколько месяцев, много раз видел в твиттере пользователей умоляющих о такой функции, ну вот они и прислушались. Но насколько нужно это сейчас, когда есть несколько серьёзных конкурентов без таких проблем с лимитами, куда и перешла значительная часть пользователей Claude - вопрос.
А вам какой из новых способов монетизации низких лимитов больше нравится - этот, или подписка за $200?
@ai_newz
Нейродайджест за неделю (#54)
LLM
- DeepSeek — топ 1 — текущее состояние апсторов.
- R1 + Perplexity — один из лучших AI-поисковиков добавил режим с DeepSeek R1.
- Кратко о релизах Qwen — Qwen 2.5 VL (визуальная модель), новый интерфейс, Qwen 2.5-1M с 1 млн токенов контекста.
- Qwen 2.5 Max — тестируем в чате. Это не лучше, чем R1, но есть много фич, например, генерация картинок и артефакты.
- Mistral Small 3 — довольно маленькая, зато можно погонять на 3090. А лицензия Apache просто сок — можно юзать в проде без заморочек.
- Трамп про DeepSeek — успехи китайцев дошли даже до президента. Когда тебя так нагибают, нужно что-то сказать.
- Сброс лимитов в Claude – датамайнеры нашли ещё не анонсированную фичу, которая обещает стать спасением для тех, кто любит потранжирить токены.
- OpenAI o3-mini — главный релиз недели! Топ-1 в коде. OpenAI не хочет отдавать первенство и поспешил с релизом. Можно потыкаться даже без подписки.
Генеративные модели
- YuE — добротный генератор музыки с открытым исходным кодом. Станет ли он Stable Diffusion в мире музыки — пока неясно, но движение в этом направлении есть.
- Qwen Video — таинственный видеогенератор из чата Qwen. О нём совсем нет информации, но генерит он сносно, да ещё и бесплатно.
Чуть про меня
- Сходка на Бали — отчёт с фотками со встречи. Как всегда, прекрасно поболтали! + Анонс новой сходки сегодня (2 февраля) на Кипре.
- Моя первая принятая статья на ICLR — впервые работаю непосредственно над LLM. Ускоряем 405B модель.
Прочее
- Сколько зарабатывает OpenAI? — The Information слил примерные цифры.
> Читать дайджест #53
#дайджест
@ai_newz
LLM
- DeepSeek — топ 1 — текущее состояние апсторов.
- R1 + Perplexity — один из лучших AI-поисковиков добавил режим с DeepSeek R1.
- Кратко о релизах Qwen — Qwen 2.5 VL (визуальная модель), новый интерфейс, Qwen 2.5-1M с 1 млн токенов контекста.
- Qwen 2.5 Max — тестируем в чате. Это не лучше, чем R1, но есть много фич, например, генерация картинок и артефакты.
- Mistral Small 3 — довольно маленькая, зато можно погонять на 3090. А лицензия Apache просто сок — можно юзать в проде без заморочек.
- Трамп про DeepSeek — успехи китайцев дошли даже до президента. Когда тебя так нагибают, нужно что-то сказать.
- Сброс лимитов в Claude – датамайнеры нашли ещё не анонсированную фичу, которая обещает стать спасением для тех, кто любит потранжирить токены.
- OpenAI o3-mini — главный релиз недели! Топ-1 в коде. OpenAI не хочет отдавать первенство и поспешил с релизом. Можно потыкаться даже без подписки.
Генеративные модели
- YuE — добротный генератор музыки с открытым исходным кодом. Станет ли он Stable Diffusion в мире музыки — пока неясно, но движение в этом направлении есть.
- Qwen Video — таинственный видеогенератор из чата Qwen. О нём совсем нет информации, но генерит он сносно, да ещё и бесплатно.
Чуть про меня
- Сходка на Бали — отчёт с фотками со встречи. Как всегда, прекрасно поболтали! + Анонс новой сходки сегодня (2 февраля) на Кипре.
- Моя первая принятая статья на ICLR — впервые работаю непосредственно над LLM. Ускоряем 405B модель.
Прочее
- Сколько зарабатывает OpenAI? — The Information слил примерные цифры.
> Читать дайджест #53
#дайджест
@ai_newz
Deep Research - продвинутый поиск от OpenAI
Выглядит это так - вы описываете модели что бы вы хотели узнать, она задаёт уточняющие вопросы и начинает поиск. Он занимает от 5 минут, до, примерно, получаса. Модель ищет новую инфу на основе уже найденой и возвращается с детальным репортом, с указанием источников.
Основана модель для Deep Research на ещё не релизнутой o3, которую зафайнтюнили делать поиск в интернете. Кроме обычного поиска ей в руки дали ещё и интерпретатор питона - так что она сможет строить графики и другие визуализации, на основе найденной информации.
На Humanity's last exam она умудряется набрать 26,6%, правда используя внешние источники и Python. И двух недель не прошло, а топовые результаты на бенче уже практически утроились с 9,4% на старте.
Фича уже доступна Pro подписчикам (100 запросов в месяц), Plus и Team на очереди (~10 запросов в месяц), остальные получат ещё позже. У гугла, если что, такая же фича запустилась ещё в декабре. Правда внутри там Gemini 1.5 Pro, так что качество по идее заметно хуже. Если кто-то пользовался - как ваши впечатления?
@ai_newz
Выглядит это так - вы описываете модели что бы вы хотели узнать, она задаёт уточняющие вопросы и начинает поиск. Он занимает от 5 минут, до, примерно, получаса. Модель ищет новую инфу на основе уже найденой и возвращается с детальным репортом, с указанием источников.
Основана модель для Deep Research на ещё не релизнутой o3, которую зафайнтюнили делать поиск в интернете. Кроме обычного поиска ей в руки дали ещё и интерпретатор питона - так что она сможет строить графики и другие визуализации, на основе найденной информации.
На Humanity's last exam она умудряется набрать 26,6%, правда используя внешние источники и Python. И двух недель не прошло, а топовые результаты на бенче уже практически утроились с 9,4% на старте.
Фича уже доступна Pro подписчикам (100 запросов в месяц), Plus и Team на очереди (~10 запросов в месяц), остальные получат ещё позже. У гугла, если что, такая же фича запустилась ещё в декабре. Правда внутри там Gemini 1.5 Pro, так что качество по идее заметно хуже. Если кто-то пользовался - как ваши впечатления?
@ai_newz