Фотоотчет с тусовки "эйай ньюз" на Бали
Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!
Как всегда было очень круто - интересные люди (не обошлось и без присущих Бали приколов), классное пространство (отдельное спасибо Ash Nuanu), и глубокие разговоры про AI! Кстати, это был первый раз, когда подготовка к ивенту была настолько серьезной, что у нас было даже целых два микрофона, чтобы все могли хорошо слышать дискуссию и задавать вопросы.
Я в очередной раз приятно удивлен концентрацией умных, приятных и талантливых людей в нашем комьюнити!
---
Как вы уже могли заметить, я очень люблю организовывать такие тусы. Поэтому, пользуясь случаем, хочу анонсировать, что я буду на Кипре, в Лимассоле на этих выходных и хочу там тоже организовать сходку! Ориентировочно в Вск вечером 2.02.2025. За подробностями присоединяйтесь к Кипрскому чату, если вы на Кипре. Буду рас вас всех увидеть!
@ai_newz
Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!
Как всегда было очень круто - интересные люди (не обошлось и без присущих Бали приколов), классное пространство (отдельное спасибо Ash Nuanu), и глубокие разговоры про AI! Кстати, это был первый раз, когда подготовка к ивенту была настолько серьезной, что у нас было даже целых два микрофона, чтобы все могли хорошо слышать дискуссию и задавать вопросы.
Я в очередной раз приятно удивлен концентрацией умных, приятных и талантливых людей в нашем комьюнити!
---
Как вы уже могли заметить, я очень люблю организовывать такие тусы. Поэтому, пользуясь случаем, хочу анонсировать, что я буду на Кипре, в Лимассоле на этих выходных и хочу там тоже организовать сходку! Ориентировочно в Вск вечером 2.02.2025. За подробностями присоединяйтесь к Кипрскому чату, если вы на Кипре. Буду рас вас всех увидеть!
@ai_newz
Mistral Small 3
О, вот и новая моделька от Mistral, от который уже несколько месяцев не было опенсорс релизов. 24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.
Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.
magnet:?xt=urn:btih:11f2d1ca613ccf5a5c60104db9f3babdfa2e6003&dn=Mistral-Small-3-Instruct&tr=udp%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=http%3A%2F%http://2Fopen.tracker.cl%3A1337%2Fannounce
Блогпост
@ai_newz
О, вот и новая моделька от Mistral, от который уже несколько месяцев не было опенсорс релизов. 24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.
Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.
magnet:?xt=urn:btih:11f2d1ca613ccf5a5c60104db9f3babdfa2e6003&dn=Mistral-Small-3-Instruct&tr=udp%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=http%3A%2F%http://2Fopen.tracker.cl%3A1337%2Fannounce
Блогпост
@ai_newz
эйай ньюз
Пришли ревью с ICLR. Мы получили отличные рецензии! Но как всегда есть тот самый Reviewer #2, который порет какую-то фигню. С поддержкой остальных ревьюеров, думаю, мы легко сможем опровергнуть R2, и, надеюсь, статья будет принята. Что за статья пока точно…
В суматохе работы cовсем забыл поделиться хорошими новостями! Нашу статейку приняли на ICLR – spotlight! Ну, и кстати, я впервые сабмитил что-то на ICLR, до этого были либо конференции по зрению либо NeurIPS.
Это моя первая статья непосредственно по LLM, мы там представляем новый метод по значительному ускорению инференса 405-миллиардной модели.
В ближайшие дни будет на архиве, тогда и напишу про нее подробнее.
#резерч
@ai_newz
Это моя первая статья непосредственно по LLM, мы там представляем новый метод по значительному ускорению инференса 405-миллиардной модели.
В ближайшие дни будет на архиве, тогда и напишу про нее подробнее.
#резерч
@ai_newz
Qwen Video?
Пару дней назад я писал про Qwen-2.5-Max – вот тут. Так вот, туда прикрутили видео генератор! Он не встроенный, конечно, тут дёргается сторонняя диффузионная модель.
Теперь доступ к видео есть почти у всех (в ЕС не работает, работает под американским и британским VPN).
Ну, как для всех… Сервера, конечно, лежат, как это часто бывает с релизом видео-моделей. Это уже как будто must-have: если сервера не падают, значит, ваша модель – никому не нужная хрень. Так что, если бы я делал свой стартап, то положил бы серверы специально😂
Подробностей про эту модельку нет от слова совсем, только текст на вотермарке – TONGYI WANX. Однако качество и следование промпту оч добротное, анатомия в том числе. Можно было бы подумать, что это Kling 1.6 или Minimax, подключенный по API, но Qwen лепит свою вотермарку на видосы, да еще и генерит их бесплатно. Поэтому в этой версии возникают сомнения. Кто-то предположил, что это может быть новый Minimax, они вроде бы связаны с Qwen через Alibaba.
Я собрал черипики из твиттера на оценку местным мастерам. Еще примеры в комментариях. Как думаете, это новая безымянная модель от Qwen или что-то из уже известных?
chat.qwenlm.ai
@ai_newz
Пару дней назад я писал про Qwen-2.5-Max – вот тут. Так вот, туда прикрутили видео генератор! Он не встроенный, конечно, тут дёргается сторонняя диффузионная модель.
Теперь доступ к видео есть почти у всех (в ЕС не работает, работает под американским и британским VPN).
Ну, как для всех… Сервера, конечно, лежат, как это часто бывает с релизом видео-моделей. Это уже как будто must-have: если сервера не падают, значит, ваша модель – никому не нужная хрень. Так что, если бы я делал свой стартап, то положил бы серверы специально
Подробностей про эту модельку нет от слова совсем, только текст на вотермарке – TONGYI WANX. Однако качество и следование промпту оч добротное, анатомия в том числе. Можно было бы подумать, что это Kling 1.6 или Minimax, подключенный по API, но Qwen лепит свою вотермарку на видосы, да еще и генерит их бесплатно. Поэтому в этой версии возникают сомнения. Кто-то предположил, что это может быть новый Minimax, они вроде бы связаны с Qwen через Alibaba.
Я собрал черипики из твиттера на оценку местным мастерам. Еще примеры в комментариях. Как думаете, это новая безымянная модель от Qwen или что-то из уже известных?
chat.qwenlm.ai
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI выпустили o3-mini - бесплатно
Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.
Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).
У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.
Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.
Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.
@ai_newz
Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.
Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).
У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.
Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.
Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.
@ai_newz
У ChatGPT 15,5 миллионов платных подписчиков
По данным The Information, с сентября добавилось более 4 миллионов подписчиков. Их доля общем количестве юзеров не растёт и составляет около 5%, а рост в количестве подписчиков обусловлен ростом юзербазы, которая за 2024 год утроилась.
А вот средняя выручка с подписчика растёт - Pro подписка уже приносит больше выручки чем Enterprise, то есть количество Pro подписчиков уже измеряется в сотнях тысяч. При этом всём, по заявлениям Сэма Альтмана, подписка месяц назад была убыточной - OpenAI не расчитывали на такое активное использование. При таких вводных подписка в $2,000 звучит уже не так безумно как несколько месяцев назад.
Ещё быстрее подписок росла выручка с API - за 2024 она выросла в 7 раз, при том что компания несколько раз за 2024 год сбрасывала цены. Вот вам и наглядная иллюстрация парадокса Джевонса.
При этом всём, сколько именно зарабатывают сейчас OpenAI понять трудно. Хоть мы и знаем, что за первое полугодие 2024 проекция выручки удвоилась до $3,4 миллиарда долларов в год, но как повлияли на выручку запуск Voice API и o1 - незвестно. Зато известно что переговоры про новый раунд инвестиций размером в $40 миллиардов, ведутся уже при оценке компании в $260 миллиардов, что на 73% выше оценки в октябре 2024
@ai_newz
По данным The Information, с сентября добавилось более 4 миллионов подписчиков. Их доля общем количестве юзеров не растёт и составляет около 5%, а рост в количестве подписчиков обусловлен ростом юзербазы, которая за 2024 год утроилась.
А вот средняя выручка с подписчика растёт - Pro подписка уже приносит больше выручки чем Enterprise, то есть количество Pro подписчиков уже измеряется в сотнях тысяч. При этом всём, по заявлениям Сэма Альтмана, подписка месяц назад была убыточной - OpenAI не расчитывали на такое активное использование. При таких вводных подписка в $2,000 звучит уже не так безумно как несколько месяцев назад.
Ещё быстрее подписок росла выручка с API - за 2024 она выросла в 7 раз, при том что компания несколько раз за 2024 год сбрасывала цены. Вот вам и наглядная иллюстрация парадокса Джевонса.
При этом всём, сколько именно зарабатывают сейчас OpenAI понять трудно. Хоть мы и знаем, что за первое полугодие 2024 проекция выручки удвоилась до $3,4 миллиарда долларов в год, но как повлияли на выручку запуск Voice API и o1 - незвестно. Зато известно что переговоры про новый раунд инвестиций размером в $40 миллиардов, ведутся уже при оценке компании в $260 миллиардов, что на 73% выше оценки в октябре 2024
@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Датамайнеры нашли в Claude (пока) не релизнутую возможность заплатить за "сброс" лимита сообщений, когда сообщения заканчиваются. Сколько это будет стоить - пока что непонятно.
У Claude последние несколько месяцев всё очень плохо с лимитами - они у Anthropic динамические и зависят от нагрузки, но серверов им не хватает и нагрузка там всегда очень высокая и лимиты крайне маленькие. Я, в последние несколько месяцев, много раз видел в твиттере пользователей умоляющих о такой функции, ну вот они и прислушались. Но насколько нужно это сейчас, когда есть несколько серьёзных конкурентов без таких проблем с лимитами, куда и перешла значительная часть пользователей Claude - вопрос.
А вам какой из новых способов монетизации низких лимитов больше нравится - этот, или подписка за $200?
@ai_newz
У Claude последние несколько месяцев всё очень плохо с лимитами - они у Anthropic динамические и зависят от нагрузки, но серверов им не хватает и нагрузка там всегда очень высокая и лимиты крайне маленькие. Я, в последние несколько месяцев, много раз видел в твиттере пользователей умоляющих о такой функции, ну вот они и прислушались. Но насколько нужно это сейчас, когда есть несколько серьёзных конкурентов без таких проблем с лимитами, куда и перешла значительная часть пользователей Claude - вопрос.
А вам какой из новых способов монетизации низких лимитов больше нравится - этот, или подписка за $200?
@ai_newz
Нейродайджест за неделю (#54)
LLM
- DeepSeek — топ 1 — текущее состояние апсторов.
- R1 + Perplexity — один из лучших AI-поисковиков добавил режим с DeepSeek R1.
- Кратко о релизах Qwen — Qwen 2.5 VL (визуальная модель), новый интерфейс, Qwen 2.5-1M с 1 млн токенов контекста.
- Qwen 2.5 Max — тестируем в чате. Это не лучше, чем R1, но есть много фич, например, генерация картинок и артефакты.
- Mistral Small 3 — довольно маленькая, зато можно погонять на 3090. А лицензия Apache просто сок — можно юзать в проде без заморочек.
- Трамп про DeepSeek — успехи китайцев дошли даже до президента. Когда тебя так нагибают, нужно что-то сказать.
- Сброс лимитов в Claude – датамайнеры нашли ещё не анонсированную фичу, которая обещает стать спасением для тех, кто любит потранжирить токены.
- OpenAI o3-mini — главный релиз недели! Топ-1 в коде. OpenAI не хочет отдавать первенство и поспешил с релизом. Можно потыкаться даже без подписки.
Генеративные модели
- YuE — добротный генератор музыки с открытым исходным кодом. Станет ли он Stable Diffusion в мире музыки — пока неясно, но движение в этом направлении есть.
- Qwen Video — таинственный видеогенератор из чата Qwen. О нём совсем нет информации, но генерит он сносно, да ещё и бесплатно.
Чуть про меня
- Сходка на Бали — отчёт с фотками со встречи. Как всегда, прекрасно поболтали! + Анонс новой сходки сегодня (2 февраля) на Кипре.
- Моя первая принятая статья на ICLR — впервые работаю непосредственно над LLM. Ускоряем 405B модель.
Прочее
- Сколько зарабатывает OpenAI? — The Information слил примерные цифры.
> Читать дайджест #53
#дайджест
@ai_newz
LLM
- DeepSeek — топ 1 — текущее состояние апсторов.
- R1 + Perplexity — один из лучших AI-поисковиков добавил режим с DeepSeek R1.
- Кратко о релизах Qwen — Qwen 2.5 VL (визуальная модель), новый интерфейс, Qwen 2.5-1M с 1 млн токенов контекста.
- Qwen 2.5 Max — тестируем в чате. Это не лучше, чем R1, но есть много фич, например, генерация картинок и артефакты.
- Mistral Small 3 — довольно маленькая, зато можно погонять на 3090. А лицензия Apache просто сок — можно юзать в проде без заморочек.
- Трамп про DeepSeek — успехи китайцев дошли даже до президента. Когда тебя так нагибают, нужно что-то сказать.
- Сброс лимитов в Claude – датамайнеры нашли ещё не анонсированную фичу, которая обещает стать спасением для тех, кто любит потранжирить токены.
- OpenAI o3-mini — главный релиз недели! Топ-1 в коде. OpenAI не хочет отдавать первенство и поспешил с релизом. Можно потыкаться даже без подписки.
Генеративные модели
- YuE — добротный генератор музыки с открытым исходным кодом. Станет ли он Stable Diffusion в мире музыки — пока неясно, но движение в этом направлении есть.
- Qwen Video — таинственный видеогенератор из чата Qwen. О нём совсем нет информации, но генерит он сносно, да ещё и бесплатно.
Чуть про меня
- Сходка на Бали — отчёт с фотками со встречи. Как всегда, прекрасно поболтали! + Анонс новой сходки сегодня (2 февраля) на Кипре.
- Моя первая принятая статья на ICLR — впервые работаю непосредственно над LLM. Ускоряем 405B модель.
Прочее
- Сколько зарабатывает OpenAI? — The Information слил примерные цифры.
> Читать дайджест #53
#дайджест
@ai_newz
Deep Research - продвинутый поиск от OpenAI
Выглядит это так - вы описываете модели что бы вы хотели узнать, она задаёт уточняющие вопросы и начинает поиск. Он занимает от 5 минут, до, примерно, получаса. Модель ищет новую инфу на основе уже найденой и возвращается с детальным репортом, с указанием источников.
Основана модель для Deep Research на ещё не релизнутой o3, которую зафайнтюнили делать поиск в интернете. Кроме обычного поиска ей в руки дали ещё и интерпретатор питона - так что она сможет строить графики и другие визуализации, на основе найденной информации.
На Humanity's last exam она умудряется набрать 26,6%, правда используя внешние источники и Python. И двух недель не прошло, а топовые результаты на бенче уже практически утроились с 9,4% на старте.
Фича уже доступна Pro подписчикам (100 запросов в месяц), Plus и Team на очереди (~10 запросов в месяц), остальные получат ещё позже. У гугла, если что, такая же фича запустилась ещё в декабре. Правда внутри там Gemini 1.5 Pro, так что качество по идее заметно хуже. Если кто-то пользовался - как ваши впечатления?
@ai_newz
Выглядит это так - вы описываете модели что бы вы хотели узнать, она задаёт уточняющие вопросы и начинает поиск. Он занимает от 5 минут, до, примерно, получаса. Модель ищет новую инфу на основе уже найденой и возвращается с детальным репортом, с указанием источников.
Основана модель для Deep Research на ещё не релизнутой o3, которую зафайнтюнили делать поиск в интернете. Кроме обычного поиска ей в руки дали ещё и интерпретатор питона - так что она сможет строить графики и другие визуализации, на основе найденной информации.
На Humanity's last exam она умудряется набрать 26,6%, правда используя внешние источники и Python. И двух недель не прошло, а топовые результаты на бенче уже практически утроились с 9,4% на старте.
Фича уже доступна Pro подписчикам (100 запросов в месяц), Plus и Team на очереди (~10 запросов в месяц), остальные получат ещё позже. У гугла, если что, такая же фича запустилась ещё в декабре. Правда внутри там Gemini 1.5 Pro, так что качество по идее заметно хуже. Если кто-то пользовался - как ваши впечатления?
@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Имба для удалёнщиков — Pickle
Записываем 3 минуты своей говорящей головы. Затем ждём сутки, а то и двое, пока тренируется моделька — и вуаля, готово! Лежим на диване во время мита, пока ваш виртуальный клон с реалтайм липсинком отсиживается за вас перед веб-камерой.
Это молодой стартап с командой из 5–7 человек, так что технических деталей никаких. Есть только подписка, по которой за 24 бакса в месяц можно наговорить аж на 1000 минут (чего, надеюсь, хватит всем). Пока работает только на Mac — поддержка остальных устройств в разработке.
Пообещайте, что не будете пользоваться этой штукой😗
getpickle.ai
@ai_newz
Записываем 3 минуты своей говорящей головы. Затем ждём сутки, а то и двое, пока тренируется моделька — и вуаля, готово! Лежим на диване во время мита, пока ваш виртуальный клон с реалтайм липсинком отсиживается за вас перед веб-камерой.
Это молодой стартап с командой из 5–7 человек, так что технических деталей никаких. Есть только подписка, по которой за 24 бакса в месяц можно наговорить аж на 1000 минут (чего, надеюсь, хватит всем). Пока работает только на Mac — поддержка остальных устройств в разработке.
Пообещайте, что не будете пользоваться этой штукой
getpickle.ai
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Gemini 2.0 Flash наконец-то релизнулась
Модель заметно дешевле конкурентов в подобной ценовой категории (GPT-4o mini, DeepSeek V3 по скидке и Claude Haiku 3.5), при этом она показывает себя лучше всех этих моделей. Но есть и нюанс - расценки заметно поменяли. Раньше для длинных запросов цена была в 2x больше, а теперь цену сделали усреднённо единой. Теперь длинные запросы будут дешевле на 30%, а короткие - дороже на 30%.
А по старой цене доступна Gemini 2.0 Flash-Lite. Она лучше чем 1.5 Flash, но разница по бенчам с полноценной 2.0 Flash больше разницы в цене. Вот так ловко Google пытается пересадить разработчиков на более дорогую Gemini 2.0 Flash.
Вдобавок ко всему этому, Google обновил превью Gemini 2.0 Pro - более ранняя версия модели була доступна уже два месяца как Gemini-Experimental-1206, эта версия уже ближе к релизу. Надеюсь она не будет сидеть в превью ещё два месяца и релизнется скоро, желательно сразу с Thinking версией.
https://aistudio.google.com (может быть нужен впн)
@ai_newz
Модель заметно дешевле конкурентов в подобной ценовой категории (GPT-4o mini, DeepSeek V3 по скидке и Claude Haiku 3.5), при этом она показывает себя лучше всех этих моделей. Но есть и нюанс - расценки заметно поменяли. Раньше для длинных запросов цена была в 2x больше, а теперь цену сделали усреднённо единой. Теперь длинные запросы будут дешевле на 30%, а короткие - дороже на 30%.
А по старой цене доступна Gemini 2.0 Flash-Lite. Она лучше чем 1.5 Flash, но разница по бенчам с полноценной 2.0 Flash больше разницы в цене. Вот так ловко Google пытается пересадить разработчиков на более дорогую Gemini 2.0 Flash.
Вдобавок ко всему этому, Google обновил превью Gemini 2.0 Pro - более ранняя версия модели була доступна уже два месяца как Gemini-Experimental-1206, эта версия уже ближе к релизу. Надеюсь она не будет сидеть в превью ещё два месяца и релизнется скоро, желательно сразу с Thinking версией.
https://aistudio.google.com (может быть нужен впн)
@ai_newz
Введение в LLM с нуля - новое видео Карпатого
Видео простым языком объясняет что такое LLM, как они работают внутри, что они могут и не могут и как этим пользоваться.
Для тех кто не знает - Андрей Карпатый был одним из сооснователей OpenAI и директором по AI в Tesla. Сейчас занимается образованием и пилит лучшие видосы про ИИ на ютубе. Если интересно посмотреть больше - вот подборка видосов.
https://www.youtube.com/watch?v=7xTGNNLPyMI
#ликбез
@ai_newz
Видео простым языком объясняет что такое LLM, как они работают внутри, что они могут и не могут и как этим пользоваться.
Для тех кто не знает - Андрей Карпатый был одним из сооснователей OpenAI и директором по AI в Tesla. Сейчас занимается образованием и пилит лучшие видосы про ИИ на ютубе. Если интересно посмотреть больше - вот подборка видосов.
https://www.youtube.com/watch?v=7xTGNNLPyMI
#ликбез
@ai_newz
YouTube
Deep Dive into LLMs like ChatGPT
This is a general audience deep dive into the Large Language Model (LLM) AI technology that powers ChatGPT and related products. It is covers the full training stack of how the models are developed, along with mental models of how to think about their "psychology"…
This media is not supported in your browser
VIEW IN TELEGRAM
Le Chat теперь в 30 раз быстрее ChatGPT
ИИ чипы от Cerebras позволяют чату работать на скорости в 1100 токенов в секунду, с новой фичей Flash Answers. Сейчас это просто интересная демка, но когда французы из Mistral сделают свою reasoning модель, это будет серьёзным преимуществом их чата. Зачем ждать пока какая-то o3-mini-high или R1 думает несколько минут, если она может справиться за секунды?
Но это не единственная новая фича - Le Chat теперь умеет исполнять код на Python и это доступно всем пользователям. Исполнение кода ограничено минутой, чего в принципе достаточно для большинства задач.
А ещё, у Le Chat теперь есть приложения на iOS и Android и Pro подписка за 15 долларов в месяц (со скидкой студентам). За подписку дают неограниченное количество сообщений, возможность отключить тренировку на своих данных и расширенное использование дополнительных фич - интерпретатора кода, поиска, генерации изображений и Flash Answers.
chat.mistral.ai
@ai_newz
ИИ чипы от Cerebras позволяют чату работать на скорости в 1100 токенов в секунду, с новой фичей Flash Answers. Сейчас это просто интересная демка, но когда французы из Mistral сделают свою reasoning модель, это будет серьёзным преимуществом их чата. Зачем ждать пока какая-то o3-mini-high или R1 думает несколько минут, если она может справиться за секунды?
Но это не единственная новая фича - Le Chat теперь умеет исполнять код на Python и это доступно всем пользователям. Исполнение кода ограничено минутой, чего в принципе достаточно для большинства задач.
А ещё, у Le Chat теперь есть приложения на iOS и Android и Pro подписка за 15 долларов в месяц (со скидкой студентам). За подписку дают неограниченное количество сообщений, возможность отключить тренировку на своих данных и расширенное использование дополнительных фич - интерпретатора кода, поиска, генерации изображений и Flash Answers.
chat.mistral.ai
@ai_newz