Telegram Group Search
Стою среди титанов

Привет всем, кто добавился! По поводу корпусов пишите — @averkij
Forwarded from NLP Core Team (Dmitry Zmitrovich)
🚀🚀🚀 Koda 🚀🚀🚀

Мы запустили Koda! AI сервис для разработчиков с хорошим пониманием русского языка.

Под капотом — лучшие открытые LLM, дообученные на актуальном коде и адаптированные для русского языка, c применением нашего опыта по созданию моделей.

Koda и наши модели бесплатны. Даем 250 запросов на внешние модели после аутентификации через GitHub. В списке моделей есть DeepSeek V3.1, Qwen3 235B и другие. Можете вбить свой токен внешней модели для CodeChat если есть.

Сейчас в beta-тестировании. Выкатили базовые сервисы. Куча фичей ждут своих релизов. Вместе с вами тестируем и улучшаем.

Делитесь вашим опытом использования Koda в нашем сообществе. Ждем ваши вопросы, ошибки, которые встретили, или идеи, как улучшить.

Koda сейчас — это команда энтузиастов, бывших разработчиков и соавторов GigaCode от Сбера, которые хотят сделать программирование более доступным c помощью AI.

Наш лендинг
Плагин для VSCode
Koda сообщество
🔺 Вышел Claude Opus 4 и Sonnet 4

На кодовых замерах опережает и o3 и Gemini 2.5 Pro. Но это ладно.

🔸 Пишут, что сильно улучшили память. Если при разработке дать доступ к файловой системе, то модель сможет создавать "memory files" с ключевыми данными. Не понял до конца, почему так нельзя делать с предыдущими версиями. Может быть, появился какой-то встроенный механизм.

🔸 Увеличили кеширование контекста до 60 минут (работа с одним и тем же контекстом при таком подходе дешевле, особенно если он длинный).

🔸 Появился Code execution tool — тула, которая вызывается, если Claude решит, что для решения задачи надо написать код, запустить его и выдать результат.

🔸 Эта же тула умеет вызываться на переданных файлах с данными. То есть по API можно передать какие-то документы и попросить их проанализировать, сделать табличку и т.д. Все это обработается кодом, то есть все числа будут точные (если сгенерится правильный код).

Это все интересно при разработке ваших приложений, через интерфейс можно было и так.

🔸 Веб-поиск в API тоже доехал. Стоит $10 за 1000 вызовов, добавляется к общей цене. Цена на Opus высокая, надо подумать, стоит ли оно того. Цена на Sonnet 4 такая же как у 3.7 и 3.5 ($3/$15 за 1M токенов на вход/выход).

В общем, смотрю. В плане качества генерации вроде +- то же, нужно потыкать мультиязычность и новые фичи в API.

👉 https://www.anthropic.com/news/claude-4
Forwarded from RnD CV Team (Alexander Kapitanov)
Data Fest в Сбере 🏦 🦜

30 мая Data Fest 2025 придёт в гости в штаб-квартиру на Кутузовском проспекте.

🧠 Открывает главную сцену Иван Оселедец @Ivan_Oseledets с докладом "Большие языковые модели в эпоху ризонинга"
🎨 Следом выступит Александр Капитанов @rndcv_team с релизом state-of-the-art модели инструктивного редактирования изображений MALVINA, над которой активно трудилась команда @layercv
😎 Также будет представлен доклад Федора Минькина @gigadev_channel о разработке больших языковых моделей в Сбере
🛠 Андрей Кузнецов @complete_ai выступит с интересной темой про генеративное проектирование в строительстве и промышленности
🧑‍💻 Дмитрий Бабаев @dl_l_lb представит подробный доклад о том, как команда обучает GigaCode

🤖 Сергей Марков @oulenspiegel_channel открывает сцену с визионерским докладом про ИИ в эпоху больших языковых моделей
🧠 Александр Абрамов @dealerAI расскажет про глобальную память в LLM на примере GigaChat
📝 Никита Мартынов и Даниил Астафуров, инженеры MERA покажут, как оценивать генеративные способности LLM для русского языка
🖥 Виктория Вольф @rndcv_team поделится лайфхаками обработки и фильтрации больших объемов мультимодальных данных.

И это еще не все, в программе представлено более 20 крутых докладов!
🖥 Зарегистрироваться и узнать подробности можно на сайте
Please open Telegram to view this post
VIEW IN TELEGRAM
🔺 Мальвина и Гигачат

Друзья, мои коллеги зарелизили крутой инструмент для попиксельного редактирования картинок моделями.

🔸 Суть в том, что при редактировании хочется поменять только какие-то конкретные объекты, а остальное не трогать. Или наоборот. Наш любимый gpt-4o и другие сетки все равно перегенерят картинку полностью и, хотя работают очень круто, поменяют и другие детали + добавят сдвиги. Особенно заметно на лицах.

В Мальвине же исходная структура сохраняется и получается очень полезный инструмент по редактированию картинок.

🔸 Потестил на каких-то простых кейсах, типа удаления и замены фона и предметов, но вообще изменение задается любым промптом. Так что пробуйте, это самый первый релиз и ребята очень ждут фидбек.

🔸 Работает прямо в телеграме@gigachat_bot. Не забудьте нажать на кнопку "Редактирование картинок".

👉 Почитать про модель
Интересно, Дуров пишет, что в телеграм скоро добавят Grok

Будет встроен прямо в интерфейс, среди фичей — суммаризация pdf и ссылок, факт-чекинг, генерация аватарок, модерация и суммаризация групповых чатов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Claude завел блог. Жалко, что комментировать нельзя, а то другие LLM заходили бы в гости, подбадривали, галлюцинировали на общие темы.

https://www.anthropic.com/claude-explains
🔺 Qwen3 Embedding

Alibaba выпустили новые модели для эмбеддингов. Есть три версии — 0.6B, 4B и 8B.

Модели мультиязычные, на 100+ языков. Списка не нашел, но по их замерам на MTEB, заявляется SoTA по многим мультиязычным задачам, типа bitext mining, когда ищутся подходящие по смыслу пары предложений среди текстов на разных языках.

👉 GitHub | Paper | HF
Люблю я все-таки книги (как и вы, наверное) и частенько грешу тем, что куплю и не читаю или начинаю сразу много и половину в итоге не дочитываю.

Начал чаще использовать свою читалку (теперь могу качать и не читать) и записываю то, что начал читать, в список, чтобы дочитывать до конца.

А по делу — Сергей Марков оформил свою большую книгу про ИИ в Wiki формате. Мне лично больше нравятся исторические очерки про становление этой дисциплины, но вообще там очень много и про современность, так что рекомендую.

Главы можно комментировать, скачать можно бесплатно (!)

👉 Содержание Wiki | Том 1 | Том 2
Cursor обновился до версии 1.0

Из интересных фичей — BugBot, агент, который делает ревью Pull Request'а в GitHub репозитории, если ему предварительно дать права на проект. Можно настроить, чтобы он запускался по комментарию "bugbot run".

Если найдется баг, то в комменте будет ссылка "Fix in Cursor", по которой откроется приложение с нужным контекстом и можно будет начинать чинить.

Работает на тех же моделях, что при использовании Max mode в приложении, то есть в обход обычного подписочного плана. Дают 7 дней на тестирование.
Вероятность встретить динозавра в Туле оказалась не так уж и мала. А заодно сделал себе аватарку для отпуска.
🔺 Пока слова на "-страль" не закончились, Mistral продолжают выпускать новые модели.

В Magistral добавили рассуждения. Что интересно, рассуждать умеет на разных языках (reason natively, как они пишут), если промпт не на английском (включая русский, арабский и китайский).

По скорости гораздо быстрее других моделей с расуждениями, но по ощущениям не в 10 раз, как пишут. Можете попробовать тут chat.mistral.ai.

Меньшую модель Magistral Small 24b выложили в открытый доступ. Можно запускать с vllm. Medium доступен по API.

👉 Пост | HF
2025/06/14 18:47:50
Back to Top
HTML Embed Code: