Telegram Group Search
Умная роборука за $110

Я уже писал про LeRobot — красавчики из Hugging Face продолжают пилить годноту для тех, кто хочет собрать и натренировать собственного робота дома. С последнего поста вышло столько обновлений, что пора делать вторую часть.

Во-первых, новые конфигурации. Теперь есть SO-100 — роботизированная рука всего за $110. А ещё LeKiwi — та же рука, но уже на подвижной базе. Этот уже может собирать разбросанные по комнате вещи в корзину. Выглядит мило — прям хочется завести такого дома.

Во-вторых, процесс тренировки серьезно прокачали. Оптимизировали всё, что можно, и выложили новый датасет, который можно за ночь зафайнтюнить под свои задачи. Установка может показаться сложноватой для новичков, но если уметь читать инструкции и не боишься спросить у LLM, как завести код, справится даже гуманитарий. Всё в открытом доступе, энтузиасты уже вовсю пилят свои версии. Вон, даже гуманоида за 300 баксов собрали (без учета привязанного к нему макбука).

Еще недавно добавили поддержку моделей вроде π0 и π0-FAST от Physical Intelligence — первых "фундаментальных" моделей для робототехники, которые понимают естественный язык и действия. π0-FAST, кстати, в пять раз быстрее в обучении благодаря новой токенизации действий — это уже уровень, где робот может адаптироваться к новым задачам на лету (за день, хах).

Ну и самое жирное — зарелизили датасет на 90 терабайт данных и 5000 часов записей с 6 камер для тренировки беспилотных автомобилей. Hugging Face недавно скооперировались с Yaak и выкатили Learning to Drive (L2D). Всё это также будет использовано против вас в LeRobot.

Гитхаб
Обнимающее лицо
SO-100

@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
🔥В генерации изображений новый игрок

Reve только вышли на рынок, а их модель Halfmoon 🌗 уже ТОП-1 на Image Generation Arena, обогнав Recraft V3, Imagen 3 и FLUX 1.1.

Я тоже попробовал и качество генераций очень очень хорошее. А вот про саму компанию мало чего понятно — известно лишь то, что их основали выходцы из Adobe Research

Уже доступна демка, по функционалу всё довольно просто — всего-то позволяют выбрать соотношение сторон, задать сид и врубить/вырубить автоматическое переписывание промпта. Также позволяют допиливать конкретную генерацию дополнительными промптами (закидывать свои картинки тоже можно). Как превью неплохо, посмотрим как будут допиливать.

Бесплатно дают 100 кредитов, 1 кредит = одна картинка, дальше они покупаются по $5 за 500 кредитов. Вместе с этим каждый день дают 20 генераций бесплатно, а когда они истекают, вот тогда уже используются кредиты. Если попробуете, напишите как вам.

И ждём ответку от Flux.

preview.reve.art

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSeek V3 обновили

Оригинальную модель тюнили крайне мало — всего 5 тысяч H800 часов (это менее чем 0,2% компьюта на тренировку модели), а теперь её наконец-то затюнили нормально. В результате модель лучше использует тулы, разрабатывает фронтенд и размышляет. Это не reasoner, R1 всё ещё лучше для сложных тасков.

Новую версию релизнули сразу под лицензией MIT, как и R1 (оригинальная V3 была под кастомной лицензией). Модель со вчерашнего дня доступна в API, чате и на 🤗.

https://huggingface.co/deepseek-ai/DeepSeek-V3-0324

@ai_newz
Gemini 2.5 Pro

Наконец-то reasoning завезли в Gemini Pro. На бенчах себя показывает очень хорошо — на нескольких это SOTA, в большей части бенчей модель проигрывает только multiple attempts режимам других LLM. Длина контекста у Gemini 2.5 Pro — миллион токенов, потом обещают завезти два. Модель мультимодальная, но нативную генерацию картинок не завезли (надеюсь пока что).

Экспериментальное превью уже доступно в AI Studio и подписчикам Gemini Advanced, цен на API пока что нет. Кстати, заметьте как раньше OpenAI релизила прямо перед релизами гугла, а сейчас всё наоборот.

Блогпост

@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Мультимодальная генерация в ChatGPT

Наконец-то завезли нативную генерацию картинок в 4o, обещанную ещё в прошлом году. В этот раз на стрим заявился даже сам Сэм Альтман.

Появилось всё то же, от чего мы восторгались в мультимодальной генерации Gemini Flash 2.0, но гораздо лучше.

Хотя, судить о качестве пока рано — я быстро потестил и скажу, что фотореализм модель не генерит. Оно и ожидаемо, так как пока что LLM-ки генерят изображения хуже, чем чисто диффузионные модели.

Поэтому и в шоукейсе (по крайней мере на стриме) не показали ни одного изображения в реалистичном стиле. Всё было больше стилизованным, иллюстративным.

Можно, конечно попробовать сделать более фотореалистичный стиль через какой-нибудь Flux, либо вытянуть детали через диффузионный апскейлер вроде этого. Но будет уже не то пальто.

Вообще, это уже какой-то тренд. Кто-то релизит какую-то прикольную фичу, которую OpenAI анонсировали 100 лет назад. А потом приходит Сэма и всех уделывает (или нет).

Блогпост
Тред с видосами OpenAI

@ai_newz
Новый генератор — шлак?

Генерацию картинок в 4o уже раскатили. Похоже, что вопреки всему, этот генератор ничем не хуже текущего топа. Рандомные примеры от комьюнити и мои тесты прилагаются.


Окей, генерит он и фотореализм тоже, но вот с лицами что-то не так. В первом моём тесте я вообще на себя не похож. Сравните с Gemini. Может, просто не повезло?

Бегом тестить пока сервер не лег!

@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Ideogram 3.0

Рисует красиво, ничего не скажешь. Заявляют SOTA на внутренних метриках, других бенчмарков нет. Из функционала, с релизом модели докинули возможность создавать свои стили (да, этого там не было). А с последнего раза когда я писал про них, завезли ещё и inpaint/outpaint.

Бесплатно дают 10 "медленных" кредитов в неделю, этого достаточно на 6-20 генераций с новой моделью, в зависимости от режима. Платная подписка начинается с 8 долларов в месяц и доходит до 60.

Блогпост
ideogram.ai

@ai_newz
GPT-4o серьёзно апнули

Модель заметно выросла по всем бенчам, особенно по кодингу. Модель сравнялась в бенчах с новой Claude 3.7 и апдейтнутой DeepSeek V3. До ризонеров довольно далеко, но ризонеры дорогие и подходят не для всех задач. К сожалению, сравнения с GPT-4.5 нет (сильно дорого бенчмаркать), но судя по LMSYS арене, новая GPT-4o лучше чем GPT-4.5.

@ai_newz
Сколько энергии тратят LLM на юзера?

Нашёл в интернете классную инфографику, наглядно показывающую сколько энергии нужно на год использования LLM, в сравнении с другими ежедневными занятиями. Исходят из расчёта на 100 обычных сообщений в день с не reasoning моделью. К методике у меня есть пара претензий, да и всё очень сильно зависит от конкретной модели, но порядок цифр верный. Я всё ещё постоянно вижу заявления о каких-то безумных расходах энергии и воды, даже от уважаемых изданий, надеюсь такой дезинформации станет меньше.

@ai_newz
Нейродайджест за неделю (#62)

LLM
- Нативная мультимодальная генерация картинок в 4o — Сама наконец развязал руки 4o. Прекрасно генерит картинки и редактирует их текстом, к тому же без дотошной цензуры. Но при этом крутит детали и меняет лица при редактировании. Правда, пока сервера положили все те, кто делают что-то там в стиле Ghibli. Более того, GPT-4o серьёзно апнули — Малая по бенчам сравнялась с Claude 3.7.
- DeepSeek V3 обновили — Дотюнили изначальный вариант, по бенчам немного подскачил.
- Gemini 2.5 Pro — Пушка от Google и СОТА модель сегодняшний день (выкуси Сама).
- Чатботы почти не тратят электроэнергию — Сравнение расходов электричества на LLM и другие повседневные дела.

Роботех
- LeRobot — Опенсорс-робототехника жёстко обновилась: роборуку можно собрать за 110 баксов, а потом за ночь обучить на домашнем железе.

Генеративные картиночные модели
- REVE — Новая СОТА в text2image. Отличное понимание промпта и знание русской эстетики.
- Ideogram 3.0 — Говорят, что СОТА, но на деле неизвестно. Выложили в ответ REVE и OpenAI.

> Читать дайджест #61

#дайджест
@ai_newz
А вот и YandexGPT 5 Lite Instruct подъехал в опенсорс.

Я уже писал про 5-е поколение моделей Яндекса, но тогда выложили только pre-train версию, а теперь релизят Instruct версию. Ее неплохо бафнули в плане кода и матана и увеличили контекст с 8 до 32k. По сравнению с Qwen 2.5-7B-Instruct моделька значительно лучше справляется с классификацией и разметкой русского языка, в том числе в вопросах культурного наследия и локальных фактов. Челы из Яндекса хвастают, что в side-by-side обходят Qwen в 62% и имеют паритет с YandexGPT 4 Pro, а в типичных задачах сервисов Яндекса обходят даже GPT-4o Mini.

Добавили также поддержку llama.cpp и GGUF. Моделька всего на 8B, так что влезет в домашний ПК.

Кроме того, обновили лицензию. Теперь обе модельки можно использовать в коммерческих целях — но не более 10 млн выходных токенов в месяц.Хватит на небольшого кастомер-саппорт-бота. Однако крупному бизнесу придётся платить за лицензию. Для них приятная плюшка — это совместимость с OpenAI API в Yandex Cloud. То есть можно переключаться между ними практически бесшовно. Странно, что сразу так не сделали.

Обнимающее лицо

@ai_newz
GPT 4o залетела на Image Arena

Модель теперь делит первое место с Reve, а Ideogram V3 на арену пока что так и не добралась. Это не единственная LLM на арене — там уже есть Gemini 2.0 Flash, которая по качеству где-то между Stable Diffusion 3.5 Medium и FLUX 1.0 schnell, что на целых 150 ELO отстаёт от топа. Кстати, возможности генерации изображений должны быть у всех моделей Gemini, интересно что будет выдавать Gemini 2.5 Pro, когда её включат, и как повиляет на это ризонинг.

А как скоро LLM начнут генерить ещё и видео? Хотя такая статейка уже была у гугла пару лет назад.

@ai_newz
2025/06/30 20:03:14
Back to Top
HTML Embed Code: