Telegram Group Search
FLUX kontext

1) ОЧЕНЬ быстрый в сравнении с imagegpt, 6s на картинку. скорее продвинутая диффузия/IPa
2) работает хуже чем gptimage, не работает русский текст, куча всяких приятных штук которые у gptimage работают;



1 - ориг
2 - flux kontext
3 - gptimage

C точки зрения качества картинки FLUX на голову выше, но сложные эдиты ему даются очень тяжело. Короче везде компромисы выбирайте под задачу.
В Белграде 2-3 июня будет конференция по DS

Мероприятие будет насыщенным, в программе:
* Выступления спикеров из топовых фирм и стартапов (Perplexity, JetBrains, ex-Meta, AI MoonValley) с докладами для ML экспертов и более широкой аудитории
* Постер-сессия отобранных ML проектов
* Модерируемые дискусиии, в которых сможет принять участие каждый

Ивент полностью бесплатный, язык — английский

Больше информации: https://datasanity.dev/
🚀 Регистрация
ТГ: @datasanity
Ивент в LinkedIn

По всем вопросам можно писать @yarrrro
Forwarded from Labrats
The Darwin Gödel Machine: AI that improves itself by rewriting its own code

Давайте дадим модели переписывать код агента, промпт агента и оптимайзить бенчмарк(swe bench), что может пойти не так и гудхартнутся?

Собственно идея работы такая: у нас есть агенты, давайте выкинем человека из оптимазации агентов и посадим prompt эволюцию+рерайтер кода чтобы оптимизировать бенчмарк, а сами пойдем пить пиво.

Таким образом агентский перф разгонятся от бейзлайна(0.2) до 0.4~

Результаты выглядят очень круто, из забавно-пугающего - модели пытаются выключить тулы мониторинга/тулы против галюцинаций для повышения скора.

paper
This media is not supported in your browser
VIEW IN TELEGRAM
https://www.bondcap.com/reports/tai

то рисуют log то не рисуют дачтож такое то
Forwarded from Voice stuff
🚀 Разгоняем open-source-TTS

Сегодня я инвестирую в создание открытого корпуса русской речи!

Почему это важно?
Русские TTS-модели отстают от мирового уровня примерно на два года. Главная причина - это нехватка крупных, качественных и общедоступных датасетов. Без данных сложно быстро тестировать идеи и выпускать новые модели.

Кто делает датасет?
Знакомый вам Денис @bceloss, уже собирает нужные данные. Грант позволит ему работать над проектом фул-тайм и выложить результат в открытый доступ уже к концу лета.

Что это даёт лично мне?
Я хочу брать свежие модели с Hugging Face и решать прикладные задачи без глубокого ресёрча и бесконечной поддержки собственных пайплайнов. Чем больше открытых данных, тем быстрее это станет реальностью. Тем больше китайцев, которые обучат свои новые XYITTS на русском языке и тем проще мне решать реально важные задачи.

Как помочь уже сейчас?
1. Подпишитесь на канал Дениса @den4ikresearch.
2. Вы можете ему задонатить.
3. Репостните эту новость, чтобы о проекте узнало больше команд.
4. Напишите в комментариях, какие форматы и метаданные вам особенно нужны в корпусе.
5. Публикуйте свои данные и системы!
Когда собаке нечего делать она лижет себя, когда mle нечего делать он начинает вкорячивать ops Тулы, 10 конфигов, систему мониторинга трейнов, все завернуть в три слоя абстракции, настройку из clearml и переписать с torch lightning на accelerate и обратно
Однажды hftшникам офис-менеджер не купил амфетамин, в общем теперь у ребят mid freq фонд.
Хороший пример студенческих работ, жаль что такого очень мало.

Собрали датасет шуток, выкинули плохие, оценили токсичность, позанимались топик моделингом(надеюсь он вымрет)
Ещё бы на hf вместо gitа залили и совсем хорошо.
И к сожалению в статье про анекдоты забыли анекдоты.

Надеюсь ребят покопаются ещё и соберут Mt bench для анекдотов)

Хабр
Preprint
Кажется первый на моей памяти открытый пример боевого дизайна системы на своих + платных моделях еще и с кастомными грамматиками и всяким архитектурным.

Статья от точки булочки мои.
This media is not supported in your browser
VIEW IN TELEGRAM
Обучение на синтетике из видеомоделей с нами в одной комнате?
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/14 04:53:21
Back to Top
HTML Embed Code: