Telegram Group Search
Новые возможности для инвестиций и своя "дача" у моря — это Таиланд

Что, не ожидали? Регион активно развивается, рынок не перегрет. Стоимость недвижимости растет, потому что территория для застройки ограничена.

Иностранцам доступны рассрочки, а доходность в валюте составит 5-7% при сдаче в аренду на долгий срок или до 10% посуточно. А еще здесь стабильная к $ валюта и почти 0% инфляции.

Разобраться в недвижимости Таиланда помогает на своем канале аналитик Андрей Негинский. Он каждый день публикует квартиры и виллы для жизни и инвестиций, рассказывает об особенностях рынка недвижки и местного быта.

Подписывайтесь на канал и забирайте подборку объектов в Таиланде в закрепленном сообщении.

#промо
Hugging Face Inference Providers

А вот это интересно. Вот раньше вы находили (ссылку этом канале) интересную модель на Hugging Face. Читали, восхищались и шли искать, где попробовать.

Да, у Hugging Face были и есть свои Spaces, то есть сервера.

Но теперь они переходят на Serverless-решения:
«Бессерверные провайдеры процветают, и настало время для Hugging Face предложить простой и унифицированный доступ к бессерверному выводу через набор отличных провайдеров»

Короче, нашли вы ссылку на модель на Hugging Face и прямо тут же можете ее погонять на сайте Hugging Face.
А не идти на FAL, Replicate, TogetherAI или СамбаНову.
Они сами пришли!

Можно гонять DeepSeek R1, Llama, Flux, Whisper прямо на сайте Hugging Face.

"Hugging Face заявляет, что разработчики, которые пользуются услугами сторонних облачных провайдеров через ее платформу, будут платить стандартные ставки API провайдера, по крайней мере, на данный момент. (В будущем Hugging Face может заключить соглашения о разделе доходов с партнерами-провайдерами)
Все пользователи Hugging Face получают небольшую квоту кредитов для использования, а подписчики Hugging Face Pro, премиум-уровня Hugging Face, получают дополнительные 2 доллара кредитов в месяц."

https://techcrunch.com/2025/01/28/hugging-face-makes-it-easier-for-devs-to-run-ai-models-on-third-party-clouds/

@cgevent
Krea прикрутили у себя Минимаксовскую Hailuo's Subject Reference.

Теперь в Креа можно грузить свои или чужие фотки и надеяться на консистентность этого персонажа.

Не уверен, что на котиках будет работать.

Креа молодцы, в среднем за две недели внедряют новые фичи из всего, что у них шевелится на сайте.

Постепенно превращаются в монстр-аггрегатор всех генераторов и не забывают про свои фишки.

Сейчас Freepik пытается за ними угнаться, тоже аггрегируя у себя разные модели.

Надо, конечно, считать экономику - возможно, если вы пробуете разные генераторы постоянно, то выгоднее брать Krea, но если сидите на чем-то одном, то вряд ли.

Кто плотно сидит в Креа?

@cgevent
Стартапам на заметку

Отчет от a16z про голосовых агентов.

Интересно, что сделано на gamma.app

"Начнем с того, что мы считаем голос одним из самых больших открытий для ИИ. За последние шесть месяцев мы стали свидетелями огромных шагов вперед со стороны моделей. Задержки и надежность теперь в значительной степени решены, а натуральность и эмоциональность также достигли больших успехов. Голосовой искусственный интеллект теперь почти соответствует человеческим стандартам, позволяя технологиям заменить работу по телефону. В результате произошел взрыв стартапов, создающих приложения на основе этих моделей. Только в Y Combinator было представлено 90 проектов голосовых агентов. Многие из них ориентированы на конкретные вертикали - по отраслям (например, бытовые услуги, стоматология) или функциям (например, рекрутинг, поддержка клиентов) - и быстро масштабируются!

В большинстве случаев мы видим, что голос - это wedge, а не продукт. Большинству компаний необходимо задействовать смежные рабочие процессы: передавать данные о звонках в CRM, автоматизировать последующие действия и т. д.

Что мы ищем в стартапах голосовых агентов:
- Работают в отрасли, где телефон является предпочтительным или обязательным средством связи или имеет гораздо более высокий процент успеха по сравнению с другими способами
- Звонки ограничены - как по длительности, так и по формату/результату
- Голосовой агент обеспечивает снижение затрат на 50%+ при одинаковом с человеком проценте успеха
- Звонки являются "жизнью или смертью" для клиента - они заплатят значительные деньги, чтобы их совершили или ответили на них... но не для конечного потребителя
- При продаже на SMB/среднем рынке агентский продукт имеет простую интеграцию. При продажах на корпоративном рынке сложная интеграция может стать moat!"


@cgevent
Кхтулку 405B

Пардон, Tülu 3 405B

Раньше писали "мы побиваем 4o\o1", сейчас пишут "мы уделываем Deepseek"

Ну и акценты смещаются с тренинга на скейлинг.

Институт Пола Аллена выпустил Кхтулку на свободу, в опенсорс.

https://allenai.org/blog/tulu-3-405B

@cgevent
Ну и от такого шума даже французы проснулись после нового года.

Мистраль 3. Лицензия Apachi 2.0 - делай, что хочешь. Опен-сорс. Веса на всех торентах датацентров.

https://mistral.ai/news/mistral-small-3/

@cgevent
Media is too big
VIEW IN TELEGRAM
Riffusion - Full Story

Еще один конкурент Suno.

Только, что писал про опенсорсный Е.

Теперь полная история про RiffDiffusion

Это Очень старый проект - изначально Riffusion - это text2image модель, способная генерировать изображения спектрограмм на основе любого текста. Эти спектрограммы могли быть преобразованы в аудиоклипы.

Очень красивая идея из 2022 года.

Однако у них на Гитхабе написано, что проект закрыт:
https://github.com/riffusion/riffusion-app-hobby
Но модели v1 еще можно скачать тут:
https://huggingface.co/riffusion/riffusion-model-v1

Тем не менее их древный Дискорд не умер и там есть интересная история:

Мы - те же люди, которые создали OG riffusion, плюс несколько потрясающих и талантливых друзей. Наша новая компания отделена от исследовательского проекта, но в конечном итоге мы все еще просто пара музыкантов и любопытных любителей побаловаться. У нас нет планов выпускать нашу последнюю модель весов на huggingface. Мы планируем внести больше крутых вещей в сообщество с открытым исходным кодом. Мы будем рады использовать этот дискорд, чтобы делиться обновлениями, получать отзывы и делать музыку вместе с вами.

Короче, весь прошлый год они тизерили закрытую бету, и даже ios app (мертв), а вчера дали доступ всем, и звучит, надо сказать неплохо!

Логин Гуглом, пока все бесплатно, как в раннем Суно.

Из интересного: свои треки на входе, персонализация, llm для тектов, ремиксовая мода

И вот это прям сладко:
Edit: Transform your songs through Covers, Extensions, and Replacements.

Advanced Features: Experiment with multi-sound prompts, weirdness, sound and lyric strength, stem splitters, and multiple model versions.

Особенно stem splitters.

Го тестировать и сравнивать с Суно.
https://www.riffusion.com/

Бета андроид аппа: https://riffusion.typeform.com/to/DV8eKrxW

@cgevent
Media is too big
VIEW IN TELEGRAM
RiffDiffusion - песка почти нет, звучит чуть суховато, но надо колдовать с промптом, интересная стереобаза, кстати.

intense folk, blues, new orleans, soulful blues, soul, New Orleans voodoo, Cinematic soulful blues, R&B, ethereal chants, raspy male blues singer, vocal powerhouse, haunting cello, gospel backing choir, mystical percussion, upright bass, resonator guitar

На сайте все подряд, а вот в твитторе RiffDiffusion прям пользовательские черрипики
https://x.com/riffusionai/status/1884984944382099649

"Мы делаем этот инструмент бесплатным до тех пор, пока живы наши графические процессоры."

Звучит как план!!

@cgevent
Вот так я провожу свои дни.

Открываешь коменты, а там 500 запросов на добавление в чат.
И начинаются они вот так. И главное, все такие Премиум...

Я щас удалю все, если вы кожаный и адекватный, добавляйтесь заново, постараюсь отличить вас от ботов и магов. Хотя это непросто по вашим аватаркам.

Если совсем уж замуж невтерпеж, пишите в личку.

@cgevent
Рубрика крутые подписчики или User Generated Content

C утра обсуждали апскейлеры в чате. Boris Faley написал отличное саммари по опенсорсным апскейлерам.


Как раньше работал апскейл:
Интерполяция по алгоритму (обычное математическое масштабирование) + восстановление частотное (от низа к верхам - чит).
И эти алгоритмы не могли угадывать и прогнозировать что должно быть - никакх сходств, никаких баз и векторов и пр.

Потом пришлиы ГАНы (GAN):
Весь смысл этих сеток - обучение по парам: плохое качество - хорошее качество.
Тут оператор ЭВМ берет фоточку своего котейки в 4К и жмет безбожно до 512х512 и меньше.

И так учится сетка. Чем больше примеров (насмотренности) тем круче на выходе.
Древный мамонт ESRGAN - который все помнят по заре СД 1.5 - всех удивлял: накуривал детальки, текстурки.
Потом пришел Real-ESRGAN (дообученный ESRGAN) и показал, кто тут Батя, который мог в женские соски, в JPEG артефакты и пр.
И всякие 4x Ultrasharp, Remacri, Anime model это продолжение Real-ESRGAN,
но дообученные на разные таски: чёткие фото, аниме-стиль, восстановление старых снимков.

Topaz Gigapixel и пр. у них так же в базе GAN сети, но по ним нет данных.

Под капотом будет или диффузионный апскейлер или GAN - сути это не меняет.
Кто из производителей больше натренил - то и лучше. тупо - кол-во шагов и разнообразие.
Тут только вопрос в одном, кто сделает лучше: комьюнити или коммерсанты?
В NSFW - комьюнити вне конкуренции.

А можно апскейлер натаскать на определенной задаче?
Да:
EDVR -
https://github.com/xinntao/EDVR
BasicVSR -
https://github.com/xinntao/EDVR

По видеоапскелу все сложнее - тут нужно решать задачи темпоральной согласованности и извлекать оптический поток. Стоимость трейна для комьюнити дорогвата, потому лучше юзать коммерческие модели. Это мое имхо. Но я не вижу разницы принципиальной на столько чтобы платить за апскейл.


@cgevent
REPFLIX!

Отличный и полезный маркетинг от Replicate (хостер ИИ-моделей, где вы платите за API вызовы и можете генерить что-угодно "посекундно").

Чтобы стимулировать пользователей файнтюнить опенсорсные видео-генераторы, Replicate создали Repflix.

Каждое видео генерируется с использованием разных файнтюненных моделей и лор, показывая, как один и тот же промпт отображает разные стили и интерпретации.

Эти модели были обучены на кадрах из известных фильмов и шоу. Они изучают визуальный стиль и движения камеры, которые отличают каждый фильм. Можно перемещать ползунки, чтобы увидеть, как различные параметры влияют на результат.

Играемся тут: https://repflix.vercel.app/

А полезность такого маркетинга в том, что там есть ссылка на статью:
You can now fine-tune open-source video models
И там показано, как они адаптировали Musubi Tuner от kohya для работы на Replicate, чтобы вы могли зафайнтюнить HunyuanVideo на своем собственном контенте.

Кстати, весь код этого веб-аппа выложен на гитхаб:
https://github.com/deepfates/repflix

А вот тут выложены все файнтюны Хуньяня от Deepfates:
https://replicate.com/deepfates

И там прям жир.

2026: открываете Нетфликс, и думаете, а не поглядеть ли Breaking Bad в сеттингах Игры Престолов?

И ну гадать - Walter White будет Белым Ходоком или Джоном Сноу?

Весело и полезно.

@cgevent
Основатели AI-стартапов здесь? Пост специально для вас

Сейчас AI явно проживает «золотую эру», но запустить успешный AI-продукт с нуля, чтобы клиенты за него платили, а инвесторы дали денег — задачка со звёздочкой. Фаундер натыкается на кучу вопросов:

▪️Где найти инвестора?
▪️Как подготовить питч-дек стартапа?
▪️Мой AI-продукт в глазах инвестора «вау» или «так себе»?
▪️Как вообще вывести продукт на рынок и собрать первую команду?

Андрей Резинкин отвечает на эти вопросы в канале Money For Startup. Андрей — ранний инвестор в AI-стартапах XOR, AiTOMATIC, InTone и др. и рассказывает про стартапы с точки зрения инвестора. А это взгляд, которого часто не хватает фаундеру.

Начните с гайда для фаундеров:

👉 Что нужно знать фаундеру на каждом этапе развития стартапа?

Каждый пост Андрея - пошаговый план действий для тех, кто рискнул начать AI-стартап или всё мечтает об этом.

Подписывайтесь, чтобы увидеть свой проект с позиции инвестора и прокачать свой стартап.

#промо
Forwarded from эйай ньюз
OpenAI выпустили o3-mini - бесплатно

Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Pro - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.

Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).

У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.

Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.

Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.

@ai_newz
2025/02/01 03:06:09
Back to Top
HTML Embed Code: