Telegram Group Search
Black Forest Labs выпустили новую модель — Flux.1 Kontext.

Загружаешь картинку, пишешь, что поменять и всё остаётся на месте, кроме того, что ты просишь.

Не нужно тренировать ИИ, чтобы он сохранял человека в 1 в 1.

• Персонажи не меняются при правках
• Можно менять кусочек сцены, не трогая фон
• Поддерживает стиль по референсу

Есть три версии:
Pro — стабильный стиль и персонажи
Max — максимум точности и мощности
Dev — опенсорс, пока в закрытой бете.

Доступ только через API в Krea, Freepik, Leonardo, Replicate, Fal и ComfyUI.

Например в Replicate цена на Pro версию $0.04 за генерацию.

Но советую сначала зайти в Playground.

На старте будет 200 кредитов, а одна генерация 4 кредита.

@tips_ai #news
Новость последних минут Perplexity — запустили Labs, работает только у подписчиков с Pro-аккаунтом (купить за 5 баксов на год)

Сделал краткий перевод описания модуля с их блога ниже. Видимо пока раскатали только на веб-версию, если вы у себя не видите, обновляйте страницу (я раз 10 обновлял)


Perplexity Labs — это «цех идей», который превращает запрос-мысль в готовый результат, а не просто в ответ-текст.

Вот как это работает и зачем вам может пригодиться:
1. Из «машины ответов» в «команду исполнителей».
Если обычный режим Search мгновенно отдаёт справку, а Research (бывший Deep Research) за пару-тройку минут пишет обстоятельный отчёт, то Labs тратит до десяти минут и ведёт полноценный «мини-проект»: ищет в Сети, пишет и запускает код, генерирует графики и изображения, а затем собирает всё это в аккуратный пакет материалов.

2. Файлы без хаоса — вкладка Assets.
Все результаты — CSV, изображения, готовый код, презентации — автоматически клеятся в единую библиотеку проекта. Нужный файл можно скачать одним кликом, ничего не потеряется в бесконечных вложениях почты.

3. Мини-приложения в один клик.
Labs способен с нуля собрать простое веб-приложение: интерактивную панель показателей, слайд-шоу или landing-page. Готовый «App» открывается прямо в браузере, без внешних IDE и деплоя.

4. Сценарии использования — от маркетинга до ужина.
• план маркетинговой кампании с медиапланом и визуалами;
• анализ P&L-отчёта с диаграммами;
• недельное меню с автоматически сгенерированным списком покупок.
Всё это — реальные шаблоны из галереи проектов.

5. Для кого и как запустить.
Функция уже доступна подписчикам Pro в веб-, iOS- и Android-версии Perplexity (десктопные приложения на подходе). В поле выбора режима рядом с Search/Research появится пункт Labs — жмёте, формулируете задачу и отдаёте её «в производство».

Зачем это вам?
⁃ Сэкономить дни рутины. То, что раньше требовало нескучной недели Excel-таблиц и Figma-макетов, теперь собирается за кофейный перерыв.
⁃ Проверить идею «вживую». Вместо абстрактного «а если бы…» — сразу рабочий прототип.
⁃ Думать масштабно. Когда реализация занимает минуты, экспериментировать становится дешевле, а креатив — смелее.

Подытожим: Perplexity Labs — это турбонаддув для ваших проектов: он ищет, анализирует, пишет код, рисует и упаковывает результат, пока вы обдумываете следующий шаг. Запустите Lab один раз — и времени «на подумать» станет гораздо больше, а на рутину — радикально меньше.

Давайте тестить!
Стоматолог — вы неправильно чистите зубы.

Тренер — вы неправильно приседаете.

Родственники — вы неправильно живете.

Claude — вы абсолютно правы!

@tips_ai
🤗 На Hugging Face появилась интересная демка Chain-of-Zoom — это способ увеличивать зум на изображениях в несколько этапов, аккуратно и без потери качества.

Вместо того чтобы один раз растянуть картинку и получить мыло, модель делает это по шагам и добавляет текстовые подсказки, чтобы сохранить детали.

• Поиграться можно на [HG]
[GitHub]

@tips_ai #tools
Media is too big
VIEW IN TELEGRAM
Раньше все AI-интерфейсы строились вокруг диалога.

Ты пишешь, модель отвечает и так по кругу, пока не добьёшься нужного результата.

Но это начинает казаться архаичным.

Потому что, появляются агенты, которые всё делают сами и на первый план выходит интерфейс вокруг действия, а не разговора.

• Чат теперь не главная сцена, а служебный элемент.
• Результаты выносят в отдельную зону: канвас, документы, код.
• Агенты, которые работают в фоне: ты просто ставишь задачу, они всё делают сами.

Отличный пример — интерфейс Genspark AI или Manus.

То есть ты видишь и свои запросы, и то, что ИИ делает одновременно.

Интерфейсы подстраиваются под это, возможно и правильно.

Главное теперь не общение, а результат.

И вот живой пример: парень работает на двух мониторах — на одном пишет промты, а на втором сразу 12 агентов Claude 4 opus код строчат 😃

@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
FlyMy.AI ребята из нашего канала выкатили — Agent M1.

Мультимодального AI-агента, построенного на open-weight моделях и по метрикам обходит предыдущего лидера, нашумевший на прошлой неделе ByteDance Bagel, и даже OpenAI Image 1 по некоторым параметрам.

Лучше справляется с генерацией без лишнего текста, точнее сохраняет лица, умеет в видео и стоит дешевле.

Агент сам выбирает нужную модель под задачу.

Главное хорошо держит лицо: если делаете аватар или видео, будет реально похож на оригинал.

FlyMy.AI — это единый API для генерации всего подряд: картинки, видео, смена внешности, LoRA — всё через один интерфейс.

Попробуйте их API-ключ или протестируйте на сайте [тут].

@tips_ai #tools
Media is too big
VIEW IN TELEGRAM
Anthropic недавно выложили бесплатный курс AI Fluency, и он не про промты, а про подход.

Курс про то, как описывать задачу, чтобы модель поняла, чего ты хочешь.

Как оценить результат, а не просто принять его.

По сути, учат думать в режиме итераций:
• описал
• получил
• оценил
• уточнил
• повторил
И так до нужного уровня качества.

Чем лучше ты формулируешь и понимаешь задачу, тем сильнее становится модель в твоих руках.

И наоборот, если не знаешь, чего хочешь, AI точно не поможет.

Там есть фреймворк, который прописан пошагово.

Есть идеи, как сделать AI частью своих рабочих процессов: не хаотично, а системно.

И даже как выстраивать свою личную AI политику, когда и для чего ты вообще его включаешь.

Мне понравилось, потому что учат не [научи меня промптить], а про то, как [думать и работать с ИИ].

👉 Ссылка на курс [тут]

@tips_ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Про Veo3

На Flow доступ к ней стоит $250 — удовольствие не из дешёвых.

Но я попробовал у ребят из syntxaibot.

Они недавно добавили Veo3, и теперь не нужно танцевать с бубном, чтобы просто сгенерировать вирусный ролик.

Ролики от Veo3 сейчас хорошо набирают в TikTok и Reels.

Люди либо не понимают, это фейк или съёмка, либо просто ржут с происходящего.

Что я, собственно, и сделал 🤌

Ответка от Дурова по поводу grok 😏

@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Сейчас открыл ChatGPT — сразу заметил новые фишки.

А потом ещё и стрим параллельно включил, где всё подробно разложили.

ChatGPT теперь может сам копаться в ваших письмах, календаре и файлах в облаке (Google, Microsoft, GitHub и пр.).

• Подключается к корпоративным базам знаний через коннекторы
• Можно использовать Deep Research, чтобы сам находил нужное среди всего хлама
• На macOS появился диктофон: включил на встрече — получил краткое резюме

И то, что мне нужно: анонсировали record mode.

GPT сам подключается к Zoom, Meet, Teams, забирает всё, что обсуждали, делает сводку, превращает в текст, таблицу, документ — что угодно.

Все эти штуки пока только для Team и Enterprise.

@tips_ai #news
😃Gemini 2.5 Pro Preview 06-05
👌Знания до Января 2025 года
😄Ссылка

@tips_ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
ElevenLabs выкатили v3 (alpha) — и это то, что давно всем не хватало.

Озвучка текста теперь с эмоциями, паузами и интонацией.

Модель понимает текст, чувствует эмоции, меняет тон, делает паузы.

Управляется через аудио-теги: [sad], [angry], [laughs], [whispers], их там намного больше.

Поддерживает 70+ языков и многоголосые диалоги.

Сейчас альфа версия, но уже [доступна]

@tips_ai #news
Как мы используем ИИ в разработке нашего бота для расшифровки речи

У нас есть тестовая копия бота, где мы проверяем новые фичи.

Когда собираемся на еженедельный созвон и начинаем кидаться идеями: давайте тут кнопку, а тут бы попроще интерфейс и тд.

Чтобы это увидеть и попробовать, мы просто просим Claude Code реализовать это прямо на созвоне.

Уже смеялись: вот бы агента, который будет сидеть с нами на звонке, фиксировать наши идеи и во время звонка писать код на основе наших идей 🍸

Но мы не программисты — у нас есть один прогер для реализации наших решений в прод. Если не работает — просим разработчика 👨‍💻

Недавно Даниэль (фронтенд-разработчик в Яндексе) писал в своем канале, как у них ИИ уже стал частью повседневной работы: нейро-ревью кода, автосводки по PR’ам, внутренние AI-сервисы, расширения для IDE.

Там же поделился своими инструментами, с которыми сам работает каждый день.

Например, вместо базового поиска он использует Perplexity

Читаешь и понимаешь, что ИИ перестал быть чем-то на перспективу.

Это уже естественный рабочий инструмент. Просто у них этим пользуются сотни команд, а у нас три человека.

Не нужно быть гением, чтобы пользоваться ИИ.

Нужно просто начать 🚶‍♂️

@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Попросил четыре разных ИИ назвать случайное число от 1 до 25.

ChatGPT — 17
Claude — 17
Grok — 17
Gemini — 17

LLM не генерируют рандом, они предсказывают, что бы ответил человек.

А человек, как выяснилось, почему-то часто называет именно 17.

Если используешь ИИ без настройки и своих данных — ты получаешь ровно то, что и все остальные 👉

Та же модель —> те же ответы

Настоящая польза, когда ты вносишь что-то своё: черновики, задачи, переписки, мысли и др.

Когда модель знает, как ты думаешь, что тебе важно, как ты пишешь и какие решения принимаешь — она перестаёт быть просто ассистентом и становится продолжением твоей головы.

Иначе это просто общий шаблон в красивой обертке.

@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
How-Anthropic-teams-use-Claude-Code_v2.pdf
5.9 MB
———
Anthropic недавно выложили полный обзор: как их команда используют Claude Code — от разработчиков продуктов до специалистов по маркетингу и юристов.

Если вы новичок в Claude Code, то сначала посмотрите свежий [ролик], где Борис (ведущий инженер) и Алекс (руководитель по работе с разработчиками) обсуждают Claude Code, и делятся советами.

Claude Code можно использовать в подписке Pro для коротких cессий (~1-2 часа) в небольших кодовых базах.

Для истинных вайбкодеров — нужна подписка Max.

@tips_ai #news
Посмотрел вчера презентацию Apple — ну что сказать, они показали iOS 26 похожую на Windows Vista 😅

Серьёзно, мне жаль, но это правда выглядело ужасно.

Думаю, вы сами всё видели и тоже это поняли.

Даже превью к трансляции уже как бы намекал 🤫

@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
У меня появилась новая модель o3 Pro.

o3 Pro — это модель для глубокого анализа и лучше работать с ней, когда даешь больше контекста в промпт.

Будет доступна для подписок Pro и Team, заменив предыдущую модель o1-pro.

o3-pro отличается от модели o1-pro тем, что имеет доступ к инструментам: веб-поиск, анализ файлов и их загрузка, а не только изображений, как o1-pro.

Но я думаю, что мне и вам — в большинстве случаев устроит обычный o3 😏

@tips_ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/11 09:35:37
Back to Top
HTML Embed Code: