Telegram Group Search
Еще одно небольшое и удобное обновление в ChatGPT

Теперь все сгенерированные изображения хранятся в одном месте. Появился раздел Library. В честь этого демонстрирую вам свои последние генерации.

Раздел живет вот тут.
This media is not supported in your browser
VIEW IN TELEGRAM
Для видеографов и контент-мейкеров

Появилась заявочка на лучший AI-монтаж роликов. Называется Ponder AI.

Говорят будет экономить массу времени не только монтируя, но и редактируя звук. Взаимодействие через естественный язык в LLM-окошке.

Пока что можно только оставить заявку на тест тут.

#videoEditing@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Немного вайбов "Черного Зеркала" на Meta Quest 3

Кстати, до "Точек над ИИ" и других каналов – я вел только один канал про технологии, в основном про AR/VR и их использование в маркетинге.

Если вам такое интересно – вэлкам, буду рад, если подпишетесь!
This media is not supported in your browser
VIEW IN TELEGRAM
Google встроила ИИ прямо в Таблицы.

Теперь
=AI() — это формула

Gemini поселился в Google Sheets.
Формула =AI("твой запрос", A1) позволяет Таблицам… думать.

Теперь можно прямо в ячейке:

– Определить, кто где играет.
Пример:
=AI("What professional league does this team play in?", A1)
и он подскажет, это NBA или NHL.
– Понять настроение текста.
Отзыв радостный, жалобный или нейтральный — AI это отличает и классифицирует.
– Сделать выжимку.
Было: «Очень хороший товар, но доставка ужасная и курьер...»
Стало: «Негатив из-за доставки».
– Распределить по категориям.
Например, обращения клиентов: благодарность / запрос на обмен / запрос на возврат.
– Генерить текст.
Слоган, письмо, список ключевых слов — полноценная генерация.

🧠 Пока фича доступна в рамках альфа-тестирования Gemini для Google Workspace.
Если вы в числе участников — уже можно играться. Остальным — ждать запуска в открытый доступ.

#documents@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Пример того, как в Клинге работает Multi-Elements

Кратко — как пользоваться? Как-то подписчики писали, что даже простые инструкции стоит публиковать. В общем это легко и весело:

01. Выберите «Multi-Elements»
02. Загрузите реф-видео
03. Выделите нужные правки
04. Загрузите реф-изображение
05. Выберите «Заменить/Добавить/Удалить»
06. Добавить промпт + сгенерировать.

Ну и артефакты вне поля генерации могут встречаться, обратите внимание, как мужичок сзади еще сильнее высовывает язык на финальном видео🤪

#VideoGenerative@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Canva показала гору новых AI-фич

Ребята из Canva решили, что мало просто делать красивые картинки и презентации. На своей конференции Create 2025 они запустили AI на полную.

Вот 5 основных фич, которые цепляют больше всего:

1. Canva Code
Теперь превращать идеи в готовые дизайны можно без кода. Просто опиши, что тебе надо, и AI всё сделает сам.

2. Magic Formulas и Magic Insights
AI-функции внутри Canva Sheets, которые сами проанализируют данные и подскажут, что дальше с ними делать.

3. Промпт голосом, текстом или картинкой
Скажи, напиши или покажи, что хочешь получить, и Canva за секунды соберёт презентацию, графику или документ.

4. Кнопка перевода и локализации
Всё, что делаешь, сразу переводится на разные языки. Пригодится тем, кто работает с контентом на зарубежную аудиторию.

5. Magic Charts
Превращают любые данные в стильные, интерактивные графики за один клик.

Ознакомиться можно тут.

#design@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Luma запустили Camera Angle

Это значит, что теперь вы можете выбрать свой угол обзора камеры более точно.

Например: вид сверху, селфи, вид снизу и др.

#VideoGenerative@TochkiNadAI
Если вдруг пропустили – у Krea вышел простенький редактор, в котором можно по промпту быстро накидывать 3D-сцены.

Да, пока выглядит кринжовенько, но вполне подойдет для быстрых концептов, особенно если вы не 3D-дизайнер.

На видео пример с ковбоем от Krea, а второй скрин – это моя городская сцена😄

Но вообще еще вижу в этом потенциал для контроля генерации видео. Расставляешь сцену, задаешь ракурсы и отправляешь AI "рендерить" реалистичный ролик.

#3D@TochkiNadAI
Microsoft Copilot теперь умеет кликать мышкой. И даже думает, куда кликать

На этой неделе Microsoft добавила в Copilot Studio новую функцию — Computer Use.

Теперь можно обучить AI-агента, который сам:
– нажимает кнопки,
– заполняет формы,
– лазит по сайтам и
– работает с десктопными приложениями,
как если бы это делал человек с мышкой и клавой.

Даже если API нет — всё равно работает.
Copilot с функцией Computer Use идёт другим путём, он как бы смотрит на экран, распознаёт кнопки, поля и текст, и сам кликает, пишет и выбирает нужное — имитируя действия обычного пользователя.

Примеры — от автоматического ввода счетов до парсинга данных с сайта или обработки заявок в старом ПО. Всё это агент делает сам.
Записаться на тест можно тут.

#Agents@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Copilot Vision теперь бесплатен в Edge — ИИ, который смотрит на экран вместе с тобой

Теперь у всех пользователей Edge появился доступ к Copilot Vision — функции, которая позволяет ИИ анализировать то, что ты видишь в браузере. Можно голосом

💡 Примеры, где это может пригодиться:

– Читаешь PDF с инструкцией — Copilot объясняет по пунктам
– Бродишь по маркетплейсу — он помогает выбрать
– Нашёл объявление о работе — обсуждаете, как на него ответить
– Статья слишком длинная — просишь краткий пересказ

Copilot смотрит на содержимое страницы и отвечает, как будто вы обсуждаете то, что видите вместе.
Не кликает, не пишет — только подсказывает и объясняет.

Прямо сейчас доступно всем пользователям Edge.

Кстати, также можно и с GPT — шарим экран сматрфона через голосовой ввод (голосовой ввод ➡️ 3 точки ➡️ поделиться экраном ➡️ открываем приложение) и обсуждаем с ним всё, что происходит у вас в браузере.

#Agents@TochkiNadAI
Новенькое и (скорее всего) классное для создания презентаций

Genspark выкатили AI-ассистента по созданию презентаций. Я только начал тестировать, как на меня обрушилось сообщение о том, что компания приняла решение сделать этот функционал платным из-за наплыва юзеров, поэтому пока делюсь с вами своим скрином + чужим коротеньким видео.

Если у вас вдруг есть подписка – поделитесь впечатлением. Ну или я не выдержу в итоге и возьму погонять на месяц.

Больше всего заинтересовало, что можно собирать презы, изпользуя дип рисерч, а также скармливать ей PDF-ки и эксельки и получать на выходе аккуратные слайды.

#presentation@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Wan2.1 — open-source модель, которая генерит видео из пары кадров и текста

На сцену выходит Wan2.1-FLF2V-14B — первая open-source модель на 14B параметров, которая (как и многие) умеет собирать видео из первого и последнего кадра.

Что умеет:
Генерит видео 720p с плавными переходами и физикой без безумия
Отлично держит референс: персонажи, цвета, стили сохраняются
Работает даже на потребительских видеокартах
Поддерживает текст-видео, изображение-видео, редактирование, текст-в-картинку и даже видео-в-аудио
Генерирует текст в видео на английском и китайском — то, чего у open-source моделей почти нет

Новая фишка — First-Last-Frame-to-Video (FLF2V)
Даёшь начальный и финальный кадр → получаешь логичное видео между ними. Подходит для раскадровок, анимации и рекламных переходов.

Wan2.1 в некоторых тестах уже обходит даже закрытые модели. А самое вкусное — всё открыто: от архитектуры до кода. Прямо как хочется.

Но самое главное, тестим до 5 бесплатных генераций в день.

#videoGenerative@TochkiNadAI
Forwarded from Ментальные модели (Vanya Yunitskiy)
270. Иллюзия осознанного контроля ИИ
(или какие новые когнитивные искажения несет нам эпоха)

Мы задаём чат-боту вопрос, получаем логичный, связный ответ — и автоматически приписываем ему понимание или даже осознанность. Возникает ощущение, будто перед нами не алгоритм, а мыслящее существо: собеседник, у которого есть намерения, мотивация, контекст и этика. Так работает одно из свежих когнитивных искажений цифровой эпохи — иллюзия осознанного контроля AI.

Логичный факт: чем более "живой" текст, сгенерированный ИИ, тем выше вероятность, что человек припишет ему сознание. Был какой-то эксперимент, где участники читали ответы на нейтральные вопросы — одни были сгенерированы ИИ с высоким уровнем связности и выразительности, другие — более нейтральные. Результат: чем антропоморфнее звучал текст, тем сильнее испытуемые ощущали, что ИИ знает, чего хочет, пытается помочь или понимает, о чём идёт речь. Все это в кавычках, разумеется.

Это хитрое искажение, на то оно и искажение. Мы не замечаем, как сильно нас убеждает форма. Чем стройнее и человечнее звучит ответ, тем легче мы забываем: ИИ не думает, он предсказывает (почти как T9). У него нет целей. Он не может осознанно согласиться или нет с содержанием. Он не субъект.

Восприятие сильнее логики. Когда в интерфейсе перед нами появляется связный текст с подходящим стилем и тоном, мозг автоматом включает привычную схему: "раз отвечает осмысленно — значит, думает".

Это, кстати, иногда плохо влияет и на наше поведение после общения с LLM. Мы чаще принимаем рекомендации ИИ без проверки, реже уточняем источники, начинаем ощущать моральные границы, переносим ответственность на алгоритм.

Прежде всего — не стоит терять дистанцию. ChatGPT, Gemini, DeepSeek и другие модели — это инструменты для работы с текстом, не собеседники, не эксперты, не моральные субъекты. Чем лучше они говорят, тем аккуратнее нужно слушать.

Сингулярность начнется не с иллюзии реальности, а с иллюзии осознанности 👽
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня свежая подборка для контент-мейкеров

(в особенности для всех, кто пилит рилсы, шортсы и прочие короткие видео-форматы)

1. Vozo – дублирует разговорные видео на 40 языков, работает с русским языком, есть бесплатная версия.

2. VideoHunt – загружаете видео или кидаете ему ютуб-ссылку, и он нарезает его на короткие ролики по промпту.

3. Edits – "убийца" CupCut с AI фичами, продукт Меты, поэтому полноценно интегрируется с инстой. А вот ссылка на Android версию.

#videoEditing@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Впечатляющий пример хай-резолюшн модельки по работе с видео

Называется Ev-DeblurVSR. Очень хорошо устраняет размытие и точно восстанавливает видеопоследовательность в условиях сложного движения и низкой освещенности.

#videoEditing@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Эксперимент прощания с прайваси

Голландский журналист использовал очки с AI-рекогнишен, чтобы моментально идентифицировать незнакомцев на улице — сканировать лица, раскрывать имена, подтягивать LinkedIn — в режиме реального времени.

Понятно, что такие камеры есть и у полицейских, любая информация подтягивается из внутренних баз, но эксперимент показывает, что для этого не обязательно работать в ведомствах.

Кстати, если интересно, я идентифицировал что за ИИ-сервис юзает журналист для распознавания🥸.

Как-то писал про него в этом посте.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Вот две AI-переодевалки на базе OpenAI image API

Первое работает как расширение, позволяет примерить одежду с любого интернет-магазина или маркетплейса. НО! Я не нашел ссылку, только пост, где другой чувак показывает это же видео. Если найдете – напишите, пожалуйста.

Второе быстренько собранное, по сути все то же, что можно делать в самом GPT. Даете фотку себя и лука и получаете результат.

В общем первое звучит интересно, пишите, если найдете👽

#fashion
2025/06/30 17:29:10
Back to Top
HTML Embed Code: