Еще одно небольшое и удобное обновление в ChatGPT
Теперь все сгенерированные изображения хранятся в одном месте. Появился раздел Library. В честь этого демонстрирую вам свои последние генерации.
Раздел живет вот тут.
Теперь все сгенерированные изображения хранятся в одном месте. Появился раздел Library. В честь этого демонстрирую вам свои последние генерации.
Раздел живет вот тут.
This media is not supported in your browser
VIEW IN TELEGRAM
Для видеографов и контент-мейкеров
Появилась заявочка на лучший AI-монтаж роликов. Называется Ponder AI.
Говорят будет экономить массу времени не только монтируя, но и редактируя звук. Взаимодействие через естественный язык в LLM-окошке.
Пока что можно только оставить заявку на тест тут.
#videoEditing@TochkiNadAI
Появилась заявочка на лучший AI-монтаж роликов. Называется Ponder AI.
Говорят будет экономить массу времени не только монтируя, но и редактируя звук. Взаимодействие через естественный язык в LLM-окошке.
Пока что можно только оставить заявку на тест тут.
#videoEditing@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Немного вайбов "Черного Зеркала" на Meta Quest 3
Кстати, до "Точек над ИИ" и других каналов – я вел только один канал про технологии, в основном про AR/VR и их использование в маркетинге.
Если вам такое интересно – вэлкам, буду рад, если подпишетесь!
Кстати, до "Точек над ИИ" и других каналов – я вел только один канал про технологии, в основном про AR/VR и их использование в маркетинге.
Если вам такое интересно – вэлкам, буду рад, если подпишетесь!
This media is not supported in your browser
VIEW IN TELEGRAM
Google встроила ИИ прямо в Таблицы.
Теперь =AI() — это формула
Gemini поселился в Google Sheets.
Формула =AI("твой запрос", A1) позволяет Таблицам… думать.
Теперь можно прямо в ячейке:
– Определить, кто где играет.
Пример:
=AI("What professional league does this team play in?", A1)
и он подскажет, это NBA или NHL.
– Понять настроение текста.
Отзыв радостный, жалобный или нейтральный — AI это отличает и классифицирует.
– Сделать выжимку.
Было: «Очень хороший товар, но доставка ужасная и курьер...»
Стало: «Негатив из-за доставки».
– Распределить по категориям.
Например, обращения клиентов: благодарность / запрос на обмен / запрос на возврат.
– Генерить текст.
Слоган, письмо, список ключевых слов — полноценная генерация.
🧠 Пока фича доступна в рамках альфа-тестирования Gemini для Google Workspace.
Если вы в числе участников — уже можно играться. Остальным — ждать запуска в открытый доступ.
#documents@TochkiNadAI
Теперь =AI() — это формула
Gemini поселился в Google Sheets.
Формула =AI("твой запрос", A1) позволяет Таблицам… думать.
Теперь можно прямо в ячейке:
– Определить, кто где играет.
Пример:
=AI("What professional league does this team play in?", A1)
и он подскажет, это NBA или NHL.
– Понять настроение текста.
Отзыв радостный, жалобный или нейтральный — AI это отличает и классифицирует.
– Сделать выжимку.
Было: «Очень хороший товар, но доставка ужасная и курьер...»
Стало: «Негатив из-за доставки».
– Распределить по категориям.
Например, обращения клиентов: благодарность / запрос на обмен / запрос на возврат.
– Генерить текст.
Слоган, письмо, список ключевых слов — полноценная генерация.
🧠 Пока фича доступна в рамках альфа-тестирования Gemini для Google Workspace.
Если вы в числе участников — уже можно играться. Остальным — ждать запуска в открытый доступ.
#documents@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Пример того, как в Клинге работает Multi-Elements
Кратко — как пользоваться? Как-то подписчики писали, что даже простые инструкции стоит публиковать. В общем это легко и весело:
01. Выберите «Multi-Elements»
02. Загрузите реф-видео
03. Выделите нужные правки
04. Загрузите реф-изображение
05. Выберите «Заменить/Добавить/Удалить»
06. Добавить промпт + сгенерировать.
Ну и артефакты вне поля генерации могут встречаться, обратите внимание, как мужичок сзади еще сильнее высовывает язык на финальном видео🤪
#VideoGenerative@TochkiNadAI
Кратко — как пользоваться? Как-то подписчики писали, что даже простые инструкции стоит публиковать. В общем это легко и весело:
01. Выберите «Multi-Elements»
02. Загрузите реф-видео
03. Выделите нужные правки
04. Загрузите реф-изображение
05. Выберите «Заменить/Добавить/Удалить»
06. Добавить промпт + сгенерировать.
Ну и артефакты вне поля генерации могут встречаться, обратите внимание, как мужичок сзади еще сильнее высовывает язык на финальном видео🤪
#VideoGenerative@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Canva показала гору новых AI-фич
Ребята из Canva решили, что мало просто делать красивые картинки и презентации. На своей конференции Create 2025 они запустили AI на полную.
Вот 5 основных фич, которые цепляют больше всего:
1. Canva Code
Теперь превращать идеи в готовые дизайны можно без кода. Просто опиши, что тебе надо, и AI всё сделает сам.
2. Magic Formulas и Magic Insights
AI-функции внутри Canva Sheets, которые сами проанализируют данные и подскажут, что дальше с ними делать.
3. Промпт голосом, текстом или картинкой
Скажи, напиши или покажи, что хочешь получить, и Canva за секунды соберёт презентацию, графику или документ.
4. Кнопка перевода и локализации
Всё, что делаешь, сразу переводится на разные языки. Пригодится тем, кто работает с контентом на зарубежную аудиторию.
5. Magic Charts
Превращают любые данные в стильные, интерактивные графики за один клик.
Ознакомиться можно тут.
#design@TochkiNadAI
Ребята из Canva решили, что мало просто делать красивые картинки и презентации. На своей конференции Create 2025 они запустили AI на полную.
Вот 5 основных фич, которые цепляют больше всего:
1. Canva Code
Теперь превращать идеи в готовые дизайны можно без кода. Просто опиши, что тебе надо, и AI всё сделает сам.
2. Magic Formulas и Magic Insights
AI-функции внутри Canva Sheets, которые сами проанализируют данные и подскажут, что дальше с ними делать.
3. Промпт голосом, текстом или картинкой
Скажи, напиши или покажи, что хочешь получить, и Canva за секунды соберёт презентацию, графику или документ.
4. Кнопка перевода и локализации
Всё, что делаешь, сразу переводится на разные языки. Пригодится тем, кто работает с контентом на зарубежную аудиторию.
5. Magic Charts
Превращают любые данные в стильные, интерактивные графики за один клик.
Ознакомиться можно тут.
#design@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Luma запустили Camera Angle
Это значит, что теперь вы можете выбрать свой угол обзора камеры более точно.
Например: вид сверху, селфи, вид снизу и др.
#VideoGenerative@TochkiNadAI
Это значит, что теперь вы можете выбрать свой угол обзора камеры более точно.
Например: вид сверху, селфи, вид снизу и др.
#VideoGenerative@TochkiNadAI
Если вдруг пропустили – у Krea вышел простенький редактор, в котором можно по промпту быстро накидывать 3D-сцены.
Да, пока выглядит кринжовенько, но вполне подойдет для быстрых концептов, особенно если вы не 3D-дизайнер.
На видео пример с ковбоем от Krea, а второй скрин – это моя городская сцена😄
Но вообще еще вижу в этом потенциал для контроля генерации видео. Расставляешь сцену, задаешь ракурсы и отправляешь AI "рендерить" реалистичный ролик.
#3D@TochkiNadAI
Да, пока выглядит кринжовенько, но вполне подойдет для быстрых концептов, особенно если вы не 3D-дизайнер.
На видео пример с ковбоем от Krea, а второй скрин – это моя городская сцена😄
Но вообще еще вижу в этом потенциал для контроля генерации видео. Расставляешь сцену, задаешь ракурсы и отправляешь AI "рендерить" реалистичный ролик.
#3D@TochkiNadAI
Microsoft Copilot теперь умеет кликать мышкой. И даже думает, куда кликать
На этой неделе Microsoft добавила в Copilot Studio новую функцию — Computer Use.
Теперь можно обучить AI-агента, который сам:
– нажимает кнопки,
– заполняет формы,
– лазит по сайтам и
– работает с десктопными приложениями,
как если бы это делал человек с мышкой и клавой.
Даже если API нет — всё равно работает.
Copilot с функцией Computer Use идёт другим путём, он как бы смотрит на экран, распознаёт кнопки, поля и текст, и сам кликает, пишет и выбирает нужное — имитируя действия обычного пользователя.
Примеры — от автоматического ввода счетов до парсинга данных с сайта или обработки заявок в старом ПО. Всё это агент делает сам.
Записаться на тест можно тут.
#Agents@TochkiNadAI
На этой неделе Microsoft добавила в Copilot Studio новую функцию — Computer Use.
Теперь можно обучить AI-агента, который сам:
– нажимает кнопки,
– заполняет формы,
– лазит по сайтам и
– работает с десктопными приложениями,
как если бы это делал человек с мышкой и клавой.
Даже если API нет — всё равно работает.
Copilot с функцией Computer Use идёт другим путём, он как бы смотрит на экран, распознаёт кнопки, поля и текст, и сам кликает, пишет и выбирает нужное — имитируя действия обычного пользователя.
Примеры — от автоматического ввода счетов до парсинга данных с сайта или обработки заявок в старом ПО. Всё это агент делает сам.
Записаться на тест можно тут.
#Agents@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Copilot Vision теперь бесплатен в Edge — ИИ, который смотрит на экран вместе с тобой
Теперь у всех пользователей Edge появился доступ к Copilot Vision — функции, которая позволяет ИИ анализировать то, что ты видишь в браузере. Можно голосом
💡 Примеры, где это может пригодиться:
– Читаешь PDF с инструкцией — Copilot объясняет по пунктам
– Бродишь по маркетплейсу — он помогает выбрать
– Нашёл объявление о работе — обсуждаете, как на него ответить
– Статья слишком длинная — просишь краткий пересказ
Copilot смотрит на содержимое страницы и отвечает, как будто вы обсуждаете то, что видите вместе.
Не кликает, не пишет — только подсказывает и объясняет.
Прямо сейчас доступно всем пользователям Edge.
Кстати, также можно и с GPT — шарим экран сматрфона через голосовой ввод (голосовой ввод ➡️ 3 точки ➡️ поделиться экраном ➡️ открываем приложение) и обсуждаем с ним всё, что происходит у вас в браузере.
#Agents@TochkiNadAI
Теперь у всех пользователей Edge появился доступ к Copilot Vision — функции, которая позволяет ИИ анализировать то, что ты видишь в браузере. Можно голосом
💡 Примеры, где это может пригодиться:
– Читаешь PDF с инструкцией — Copilot объясняет по пунктам
– Бродишь по маркетплейсу — он помогает выбрать
– Нашёл объявление о работе — обсуждаете, как на него ответить
– Статья слишком длинная — просишь краткий пересказ
Copilot смотрит на содержимое страницы и отвечает, как будто вы обсуждаете то, что видите вместе.
Не кликает, не пишет — только подсказывает и объясняет.
Прямо сейчас доступно всем пользователям Edge.
Кстати, также можно и с GPT — шарим экран сматрфона через голосовой ввод (голосовой ввод ➡️ 3 точки ➡️ поделиться экраном ➡️ открываем приложение) и обсуждаем с ним всё, что происходит у вас в браузере.
#Agents@TochkiNadAI
Новенькое и (скорее всего) классное для создания презентаций
Genspark выкатили AI-ассистента по созданию презентаций. Я только начал тестировать, как на меня обрушилось сообщение о том, что компания приняла решение сделать этот функционал платным из-за наплыва юзеров, поэтому пока делюсь с вами своим скрином + чужим коротеньким видео.
Если у вас вдруг есть подписка – поделитесь впечатлением. Ну или я не выдержу в итоге и возьму погонять на месяц.
Больше всего заинтересовало, что можно собирать презы, изпользуя дип рисерч, а также скармливать ей PDF-ки и эксельки и получать на выходе аккуратные слайды.
#presentation@TochkiNadAI
Genspark выкатили AI-ассистента по созданию презентаций. Я только начал тестировать, как на меня обрушилось сообщение о том, что компания приняла решение сделать этот функционал платным из-за наплыва юзеров, поэтому пока делюсь с вами своим скрином + чужим коротеньким видео.
Если у вас вдруг есть подписка – поделитесь впечатлением. Ну или я не выдержу в итоге и возьму погонять на месяц.
Больше всего заинтересовало, что можно собирать презы, изпользуя дип рисерч, а также скармливать ей PDF-ки и эксельки и получать на выходе аккуратные слайды.
#presentation@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Wan2.1 — open-source модель, которая генерит видео из пары кадров и текста
На сцену выходит Wan2.1-FLF2V-14B — первая open-source модель на 14B параметров, которая (как и многие) умеет собирать видео из первого и последнего кадра.
Что умеет:
Генерит видео 720p с плавными переходами и физикой без безумия
Отлично держит референс: персонажи, цвета, стили сохраняются
Работает даже на потребительских видеокартах
Поддерживает текст-видео, изображение-видео, редактирование, текст-в-картинку и даже видео-в-аудио
Генерирует текст в видео на английском и китайском — то, чего у open-source моделей почти нет
Новая фишка — First-Last-Frame-to-Video (FLF2V)
Даёшь начальный и финальный кадр → получаешь логичное видео между ними. Подходит для раскадровок, анимации и рекламных переходов.
Wan2.1 в некоторых тестах уже обходит даже закрытые модели. А самое вкусное — всё открыто: от архитектуры до кода. Прямо как хочется.
Но самое главное, тестим до 5 бесплатных генераций в день.
#videoGenerative@TochkiNadAI
На сцену выходит Wan2.1-FLF2V-14B — первая open-source модель на 14B параметров, которая (как и многие) умеет собирать видео из первого и последнего кадра.
Что умеет:
Генерит видео 720p с плавными переходами и физикой без безумия
Отлично держит референс: персонажи, цвета, стили сохраняются
Работает даже на потребительских видеокартах
Поддерживает текст-видео, изображение-видео, редактирование, текст-в-картинку и даже видео-в-аудио
Генерирует текст в видео на английском и китайском — то, чего у open-source моделей почти нет
Новая фишка — First-Last-Frame-to-Video (FLF2V)
Даёшь начальный и финальный кадр → получаешь логичное видео между ними. Подходит для раскадровок, анимации и рекламных переходов.
Wan2.1 в некоторых тестах уже обходит даже закрытые модели. А самое вкусное — всё открыто: от архитектуры до кода. Прямо как хочется.
Но самое главное, тестим до 5 бесплатных генераций в день.
#videoGenerative@TochkiNadAI
Forwarded from Ментальные модели (Vanya Yunitskiy)
270. Иллюзия осознанного контроля ИИ
(или какие новые когнитивные искажения несет нам эпоха)
Мы задаём чат-боту вопрос, получаем логичный, связный ответ — и автоматически приписываем ему понимание или даже осознанность. Возникает ощущение, будто перед нами не алгоритм, а мыслящее существо: собеседник, у которого есть намерения, мотивация, контекст и этика. Так работает одно из свежих когнитивных искажений цифровой эпохи — иллюзия осознанного контроля AI.
Логичный факт: чем более "живой" текст, сгенерированный ИИ, тем выше вероятность, что человек припишет ему сознание. Был какой-то эксперимент, где участники читали ответы на нейтральные вопросы — одни были сгенерированы ИИ с высоким уровнем связности и выразительности, другие — более нейтральные. Результат: чем антропоморфнее звучал текст, тем сильнее испытуемые ощущали, что ИИ знает, чего хочет, пытается помочь или понимает, о чём идёт речь. Все это в кавычках, разумеется.
Это хитрое искажение, на то оно и искажение. Мы не замечаем, как сильно нас убеждает форма. Чем стройнее и человечнее звучит ответ, тем легче мы забываем: ИИ не думает, он предсказывает (почти как T9). У него нет целей. Он не может осознанно согласиться или нет с содержанием. Он не субъект.
Восприятие сильнее логики. Когда в интерфейсе перед нами появляется связный текст с подходящим стилем и тоном, мозг автоматом включает привычную схему: "раз отвечает осмысленно — значит, думает".
Это, кстати, иногда плохо влияет и на наше поведение после общения с LLM. Мы чаще принимаем рекомендации ИИ без проверки, реже уточняем источники, начинаем ощущать моральные границы, переносим ответственность на алгоритм.
Прежде всего — не стоит терять дистанцию. ChatGPT, Gemini, DeepSeek и другие модели — это инструменты для работы с текстом, не собеседники, не эксперты, не моральные субъекты. Чем лучше они говорят, тем аккуратнее нужно слушать.
Сингулярность начнется не с иллюзии реальности, а с иллюзии осознанности👽
(или какие новые когнитивные искажения несет нам эпоха)
Мы задаём чат-боту вопрос, получаем логичный, связный ответ — и автоматически приписываем ему понимание или даже осознанность. Возникает ощущение, будто перед нами не алгоритм, а мыслящее существо: собеседник, у которого есть намерения, мотивация, контекст и этика. Так работает одно из свежих когнитивных искажений цифровой эпохи — иллюзия осознанного контроля AI.
Логичный факт: чем более "живой" текст, сгенерированный ИИ, тем выше вероятность, что человек припишет ему сознание. Был какой-то эксперимент, где участники читали ответы на нейтральные вопросы — одни были сгенерированы ИИ с высоким уровнем связности и выразительности, другие — более нейтральные. Результат: чем антропоморфнее звучал текст, тем сильнее испытуемые ощущали, что ИИ знает, чего хочет, пытается помочь или понимает, о чём идёт речь. Все это в кавычках, разумеется.
Это хитрое искажение, на то оно и искажение. Мы не замечаем, как сильно нас убеждает форма. Чем стройнее и человечнее звучит ответ, тем легче мы забываем: ИИ не думает, он предсказывает (почти как T9). У него нет целей. Он не может осознанно согласиться или нет с содержанием. Он не субъект.
Восприятие сильнее логики. Когда в интерфейсе перед нами появляется связный текст с подходящим стилем и тоном, мозг автоматом включает привычную схему: "раз отвечает осмысленно — значит, думает".
Это, кстати, иногда плохо влияет и на наше поведение после общения с LLM. Мы чаще принимаем рекомендации ИИ без проверки, реже уточняем источники, начинаем ощущать моральные границы, переносим ответственность на алгоритм.
Прежде всего — не стоит терять дистанцию. ChatGPT, Gemini, DeepSeek и другие модели — это инструменты для работы с текстом, не собеседники, не эксперты, не моральные субъекты. Чем лучше они говорят, тем аккуратнее нужно слушать.
Сингулярность начнется не с иллюзии реальности, а с иллюзии осознанности
Please open Telegram to view this post
VIEW IN TELEGRAM
Кстати, то что вы видите выше – это репост из моего канала про мышление и когнитивные искажения
Пользуясь случаем предлагаю подписаться всем, кому тема интересна, буду рад 🧡
Пользуясь случаем предлагаю подписаться всем, кому тема интересна, буду рад 🧡
Telegram
Ментальные модели
Авторский интеллектуальный канал о развитии мышления, полезных ментальных моделях и когнитивных искажениях.
Автор – Иван Юницкий.
Обсудить сотрудничество и рекламу: @hello_voic
РКН: https://clck.ru/3GLknB
Автор – Иван Юницкий.
Обсудить сотрудничество и рекламу: @hello_voic
РКН: https://clck.ru/3GLknB
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня свежая подборка для контент-мейкеров
(в особенности для всех, кто пилит рилсы, шортсы и прочие короткие видео-форматы)
1. Vozo – дублирует разговорные видео на 40 языков, работает с русским языком, есть бесплатная версия.
2. VideoHunt – загружаете видео или кидаете ему ютуб-ссылку, и он нарезает его на короткие ролики по промпту.
3. Edits – "убийца" CupCut с AI фичами, продукт Меты, поэтому полноценно интегрируется с инстой. А вот ссылка на Android версию.
#videoEditing@TochkiNadAI
(в особенности для всех, кто пилит рилсы, шортсы и прочие короткие видео-форматы)
1. Vozo – дублирует разговорные видео на 40 языков, работает с русским языком, есть бесплатная версия.
2. VideoHunt – загружаете видео или кидаете ему ютуб-ссылку, и он нарезает его на короткие ролики по промпту.
3. Edits – "убийца" CupCut с AI фичами, продукт Меты, поэтому полноценно интегрируется с инстой. А вот ссылка на Android версию.
#videoEditing@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Впечатляющий пример хай-резолюшн модельки по работе с видео
Называется Ev-DeblurVSR. Очень хорошо устраняет размытие и точно восстанавливает видеопоследовательность в условиях сложного движения и низкой освещенности.
#videoEditing@TochkiNadAI
Называется Ev-DeblurVSR. Очень хорошо устраняет размытие и точно восстанавливает видеопоследовательность в условиях сложного движения и низкой освещенности.
#videoEditing@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Эксперимент прощания с прайваси
Голландский журналист использовал очки с AI-рекогнишен, чтобы моментально идентифицировать незнакомцев на улице — сканировать лица, раскрывать имена, подтягивать LinkedIn — в режиме реального времени.
Понятно, что такие камеры есть и у полицейских, любая информация подтягивается из внутренних баз, но эксперимент показывает, что для этого не обязательно работать в ведомствах.
Кстати, если интересно, я идентифицировал что за ИИ-сервис юзает журналист для распознавания🥸 .
Как-то писал про него в этом посте.
Голландский журналист использовал очки с AI-рекогнишен, чтобы моментально идентифицировать незнакомцев на улице — сканировать лица, раскрывать имена, подтягивать LinkedIn — в режиме реального времени.
Понятно, что такие камеры есть и у полицейских, любая информация подтягивается из внутренних баз, но эксперимент показывает, что для этого не обязательно работать в ведомствах.
Кстати, если интересно, я идентифицировал что за ИИ-сервис юзает журналист для распознавания
Как-то писал про него в этом посте.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Вот две AI-переодевалки на базе OpenAI image API
Первое работает как расширение, позволяет примерить одежду с любого интернет-магазина или маркетплейса. НО! Я не нашел ссылку, только пост, где другой чувак показывает это же видео. Если найдете – напишите, пожалуйста.
Второе быстренько собранное, по сути все то же, что можно делать в самом GPT. Даете фотку себя и лука и получаете результат.
В общем первое звучит интересно, пишите, если найдете👽
#fashion
Первое работает как расширение, позволяет примерить одежду с любого интернет-магазина или маркетплейса. НО! Я не нашел ссылку, только пост, где другой чувак показывает это же видео. Если найдете – напишите, пожалуйста.
Второе быстренько собранное, по сути все то же, что можно делать в самом GPT. Даете фотку себя и лука и получаете результат.
В общем первое звучит интересно, пишите, если найдете👽
#fashion