Telegram Group Search
Еще немного приятных апдейтов: Gemini теперь активно помогает в гугл таблицах – анализирует данные, составляет прогнозы и рисует диаграммы. Может прилично сэкономить времени, если правильно задать промпт.

Функция сейчас на стадии развертывания, должна начать отображаться у всех в ближайшие 2 недели.
Поднятая китайцами шумиха заставила OpenAI работать в ускоренном режиме. Не успели обкатать первого ИИ-агента, выходит уже новый, предназначенный для "выполнения многошаговых иссследовательских задач" — Deep research. Обрабатывает промпт 5-30 минут, в ответ выдает структурированный отчет с самостоятельно проведенной аналитикой и списком источников.

OpenAI делают на него большую ставку, называя "первым шагом к созданию новых знаний" и важным этапом "на пути к AGI". Остается надеятся, что эта штука не разочарует, потому что потока ИИ-агентов нам в любом случае не избежать.
И еще из важного: OpenAI провели ребрендинг и полностью поменяли свой фирменный стиль — первые увидевшие были в шоке.

(А главное – совсем не похоже на попытку перетянуть на себя внимание, честно-честно😁)
Немножко даже скучаю по временам, когда писал сайты на чистом html в Notepad :).

Так, например,.выглядела главная страница моего сайта 21 год назад (сука, даже не верится!) :)

А вот был бы у меня в то время copilot 😂😂😂... умел бы корректно lb в кг )
У OpenAI весомый повод для гордости: состоялся их рекламный дебют за $14 млрд (это, если что, затраты на размещение — Суперкубок как-никак). Ролик имеет абстрактное содержание, но вполне ясный посыл: ИИ — новая эпоха развития человечества. Интересно, что Sora для создания этого видео использовалась, но только на этапе поиска концепции, финальная анимация 100% human-made.

https://youtu.be/kIhb5pEo_j0?feature=shared

Как вам?
Воувоу! Гугл тоже не остались в стороне и решили ускорять темпы разработки. Из интересного:

• Gemini Flash 2.0 (о которой я писал в декабре) вышла из стадии тестирования и доступна сейчас на всех устройствах.
• Открыли доступ к другой версии со схожим названием — Gemini 2.0 Flash Thinking. Нетрудно догадаться, что это экспериментальная модель с функцией «рассуждения». Примерно то же самое, что и у OpenAI, но с непонятной производительностью.
• И в целом обновили генерацию изображений (за счет развёртывания Imagen 3)

Неплохое начало года👌
Чем дальше, тем больше волшебных историй о том, как ChatGPT, словно фея-крестная, приносит бешеный траффик особо везучим наполняющим контентом свой сайт брендам. (Кстати, ещё год назад мы создали проект с 15к+ генеративных страниц, все неплохо работает до сих пор).

Так производитель средств женской гигиены Viv распродал полугодовой запас продукции за три недели, потому что ChatGPT присовокуплял ссылку на их блог (а точнее, на одну конкретную статью) каждый раз, когда у него спрашивали про инфоповод с теми же ключевыми словами. Чат-боты не привередливы в источниках информации — их не очень парит, что они кого-то прорекламируют забесплатно (в отличие от людей😁)
При этом также увеличивается число прямых просьб порекомендовать что-то от юзеров — люди уже не гуглят товары, они их... гптируют? гптшничают? ну, суть вы поняли

Так что не ленимся с регулярным ведением блога (и не забываем про SEO-оптимизацию) AiEO оптимизацию😉
Вот такие пироги🫥

Альтман сообщил, что выход o3 как самостоятельной ИИ-модели отменен. Вместо этого они сосредоточатся на GPT-5, которая будет системой, объединяющей все их наработки (ту же o3 и, стопудово, пачку ИИ-агентов). Но перед этим в знак прощания с прошлым выпустят GPT-4.5, "последнюю модель, не основанную на цепочке размышлений".

В общем, все слова об отказе от улучшения нынешних моделей в пользу ИИ-агентов (а затем и AGI) уже перешли из категории прогнозов в категорию реальности.
Если вам вдруг покажется, что в ограниченой трубе стали странно отвечать на комментарии, то, скорее всего, это вам не кажется😁

Для владельцев каналов вывели из бета-версии ИИ-подсказки — что-то вроде промежуточного звена между ответами вручную и ИИ-автоматизацией.

При попытке ответить всплывают кнопки с 2-3 вариантами. Чуть подробнее: https://support.google.com/youtube/answer/10357396?hl=ru&co=GENIE.Platform%3DiOS&oco=0

Мы все ближе к ситуации, когда контент генерируют ИИ, смотрят ИИ, отвечают на него ИИ и комментируют они же :)))
Теперь решили напомнить о себе и Anthropic: по инсайдам, в ближайшие недели должна выйти их новая модель.

Она заявлена как гибрид "обычных" моделей и тех, что используют "глубокие рассуждения" (куда теперь без них!), и, судя по предварительным тестам, обходит последнюю модель OpenAI в кодинге (что, на самом деле, пока еще мало значит).

Из оригинального: решили добавить фишку с "распределением ресурсов" – ползунок для регуляции мощности, которая будет затрачена на выполнение задачи.

В общем, чем ближе к переходу на новый этап, тем однообразнее у ИИ-компаний описания обновлений. Видимо, приходится наверстывать за всеми: кто не успел, тот опоздал🙃
Небольшой, но полезный апдейт от OpenAI: последние их "рассуждающие модели" (o1 и o3-mini) теперь работают с файлами и картинками (протестировать апдейт можно и в бесплатной версии),
а для владельцев подписки увеличили лимиты использования o3-mini🔥
Про кейс с "Бруталистом" вы, наверно, уже слышали. Фильм про архитектора спокойно себе существовал, пока режиссер не проговорился про использование ИИ. И тут, как говорится, понеслось. Лишить всех наград, отобрать уже врученные, актеры ничего не делали, за них работали нейросети и все прочее.

Однако, если посмотреть на сухие факты, "нейровмешательства" было не так уж много. Для "усиления акцента" в речи актеров использовали Respeecher, причем на уровне отдельных гласных, даже не слов. Такая работа со звуком — обычная практика, разве что вручную это делается намного дольше и дороже🤷🏼‍♂️
(С большой вероятностью, кстати, эти же технологии уже вовсю используются, просто мы об этом как зрители не подозреваем)
Плюс чертежи, созданные героем по сюжету, сгенерировали в Midjorney. Все. Вложенного чисто человеческого труда это, естественно, никак не умоляет.

И, что показательно, до признания режиссера зрителей в фильме ничего не смущало, а картина при скромном бюджете в $10 млн смогла стать претендентом на Оскар.

Мораль — применять ИИ в масштабных проектах уже можно и нужно. Но без лишнего шума. Иногда давать пояснения намного затратнее, чем просто смолчать.
Слушаете аудиокниги в Спотифайе?
Если да, друзья, поздравляю, вы сможете первыми ощутить на себе ветер перемен :)

Вчера аудиостриминг подписал соглашение с ElevenLabs (очень люблю этих ребят, хоть и дороговаты) — одним из крупнейших генераторов ИИ-голосов. Это значит, что количество "синтетических" аудиокниг начнет расти в геометрической прогрессии. Качество на старте будет, скорее всего... не слишком воодушевляющим, но тут ничего не поделаешь, тем более что скоро "ИИ-озвучивание" поставят на поток и в других сервисах. В этом случае нейросети становятся решением из разряда "дешево и сердито" — когда денег нет, а услышать свое творчество, в том числе и на других языках, очень хочется. Ну или рентабельность повысить, если без лирики🙃

Только бы момент не упустить, когда ИИ начнет так же хорошо передавать интонации, как и люди – а он не так уж далек, как кажется.

PS. Кстати, 11 ровно та платформа, которая обучается всего на 30 секундах вашего голоса. Если ещё не пользуетесь — максимально рекомендую
Не про ИИ. Но и про него тоже.

Недавно закрывал один из личных тасков. Мне было важно показать родителям Венецию. Причем, моими глазами.

Это, конечно, довольно сложно. Прежде всего в силу возраста и малой мобильности. Но у меня получилось. Чему я очень рад.

Одно из обязательных мест, конечно, было кафе Florian. Оно работает непрерывно с 1720 года. В нем особая атмосфера и вот это все.

Короче, когда мои олды наслаждались каким-то особым кофейком — я прямо физически чувствовал, что в нашу эпоху сингулярности единственное, что невозможно будет заменить иишечкой — это experience.

Уникальный опыт, основанный, прежде всего на выдающихся свойствах/необычности/неповторимости конкретного бренда/персоналии/места.

Если вы думаете прямо сейчас как жить хорошо через *дцать лет — думайте о том, какой неповторимый опыт вы сможете продать/передать окружающим вас кожаным мешкам людям.

У меня все. Хорошего воскресения.
Когда стало очевидно, что ИИ это не забавная игрушка, с которой скоро наиграются и уберут на полку, медиапространство взорвалось статьями на тему "как сохранить ценность своих навыков в эру ИИ". Да, тема важная и разумная. Но если вы хотите не просто выжить, а преуспеть, мыслить стоит как минимум на ступеньку выше: как преумножить стоимость своего таланта.

Недавнее решение Fiverr — это шаг вот в этом направлении. Фриланс-биржа предлагают фрилансерам обучать на своих портфолио ИИ, а затем продавать доступ к этим моделям с "персональным художественным стилем". Причём авторские права и возможность распоряжаться обученной моделью сохраняются за авторами предоставленного контента. Для заказчика — "скорость ИИ + опыт профессионала", а для "создателя модели" — возможность "масштабировать свои навыки".
Очень интересно наблюдать как компании, опробовавшие ИИ, начинают осознавать его силу и закрывать им все больше и больше болевых точек. Как, например, в случае 3 Men Movers, занимающихся грузоперевозкам. Конкуренция в этой отрасли жесткая, а растущий уровень аварийности (и следом — страховые расходы) ситуацию лучше не делают. Как можно задействовать здесь нейронку? Разумеется, для построения оптимальных маршрутов. Но техасцы пошли дальше — подключили ИИ к камерам в внутри кабин. Большой брат регистрирует моменты, когда водитель отвлекается от дороги, и сигнализирует об этом и начальству, и самому сотруднику.

И что вы думаете? За первые три месяца аварийность упала на 4,5% :)

Всё-таки она крутится )))
Вместе с релизом Gemini 2.0 из фазы тестирования потихоньку вылезают и связанные с ней проекты — например, новая и бесплатная(!) версия Gemini Code Assist (которая for individuals).

Продукт сам по себе не инновационный: для работы с кодом — исправить, дополнить, закончить, объяснить — уже есть, например, GitHub Copilot как неплохой по отзывам вариант.

Но потягаться с Microsoft все-таки хочется, и Гугл сделали ставку на широкие возможности. Лимиты у их ассистента очень щедрые: 240 запросов в чат в день и 180 000 автодополнений кода в месяц — в разы больше, чем у аналогов. Не факт, конечно, что это поможет в гонке с мелкомягкими, зато есть шанс протестить инструмент на 110%
2025/02/27 13:50:30
Back to Top
HTML Embed Code: