Telegram Group Search
AI Hype Index.pdf
1.3 MB
Лихорадка, ажиотаж, хайп, мания… Как только это не называют! Всегда кажется, что мы переживаем что-то впервые, но мудрец еще несколько тысячелетий назад сказал: «Нет ничего нового под солнцем. Бывает нечто, о чем говорят: "смотри, вот это новое"; но это было уже в веках, бывших прежде нас».

В 17 веке, во время тюльпаномании, считалось, что луковицы тюльпанов не перестанут расти в цене, и из каждого утюга кричали: «Тюльпаны!». В середине 19 века все бросились в Калифорнию, но вовсе не для того, чтобы серфить по океанским волнам, а чтобы копать золото – началась золотая лихорадка. Ажиотаж вокруг рынка акций в «ревущие 20-е» закончился Великой депрессией, но кому это сейчас интересно? У биткоиномании пять лет назад был даже свой девиз – «to the moon!». И хотя адептов крипты с тех пор заметно поубавилось, после того как биток перевалил за 100к, мания может начаться вновь.

Хайп вокруг AI начался больше 50 лет назад, но по сравнению с нынешним его уровнем, тот кажется детской игрушкой. С тех пор, как появился ChatGPT, все вокруг, кажется, только и говорят, и пишут, что про искусственный интеллект. И про то, как уже эти разговоры всем надоели, и когда же уже всему этому придет AGI. Все говорят, а мы решили измерить!

Вместе с нашими друзьями из аналитического агентства «Риал Тайм» мы представляем аналитический отчет «Два года ИИ-лихорадки в цифрах» (в следующем сообщении).

Мы отобрали 20 самых «хайповых» AI-сервисов и посчитали, сколько раз про них писали СМИ, сколько постов было в Telegram, и насколько активно их искали пользователи в интернете. Получился такой трехмерный взгляд – как хайп разгоняется в соцсетях (или, как их сейчас называют, в новых медиа), как его подхватывают традиционные СМИ, и как на него реагируют пользователи. Мы назвали свой инструмент AI-HI (AI-Hype Index).

Кроме того, мы посмотрели как часто передовые российские технологические компании упоминаются в СМИ и постах в связи с ИИ. И составили их рейтинг и отдельный, корпоративный индекс — AI-HI (CORP).

По нашим подсчетам, за два года хайпа вокруг искусственного интеллекта российские СМИ опубликовали более 300 тысяч материалов с упоминанием AI-сервисов, блогеры накатали в Telegram-каналах более 1,6 млн постов, а пользователи искали их через Яндекс около 40 млн раз. Российские компании в связи с ИИ упоминались в 120 тысячах статей и почти 100 тысячах постах в Телеге.

Итак, если верить нашему индексу:

⚡️С октября 2024 года в России началась новая, третья волна «хайпа» вокруг искусственного интеллекта

❤️СМИ любят отечественные сервисы вдвое больше, чем пользователи, а блогеры их почти не замечают

Россияне ищут Character.AI в интернете чаще, чем ChatGPT, но СМИ и тг-каналы о нем почти не пишут

⤴️Генератор песен Suno AI – еще один сервис, недооцененный как старыми, так и новыми медиа, а пользователи его любят и ищут

🔺Лидирует в гонке AI-хайпа в 2024 году Сбер – за счет старых медиа: его упоминают в половине статей СМИ. Его GigaChat лидирует и по упоминанию в СМИ российских сервисов. А вот в Телеге чаще поминают Яндекс и его YandexGPT

🔼На третьем месте в корпоративном «зачете» VK – он обгоняет МТС за счет лидерства в постах Telegram. СМИ же упоминали МТС в 2024 году в связи с искусственным интеллектом немного чаще, чем VK
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 «Коммерческие войны» OpenAI внезапно дают новое определение AGI

Коммерческий путь тернист и извилист. Особенно таковым он становится, когда твой главный партнёр это гигантская корпорация, а в противниках — самый богатый человек на Земле. Но OpenAI всё же не сдаются в попытках навести порядок в своих рядах.

Для этого Альтман хочет совместить коммерческую и некоммерческую структуру в рамках одной компании, а также — потенциально выйти из всех обязательств, сделав ИИ финансово успешным.

ℹ️ Microsoft и OpenAI сейчас активно спорят об условиях дальнейшего партнёрства. В рамках текущих договорённостей корпорация может использовать ИИ-технологии OpenAI до 2030 года, а также получает 20% от всех доходов компании.

У OpenAI есть юридическая лазейка, которая позволяет ей в одностороннем порядке разорвать отношения со всеми инвесторами. Это будет возможно, если компания создаст Artificial General Intelligence (AGI). Но вот незадача — его определение в документах компании до сих пор ограничивалось формулировкой «превосходит людей в большинстве экономически важных задач».

В рамках переговоров с Microsoft было принято новое определение: AGI будет считаться ИИ-система, которая может принести не менее 100 млрд долларов прибыли. Но и здесь всё пока выглядит крайне мутно: формулировка can generate делает этот самый profit необязательным. Да и OpenAI пока может похвастаться выручкой порядка 5 млрд долларов и не собирается выходить на прибыль до 2029 года. Похоже, AGI в ближайшие пять лет не ждём :(

🐷 Сэм Альтман и команда, тем временем, радуют публику манифестами. В свежей публикации в блоге OpenAI они рассказали, почему компания должна стать коммерческой. Причины очевидные: ей не хватает одних пожертвований в условиях, когда в разработку ИИ крупные компании инвестируют сотни миллиардов долларов.

Инвесторы хотят поддержать OpenAI, но им нужен обычный акционерный капитал и меньше структурной мороки. Поэтому компания хочет совместить коммерческую и некоммерческую структуру так, чтобы они помогали друг другу. А в качестве основы для первой в OpenAI хотят выбрать статус Public Benefit Corporation⁠ (PBC, в его рамках также работают Anthropic и Inflection).

Но главное — это устойчивость. Поэтому некоммерческая часть OpenAI будет обеспечена ресурсами в том числе с помощью акций в PBC по справедливой оценке, «определённой независимыми финансовыми консультантами». Ожидаемая доля PBC оценивается в 25% акций (примерно 40 млрд долларов), столько же или больше может получить Microsoft.

💻 В затылок OpenAI дышат конкуренты, а в особенности — Илон Маск, которого сейчас всё чаще называют теневым президентом США. Он требует помешать преобразованию OpenAI из НКО в коммерческое предприятие, так как это нарушает условия миссии, ради которой создавалась компания.

В середине декабря претензии Маска поддержала Meta, заявив, что переход OpenAI от статуса НКО будет иметь «серьёзные последствия для Кремниевой долины». Удастся ли конкурентам «задавить» коммерческие инициативы OpenAI, пока неясно — но у них есть шанс как минимум здорово потянуть время в этой гонке вооружений.
Please open Telegram to view this post
VIEW IN TELEGRAM
Общественная польза без ответственности перед обществом

Разработчики высокоуровневых систем искусственного интеллекта наперебой травят про защиту «общественной пользы». Начинавшая, как некоммерческая компания с единственной целью – разработать ИИ для человечества, OpenAI со скандалами и исками прорывается к своей настоящей цели – стать коммерческой компанией. Подозреваю, что если все пойдет как задумано, она в ближайшем будущем станет первой компанией с 14-значной оценкой ($10 трлн). Но пока, чтобы успокоить общественность, она, как и ее конкуренты – Anthropic (разработчик Claude) и илономасковская xAI (разработчик Grok) – говорит о преобразовании в Public Benefit Corporation (PBC).

PBC – сравнительно новая корпоративная форма. В штате Делавэр, где зарегистрирована OpenAI, она появилась только в 2013 году. Мы попытались разобраться, чем же она отличается от обычной корпорации.

Итак, PBC, или по-русски – Корпорация Общественного Блага (КОБ) – это компания, чьей целью является не только получение прибыли для акционеров, но и достижение некой четкой указанной в ее Уставе, Общественной Пользы. Любой – от «счастье всем даром» до «интернет в каждый дом». Предполагается, что компания должна находить баланс между благом акционеров и общественным благом.

Приведу пример. Если бы Газпром стал бы КОБом, то мог бы внести в свой Устав достижение Общественного блага – газификация каждого дома в стране. Тогда подведение газа ко всем дачным участкам стало бы его задачей вне зависимости от того, выгодно это или приносит убытки. Или если бы у Ростелекома было бы прописано в уставе доведение ШПД до всех населенных пунктов. У нас это называется социальная ответственность, но она ситуативна и не прописана в Уставах госкомпаний. А тут частные компании с четко прописанной конкретной социальной ответственностью.

Такая КОБ-компания должна регулярно публично отчитываться, как она достигает поставленной цели. Ее директора должны действовать и принимать решения, которые бы помогали компании достигать этих целей. То есть Общество может спать спокойно – технологические разработки в такой компании будут служить не против него, а для его пользы.

Вот только, как обычно, возникает вопрос о механизмах контроля. И тут выясняется, что те, для чьей пользы трудится такая КОБ, никаких рычагов контроля не имеют. Да, они могут прочитать отчет OpenAI, в котором она расскажет (фантазирую) про то, что у нее есть специальная группа, занимающаяся безопасностью AI и защитой человечества от потенциальных угроз, связанных с AGI. В группе три человека и они репортят совету директоров. Но оценить, насколько этих усилий достаточно, могут только акционеры.

Подать иск против директоров КОБ, чтобы заставить их выполнять общественно полезные обязанности, по закону штата Делавэр, могут только акционеры, владеющие совокупно не менее 2% акций. Или, если компания торгуется на бирже, владеющие акциями стоимостью не менее двух млн долларов. А как показывает практика, общественное благо акционеров обычно волнует мало, в отличие от благ материальных, которая компания может принести лично им.

В условиях хайпа вокруг ИИ (в том числе и негативного), переход к форме собственности в виде Корпорации общественного блага видится мне скорее формой торга с обществом, альтернативой жесткому государственному контролю за потенциально общественно опасными разработками и их применением. Ну, примерно как когда та или иная отрасль у нас часто пытается откупиться от госрегулирования механизмами саморегулирования.

Вот только в случае Public Benefit Corporation не будет никаких способов заставить OpenAI или какую-нибудь другую AI-компанию стремиться к общественному благу, а не к достижению любой ценой AGI, чье определение теперь, как известно, предельно простое: система, способная принести акционерам прибыль более $100 млрд.
💻 Бесплатный сервис для генерации докладов — со ссылками и диалогом ИИ-экспертов // #полезное

Собрались как-то за одним столом советский культурный атташе и арт-критик, историк международных отношений и его коллега, специализирующийся на периоде Холодной войны... И разобрали в один присест тему, ради которой я в своё время год копался в архивных документах: как советские дипломаты использовали культурные мероприятия для расширения своего политического влияния.

Мне оставалось только подобрать с пола челюсть и забрать готовый доклад с записью всей дискуссии, из которой он и появился всего за несколько минут.

🤖 В прошлом году Стэнфордский университет впервые представил сервис STORM для генерации экспертных докладов. Нейросеть создавала отчёт со ссылками на научные статьи и содержанием, что позволяло быстро проверить текст на возможные галлюцинации. Единственным ограничением была поддержка работы только с английским языком.

В своей работе STORM использовал материалы из интернета, которые анализировал на глазах у пользователя, сам задавая себе уточняющие вопросы. Частые ссылки на Википедию, конечно, не радовали — но инструмент находил и серьёзные исследовательские статьи.

✔️ В конце октября в сервис добавили настоящий чат с экспертами Co-STORM — только вместо человека в диалоге участвуют ИИ-агенты с определённым бэкграундом и точкой зрения. Они задают уточняющие вопросы и, как в любой приличной дискуссии, отвечают друг другу со ссылками на источник. А при желании вы можете и сами вмешаться в диалог и задать ему правильный вектор, чтобы позже обновить итоговый доклад.

Ограничений по темам нет: можно хоть копаться в истории разных стран, хоть уходить в темы нейробиологии и последних новинок в кибербезопасности. Как отмечают разработчики, сейчас STORM работает на основе последних технологий Bing Search и Azure OpenAI GPT-4o-mini.

Предположу, что именно из-за Bing Search некоторые Highlights по ссылкам начинаются с чего-то вроде «Academia.edu no longer supports Internet Explorer. To browse Academia.edu and the wider internet faster and more securely, please take a few seconds to upgrade your browser...» :)

🔤🔤К сожалению, уже прошедший диалог с экспертами часто не открывается по ссылке, а просто выгрузить его в PDF встроенными инструментами нельзя. Но вы всегда можете создать свою дискуссию и обсудить интересующий вопрос — сервис доступен бесплатно и работает без VPN, а его исходный код есть на GitHub.
Please open Telegram to view this post
VIEW IN TELEGRAM
У Anthropic пару недель назад вышел пост про агентов: https://www.anthropic.com/research/building-effective-agents

Он прекрасен тем, что определяет, что является агентом, а что не является. С точки зрения авторов поста, агент = система, в которой языковые модели динамически управляют собственными вызовами и инструментами, контролируя выполнение какой-то задачи.

Авторы утверждают, что для большинства случаев агенты не нужны: чем проще решение, тем лучше. С чем я полностью согласен 👏

Основное содержание поста — примитивы и паттерны оркестрирования языковых моделей без агентов. Основной примитив: улучшенная языковая модель, которая имеет доступ к инструментам, поиску и памяти. Этот примитив может быть реализован по-разному, например через конечное число последовательных вызовов языковой модели.

🔹Паттерн 1: цепочка промптов
Если задача разбивается на несколько последовательных подзадач, их можно решать отдельными вызовами языковой модели. Например, если вы хотите сделать систему, пишущую книги, вы сначала делаете вызов для генерации названия книги, потом отдельные вызовы для краткого описания, содержания, выжимок глав и непосредственно самих глав.

🔹Паттерн 2: маршрутизация
Если ваше приложение разбивается на несколько возможных параллельных путей, то стоит сделать классификатор, который будет определять нужный путь, и специализированные промпты под каждый из путей. Например, если вы делаете чатбот с несколькими независимыми функциями (рекомендация фильмов, ответы на вопросы по фильмам, чат на общие темы), то стоит использовать этот паттерн. В древних чатботах часто был детектор интентов, который делал ровно это 👴

🔹Паттерн 3: параллелизация
Если задача разбивается на несколько параллельных подзадач, то стоит их и вызывать параллельно. Например, если вам нужно извлечь огромный JSON из текста или переписки, возможно вам стоит извлекать его по кусочкам. Отличие от маршрутизации в том, что в ней нам нужна была только одна ветка, а тут нам нужны результаты всех вызовов.

🔹Паттерн 4: ведущий-ведомый 😭
То же самое, что и параллелизация, только с динамическим количеством и содержанием подзадач. Например, так можно делать агрегацию результатов поиска.

🔹Паттерн 5: цикл оценки
Если есть чёткие критерии оценки качества выполнения задачи, то можно одной языковой моделью решать задачу, а другой — оценивать качество решения и давать обратную связь. И делать это в цикле. Это может работать много где, например в переводе текстов.

Ну и наконец последний паттерн — агенты, которые совершают действия в определенной среде, получают от среды обратную связь, и снова совершают действия.

Мне в разных местах в разное время пришлось использовать первые 3 паттерна. При этом тогда я не формулировал их как отдельные паттерны. Это не какие-то абстрактные штуки, это кристаллизация того, как удобно и просто строить системы (как и любые другие паттерны проектирования).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🐷 Вот так сюрприз: OpenAI теряет деньги на платных подписчиках

А всё почему? Потому что они используют модели компании активнее, чем та могла ожидать.

Самое забавное, что Альтман сам выбрал фиксированную стоимость для всех клиентов. Хотя, казалось бы, очевидная мысль: запуститься на небольшой цене, а когда все распробуют — поставить отдельные тарифы для частных пользователей, среднего / крупного бизнеса...

https://vc.ru/chatgpt/1742443
Please open Telegram to view this post
VIEW IN TELEGRAM
Тем временем Сэм Альтман разродился целой серией публичных выступлений — от нового поста в блоге до интервью с Bloomberg. Если собрать из них краткую выжимку, то его позиция сейчас звучит следующим образом:

1️⃣ Успех ChatGPT в 2022 году стал для команды неожиданностью. Изначально, когда Альтман познакомился с Ильей Суцкевером в 2014 году, они поставили перед собой куда более глобальную задачу — создать настоящий AGI. Промежуточные продукты выпускать никто не собирался.

Когда ChatGPT «взорвал» медиапространство, OpenAI оказалась в ситуации, когда у неё отчаянно не хватало ресурсов и не было бизнес-модели. Поэтому подписка оказалась буквально идеей из серии «введём сейчас, разберёмся позже».

2️⃣ Конфликт интересов между попытками «соблюсти чистоту» миссии и удержаться на плаву коммерчески привёл к разрыву Альтмана с советом директоров. Сам глава OpenAI, по его словам, ничего не скрывал от членов правления — а просто пытался выстроить рабочую для компании схему «на ходу».

Альтман уважает убеждения бывших участников совета директоров, но считает, что попытка его отстранения была ошибкой. При этом следом он говорит, что слабо ориентируется во всех комитетах, отвечающих за безопасность развития ИИ в его компании.

3️⃣ AGI — приоритет OpenAI, и компания уже знает, как прийти к нему. Первых эффективных ИИ-агентов, способных присоединиться к «рабочей силе» и серьёзно изменить производительность бизнеса, ожидают увидеть уже в 2025 году. Для Альтмана именно квалифицированная работа ИИ на важных должностях в общих чертах равнозначна приходу AGI.

Но, естественно, само понятие сейчас очень размыто. Поэтому цели будут меняться. Но вот в случае с условным сверх-ИИ для Альтмана показателем будет резкое увеличение числа научных открытий.

4️⃣ Илон Маск будет творить «всякие гадости» OpenAI, в этом Альтман даже не сомневается. Суды продолжатся, иски будут подаваться и отзываться. Но глава OpenAI надеется, что Маск не будет использовать своё политическое влияние против его компании. К тому же, Альтман готов работать при любой президентской администрации США.

Впереди только светлое будущее: масштабирование моделей продолжает показывать свою эффективность. Недостаток энергии покроет термоядерный синтез, с чипами проблем не будет. Рост стоимость подписки и другие способы монетизации ИИ будут рассматриваться. Но вот о планах по дальнейшему уходу от формата НКО Альтман ничего не говорит.
Please open Telegram to view this post
VIEW IN TELEGRAM
Маск дышит OpenAI в спину со своим Grok 3, который уже отличился самым большим трейнинг-раном в истории. А ещё он обещал выложить исходный код Grok 2 с релизом новой версии — чего тоже с нетерпением ждём 🤖

https://www.group-telegram.com/ai_newz/3595
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/01/06 19:25:34
Back to Top
HTML Embed Code: