AI Hype Index.pdf
1.3 MB
Лихорадка, ажиотаж, хайп, мания… Как только это не называют! Всегда кажется, что мы переживаем что-то впервые, но мудрец еще несколько тысячелетий назад сказал: «Нет ничего нового под солнцем. Бывает нечто, о чем говорят: "смотри, вот это новое"; но это было уже в веках, бывших прежде нас».
В 17 веке, во время тюльпаномании, считалось, что луковицы тюльпанов не перестанут расти в цене, и из каждого утюга кричали: «Тюльпаны!». В середине 19 века все бросились в Калифорнию, но вовсе не для того, чтобы серфить по океанским волнам, а чтобы копать золото – началась золотая лихорадка. Ажиотаж вокруг рынка акций в «ревущие 20-е» закончился Великой депрессией, но кому это сейчас интересно? У биткоиномании пять лет назад был даже свой девиз – «to the moon!». И хотя адептов крипты с тех пор заметно поубавилось, после того как биток перевалил за 100к, мания может начаться вновь.
Хайп вокруг AI начался больше 50 лет назад, но по сравнению с нынешним его уровнем, тот кажется детской игрушкой. С тех пор, как появился ChatGPT, все вокруг, кажется, только и говорят, и пишут, что про искусственный интеллект. И про то, как уже эти разговоры всем надоели, и когда же уже всему этому придет AGI. Все говорят, а мы решили измерить!
Вместе с нашими друзьями из аналитического агентства «Риал Тайм» мы представляем аналитический отчет «Два года ИИ-лихорадки в цифрах» (в следующем сообщении).
Мы отобрали 20 самых «хайповых» AI-сервисов и посчитали, сколько раз про них писали СМИ, сколько постов было в Telegram, и насколько активно их искали пользователи в интернете. Получился такой трехмерный взгляд – как хайп разгоняется в соцсетях (или, как их сейчас называют, в новых медиа), как его подхватывают традиционные СМИ, и как на него реагируют пользователи. Мы назвали свой инструмент AI-HI (AI-Hype Index).
Кроме того, мы посмотрели как часто передовые российские технологические компании упоминаются в СМИ и постах в связи с ИИ. И составили их рейтинг и отдельный, корпоративный индекс — AI-HI (CORP).
По нашим подсчетам, за два года хайпа вокруг искусственного интеллекта российские СМИ опубликовали более 300 тысяч материалов с упоминанием AI-сервисов, блогеры накатали в Telegram-каналах более 1,6 млн постов, а пользователи искали их через Яндекс около 40 млн раз. Российские компании в связи с ИИ упоминались в 120 тысячах статей и почти 100 тысячах постах в Телеге.
Итак, если верить нашему индексу:
⚡️ С октября 2024 года в России началась новая, третья волна «хайпа» вокруг искусственного интеллекта
❤️ СМИ любят отечественные сервисы вдвое больше, чем пользователи, а блогеры их почти не замечают
❓ Россияне ищут Character.AI в интернете чаще, чем ChatGPT, но СМИ и тг-каналы о нем почти не пишут
⤴️ Генератор песен Suno AI – еще один сервис, недооцененный как старыми, так и новыми медиа, а пользователи его любят и ищут
🔺 Лидирует в гонке AI-хайпа в 2024 году Сбер – за счет старых медиа: его упоминают в половине статей СМИ. Его GigaChat лидирует и по упоминанию в СМИ российских сервисов. А вот в Телеге чаще поминают Яндекс и его YandexGPT
🔼 На третьем месте в корпоративном «зачете» VK – он обгоняет МТС за счет лидерства в постах Telegram. СМИ же упоминали МТС в 2024 году в связи с искусственным интеллектом немного чаще, чем VK
В 17 веке, во время тюльпаномании, считалось, что луковицы тюльпанов не перестанут расти в цене, и из каждого утюга кричали: «Тюльпаны!». В середине 19 века все бросились в Калифорнию, но вовсе не для того, чтобы серфить по океанским волнам, а чтобы копать золото – началась золотая лихорадка. Ажиотаж вокруг рынка акций в «ревущие 20-е» закончился Великой депрессией, но кому это сейчас интересно? У биткоиномании пять лет назад был даже свой девиз – «to the moon!». И хотя адептов крипты с тех пор заметно поубавилось, после того как биток перевалил за 100к, мания может начаться вновь.
Хайп вокруг AI начался больше 50 лет назад, но по сравнению с нынешним его уровнем, тот кажется детской игрушкой. С тех пор, как появился ChatGPT, все вокруг, кажется, только и говорят, и пишут, что про искусственный интеллект. И про то, как уже эти разговоры всем надоели, и когда же уже всему этому придет AGI. Все говорят, а мы решили измерить!
Вместе с нашими друзьями из аналитического агентства «Риал Тайм» мы представляем аналитический отчет «Два года ИИ-лихорадки в цифрах» (в следующем сообщении).
Мы отобрали 20 самых «хайповых» AI-сервисов и посчитали, сколько раз про них писали СМИ, сколько постов было в Telegram, и насколько активно их искали пользователи в интернете. Получился такой трехмерный взгляд – как хайп разгоняется в соцсетях (или, как их сейчас называют, в новых медиа), как его подхватывают традиционные СМИ, и как на него реагируют пользователи. Мы назвали свой инструмент AI-HI (AI-Hype Index).
Кроме того, мы посмотрели как часто передовые российские технологические компании упоминаются в СМИ и постах в связи с ИИ. И составили их рейтинг и отдельный, корпоративный индекс — AI-HI (CORP).
По нашим подсчетам, за два года хайпа вокруг искусственного интеллекта российские СМИ опубликовали более 300 тысяч материалов с упоминанием AI-сервисов, блогеры накатали в Telegram-каналах более 1,6 млн постов, а пользователи искали их через Яндекс около 40 млн раз. Российские компании в связи с ИИ упоминались в 120 тысячах статей и почти 100 тысячах постах в Телеге.
Итак, если верить нашему индексу:
Please open Telegram to view this post
VIEW IN TELEGRAM
Коммерческий путь тернист и извилист. Особенно таковым он становится, когда твой главный партнёр это гигантская корпорация, а в противниках — самый богатый человек на Земле. Но OpenAI всё же не сдаются в попытках навести порядок в своих рядах.
Для этого Альтман хочет совместить коммерческую и некоммерческую структуру в рамках одной компании, а также — потенциально выйти из всех обязательств, сделав ИИ финансово успешным.
У OpenAI есть юридическая лазейка, которая позволяет ей в одностороннем порядке разорвать отношения со всеми инвесторами. Это будет возможно, если компания создаст Artificial General Intelligence (AGI). Но вот незадача — его определение в документах компании до сих пор ограничивалось формулировкой «превосходит людей в большинстве экономически важных задач».
В рамках переговоров с Microsoft было принято новое определение: AGI будет считаться ИИ-система, которая может принести не менее 100 млрд долларов прибыли. Но и здесь всё пока выглядит крайне мутно: формулировка can generate делает этот самый profit необязательным. Да и OpenAI пока может похвастаться выручкой порядка 5 млрд долларов и не собирается выходить на прибыль до 2029 года. Похоже, AGI в ближайшие пять лет не ждём :(
Инвесторы хотят поддержать OpenAI, но им нужен обычный акционерный капитал и меньше структурной мороки. Поэтому компания хочет совместить коммерческую и некоммерческую структуру так, чтобы они помогали друг другу. А в качестве основы для первой в OpenAI хотят выбрать статус Public Benefit Corporation (PBC, в его рамках также работают Anthropic и Inflection).
Но главное — это устойчивость. Поэтому некоммерческая часть OpenAI будет обеспечена ресурсами в том числе с помощью акций в PBC по справедливой оценке, «определённой независимыми финансовыми консультантами». Ожидаемая доля PBC оценивается в 25% акций (примерно 40 млрд долларов), столько же или больше может получить Microsoft.
В середине декабря претензии Маска поддержала Meta, заявив, что переход OpenAI от статуса НКО будет иметь «серьёзные последствия для Кремниевой долины». Удастся ли конкурентам «задавить» коммерческие инициативы OpenAI, пока неясно — но у них есть шанс как минимум здорово потянуть время в этой гонке вооружений.
Please open Telegram to view this post
VIEW IN TELEGRAM
The Information
Microsoft and OpenAI’s Secret AGI Definition
Finally, a verifiable, numbers-based description of artificial general intelligence has arrived!Whether AGI has or hasn’t been “achieved” by AI developers has been a hotly debated topic due to its fuzzy and subjective definition. OpenAI has publicly described…
Общественная польза без ответственности перед обществом
Разработчики высокоуровневых систем искусственного интеллекта наперебой травят про защиту «общественной пользы». Начинавшая, как некоммерческая компания с единственной целью – разработать ИИ для человечества, OpenAI со скандалами и исками прорывается к своей настоящей цели – стать коммерческой компанией. Подозреваю, что если все пойдет как задумано, она в ближайшем будущем станет первой компанией с 14-значной оценкой ($10 трлн). Но пока, чтобы успокоить общественность, она, как и ее конкуренты – Anthropic (разработчик Claude) и илономасковская xAI (разработчик Grok) – говорит о преобразовании в Public Benefit Corporation (PBC).
PBC – сравнительно новая корпоративная форма. В штате Делавэр, где зарегистрирована OpenAI, она появилась только в 2013 году. Мы попытались разобраться, чем же она отличается от обычной корпорации.
Итак, PBC, или по-русски – Корпорация Общественного Блага (КОБ) – это компания, чьей целью является не только получение прибыли для акционеров, но и достижение некой четкой указанной в ее Уставе, Общественной Пользы. Любой – от «счастье всем даром» до «интернет в каждый дом». Предполагается, что компания должна находить баланс между благом акционеров и общественным благом.
Приведу пример. Если бы Газпром стал бы КОБом, то мог бы внести в свой Устав достижение Общественного блага – газификация каждого дома в стране. Тогда подведение газа ко всем дачным участкам стало бы его задачей вне зависимости от того, выгодно это или приносит убытки. Или если бы у Ростелекома было бы прописано в уставе доведение ШПД до всех населенных пунктов. У нас это называется социальная ответственность, но она ситуативна и не прописана в Уставах госкомпаний. А тут частные компании с четко прописанной конкретной социальной ответственностью.
Такая КОБ-компания должна регулярно публично отчитываться, как она достигает поставленной цели. Ее директора должны действовать и принимать решения, которые бы помогали компании достигать этих целей. То есть Общество может спать спокойно – технологические разработки в такой компании будут служить не против него, а для его пользы.
Вот только, как обычно, возникает вопрос о механизмах контроля. И тут выясняется, что те, для чьей пользы трудится такая КОБ, никаких рычагов контроля не имеют. Да, они могут прочитать отчет OpenAI, в котором она расскажет (фантазирую) про то, что у нее есть специальная группа, занимающаяся безопасностью AI и защитой человечества от потенциальных угроз, связанных с AGI. В группе три человека и они репортят совету директоров. Но оценить, насколько этих усилий достаточно, могут только акционеры.
Подать иск против директоров КОБ, чтобы заставить их выполнять общественно полезные обязанности, по закону штата Делавэр, могут только акционеры, владеющие совокупно не менее 2% акций. Или, если компания торгуется на бирже, владеющие акциями стоимостью не менее двух млн долларов. А как показывает практика, общественное благо акционеров обычно волнует мало, в отличие от благ материальных, которая компания может принести лично им.
В условиях хайпа вокруг ИИ (в том числе и негативного), переход к форме собственности в виде Корпорации общественного блага видится мне скорее формой торга с обществом, альтернативой жесткому государственному контролю за потенциально общественно опасными разработками и их применением. Ну, примерно как когда та или иная отрасль у нас часто пытается откупиться от госрегулирования механизмами саморегулирования.
Вот только в случае Public Benefit Corporation не будет никаких способов заставить OpenAI или какую-нибудь другую AI-компанию стремиться к общественному благу, а не к достижению любой ценой AGI, чье определение теперь, как известно, предельно простое: система, способная принести акционерам прибыль более $100 млрд.
Разработчики высокоуровневых систем искусственного интеллекта наперебой травят про защиту «общественной пользы». Начинавшая, как некоммерческая компания с единственной целью – разработать ИИ для человечества, OpenAI со скандалами и исками прорывается к своей настоящей цели – стать коммерческой компанией. Подозреваю, что если все пойдет как задумано, она в ближайшем будущем станет первой компанией с 14-значной оценкой ($10 трлн). Но пока, чтобы успокоить общественность, она, как и ее конкуренты – Anthropic (разработчик Claude) и илономасковская xAI (разработчик Grok) – говорит о преобразовании в Public Benefit Corporation (PBC).
PBC – сравнительно новая корпоративная форма. В штате Делавэр, где зарегистрирована OpenAI, она появилась только в 2013 году. Мы попытались разобраться, чем же она отличается от обычной корпорации.
Итак, PBC, или по-русски – Корпорация Общественного Блага (КОБ) – это компания, чьей целью является не только получение прибыли для акционеров, но и достижение некой четкой указанной в ее Уставе, Общественной Пользы. Любой – от «счастье всем даром» до «интернет в каждый дом». Предполагается, что компания должна находить баланс между благом акционеров и общественным благом.
Приведу пример. Если бы Газпром стал бы КОБом, то мог бы внести в свой Устав достижение Общественного блага – газификация каждого дома в стране. Тогда подведение газа ко всем дачным участкам стало бы его задачей вне зависимости от того, выгодно это или приносит убытки. Или если бы у Ростелекома было бы прописано в уставе доведение ШПД до всех населенных пунктов. У нас это называется социальная ответственность, но она ситуативна и не прописана в Уставах госкомпаний. А тут частные компании с четко прописанной конкретной социальной ответственностью.
Такая КОБ-компания должна регулярно публично отчитываться, как она достигает поставленной цели. Ее директора должны действовать и принимать решения, которые бы помогали компании достигать этих целей. То есть Общество может спать спокойно – технологические разработки в такой компании будут служить не против него, а для его пользы.
Вот только, как обычно, возникает вопрос о механизмах контроля. И тут выясняется, что те, для чьей пользы трудится такая КОБ, никаких рычагов контроля не имеют. Да, они могут прочитать отчет OpenAI, в котором она расскажет (фантазирую) про то, что у нее есть специальная группа, занимающаяся безопасностью AI и защитой человечества от потенциальных угроз, связанных с AGI. В группе три человека и они репортят совету директоров. Но оценить, насколько этих усилий достаточно, могут только акционеры.
Подать иск против директоров КОБ, чтобы заставить их выполнять общественно полезные обязанности, по закону штата Делавэр, могут только акционеры, владеющие совокупно не менее 2% акций. Или, если компания торгуется на бирже, владеющие акциями стоимостью не менее двух млн долларов. А как показывает практика, общественное благо акционеров обычно волнует мало, в отличие от благ материальных, которая компания может принести лично им.
В условиях хайпа вокруг ИИ (в том числе и негативного), переход к форме собственности в виде Корпорации общественного блага видится мне скорее формой торга с обществом, альтернативой жесткому государственному контролю за потенциально общественно опасными разработками и их применением. Ну, примерно как когда та или иная отрасль у нас часто пытается откупиться от госрегулирования механизмами саморегулирования.
Вот только в случае Public Benefit Corporation не будет никаких способов заставить OpenAI или какую-нибудь другую AI-компанию стремиться к общественному благу, а не к достижению любой ценой AGI, чье определение теперь, как известно, предельно простое: система, способная принести акционерам прибыль более $100 млрд.
Openai
Why OpenAI’s Structure Must Evolve To Advance Our Mission
A stronger non-profit supported by the for-profit’s success.
Собрались как-то за одним столом советский культурный атташе и арт-критик, историк международных отношений и его коллега, специализирующийся на периоде Холодной войны... И разобрали в один присест тему, ради которой я в своё время год копался в архивных документах: как советские дипломаты использовали культурные мероприятия для расширения своего политического влияния.
Мне оставалось только подобрать с пола челюсть и забрать готовый доклад с записью всей дискуссии, из которой он и появился всего за несколько минут.
В своей работе STORM использовал материалы из интернета, которые анализировал на глазах у пользователя, сам задавая себе уточняющие вопросы. Частые ссылки на Википедию, конечно, не радовали — но инструмент находил и серьёзные исследовательские статьи.
Ограничений по темам нет: можно хоть копаться в истории разных стран, хоть уходить в темы нейробиологии и последних новинок в кибербезопасности. Как отмечают разработчики, сейчас STORM работает на основе последних технологий Bing Search и Azure OpenAI GPT-4o-mini.
Предположу, что именно из-за Bing Search некоторые Highlights по ссылкам начинаются с чего-то вроде «Academia.edu no longer supports Internet Explorer. To browse Academia.edu and the wider internet faster and more securely, please take a few seconds to upgrade your browser...» :)
Please open Telegram to view this post
VIEW IN TELEGRAM
arXiv.org
Into the Unknown Unknowns: Engaged Human Learning through...
While language model (LM)-powered chatbots and generative search engines excel at answering concrete queries, discovering information in the terrain of unknown unknowns remains challenging for...
Forwarded from Старший Авгур
У Anthropic пару недель назад вышел пост про агентов: https://www.anthropic.com/research/building-effective-agents
Он прекрасен тем, что определяет, что является агентом, а что не является. С точки зрения авторов поста, агент = система, в которой языковые модели динамически управляют собственными вызовами и инструментами, контролируя выполнение какой-то задачи.
Авторы утверждают, что для большинства случаев агенты не нужны: чем проще решение, тем лучше. С чем я полностью согласен👏
Основное содержание поста — примитивы и паттерны оркестрирования языковых моделей без агентов. Основной примитив: улучшенная языковая модель, которая имеет доступ к инструментам, поиску и памяти. Этот примитив может быть реализован по-разному, например через конечное число последовательных вызовов языковой модели.
🔹Паттерн 1: цепочка промптов
Если задача разбивается на несколько последовательных подзадач, их можно решать отдельными вызовами языковой модели. Например, если вы хотите сделать систему, пишущую книги, вы сначала делаете вызов для генерации названия книги, потом отдельные вызовы для краткого описания, содержания, выжимок глав и непосредственно самих глав.
🔹Паттерн 2: маршрутизация
Если ваше приложение разбивается на несколько возможных параллельных путей, то стоит сделать классификатор, который будет определять нужный путь, и специализированные промпты под каждый из путей. Например, если вы делаете чатбот с несколькими независимыми функциями (рекомендация фильмов, ответы на вопросы по фильмам, чат на общие темы), то стоит использовать этот паттерн. В древних чатботах часто был детектор интентов, который делал ровно это👴
🔹Паттерн 3: параллелизация
Если задача разбивается на несколько параллельных подзадач, то стоит их и вызывать параллельно. Например, если вам нужно извлечь огромный JSON из текста или переписки, возможно вам стоит извлекать его по кусочкам. Отличие от маршрутизации в том, что в ней нам нужна была только одна ветка, а тут нам нужны результаты всех вызовов.
🔹Паттерн 4: ведущий-ведомый😭
То же самое, что и параллелизация, только с динамическим количеством и содержанием подзадач. Например, так можно делать агрегацию результатов поиска.
🔹Паттерн 5: цикл оценки
Если есть чёткие критерии оценки качества выполнения задачи, то можно одной языковой моделью решать задачу, а другой — оценивать качество решения и давать обратную связь. И делать это в цикле. Это может работать много где, например в переводе текстов.
Ну и наконец последний паттерн — агенты, которые совершают действия в определенной среде, получают от среды обратную связь, и снова совершают действия.
Мне в разных местах в разное время пришлось использовать первые 3 паттерна. При этом тогда я не формулировал их как отдельные паттерны. Это не какие-то абстрактные штуки, это кристаллизация того, как удобно и просто строить системы (как и любые другие паттерны проектирования).
Он прекрасен тем, что определяет, что является агентом, а что не является. С точки зрения авторов поста, агент = система, в которой языковые модели динамически управляют собственными вызовами и инструментами, контролируя выполнение какой-то задачи.
Авторы утверждают, что для большинства случаев агенты не нужны: чем проще решение, тем лучше. С чем я полностью согласен
Основное содержание поста — примитивы и паттерны оркестрирования языковых моделей без агентов. Основной примитив: улучшенная языковая модель, которая имеет доступ к инструментам, поиску и памяти. Этот примитив может быть реализован по-разному, например через конечное число последовательных вызовов языковой модели.
🔹Паттерн 1: цепочка промптов
Если задача разбивается на несколько последовательных подзадач, их можно решать отдельными вызовами языковой модели. Например, если вы хотите сделать систему, пишущую книги, вы сначала делаете вызов для генерации названия книги, потом отдельные вызовы для краткого описания, содержания, выжимок глав и непосредственно самих глав.
🔹Паттерн 2: маршрутизация
Если ваше приложение разбивается на несколько возможных параллельных путей, то стоит сделать классификатор, который будет определять нужный путь, и специализированные промпты под каждый из путей. Например, если вы делаете чатбот с несколькими независимыми функциями (рекомендация фильмов, ответы на вопросы по фильмам, чат на общие темы), то стоит использовать этот паттерн. В древних чатботах часто был детектор интентов, который делал ровно это
🔹Паттерн 3: параллелизация
Если задача разбивается на несколько параллельных подзадач, то стоит их и вызывать параллельно. Например, если вам нужно извлечь огромный JSON из текста или переписки, возможно вам стоит извлекать его по кусочкам. Отличие от маршрутизации в том, что в ней нам нужна была только одна ветка, а тут нам нужны результаты всех вызовов.
🔹Паттерн 4: ведущий-ведомый
То же самое, что и параллелизация, только с динамическим количеством и содержанием подзадач. Например, так можно делать агрегацию результатов поиска.
🔹Паттерн 5: цикл оценки
Если есть чёткие критерии оценки качества выполнения задачи, то можно одной языковой моделью решать задачу, а другой — оценивать качество решения и давать обратную связь. И делать это в цикле. Это может работать много где, например в переводе текстов.
Ну и наконец последний паттерн — агенты, которые совершают действия в определенной среде, получают от среды обратную связь, и снова совершают действия.
Мне в разных местах в разное время пришлось использовать первые 3 паттерна. При этом тогда я не формулировал их как отдельные паттерны. Это не какие-то абстрактные штуки, это кристаллизация того, как удобно и просто строить системы (как и любые другие паттерны проектирования).
Please open Telegram to view this post
VIEW IN TELEGRAM
А всё почему? Потому что они используют модели компании активнее, чем та могла ожидать.
Самое забавное, что Альтман сам выбрал фиксированную стоимость для всех клиентов. Хотя, казалось бы, очевидная мысль: запуститься на небольшой цене, а когда все распробуют — поставить отдельные тарифы для частных пользователей, среднего / крупного бизнеса...
https://vc.ru/chatgpt/1742443
Please open Telegram to view this post
VIEW IN TELEGRAM
vc.ru
OpenAI рассказала, что «теряет деньги» на подписках ChatGPT Pro — ChatGPT на vc.ru
Месяц стоит $200 — примерно 20 тысяч рублей по курсу ЦБ на 6 января 2025 года.
Тем временем Сэм Альтман разродился целой серией публичных выступлений — от нового поста в блоге до интервью с Bloomberg. Если собрать из них краткую выжимку, то его позиция сейчас звучит следующим образом:
1️⃣ Успех ChatGPT в 2022 году стал для команды неожиданностью. Изначально, когда Альтман познакомился с Ильей Суцкевером в 2014 году, они поставили перед собой куда более глобальную задачу — создать настоящий AGI. Промежуточные продукты выпускать никто не собирался.
Когда ChatGPT «взорвал» медиапространство, OpenAI оказалась в ситуации, когда у неё отчаянно не хватало ресурсов и не было бизнес-модели. Поэтому подписка оказалась буквально идеей из серии «введём сейчас, разберёмся позже».
2️⃣ Конфликт интересов между попытками «соблюсти чистоту» миссии и удержаться на плаву коммерчески привёл к разрыву Альтмана с советом директоров. Сам глава OpenAI, по его словам, ничего не скрывал от членов правления — а просто пытался выстроить рабочую для компании схему «на ходу».
Альтман уважает убеждения бывших участников совета директоров, но считает, что попытка его отстранения была ошибкой. При этом следом он говорит, что слабо ориентируется во всех комитетах, отвечающих за безопасность развития ИИ в его компании.
3️⃣ AGI — приоритет OpenAI, и компания уже знает, как прийти к нему. Первых эффективных ИИ-агентов, способных присоединиться к «рабочей силе» и серьёзно изменить производительность бизнеса, ожидают увидеть уже в 2025 году. Для Альтмана именно квалифицированная работа ИИ на важных должностях в общих чертах равнозначна приходу AGI.
Но, естественно, само понятие сейчас очень размыто. Поэтому цели будут меняться. Но вот в случае с условным сверх-ИИ для Альтмана показателем будет резкое увеличение числа научных открытий.
4️⃣ Илон Маск будет творить «всякие гадости» OpenAI, в этом Альтман даже не сомневается. Суды продолжатся, иски будут подаваться и отзываться. Но глава OpenAI надеется, что Маск не будет использовать своё политическое влияние против его компании. К тому же, Альтман готов работать при любой президентской администрации США.
Впереди только светлое будущее: масштабирование моделей продолжает показывать свою эффективность. Недостаток энергии покроет термоядерный синтез, с чипами проблем не будет. Рост стоимость подписки и другие способы монетизации ИИ будут рассматриваться. Но вот о планах по дальнейшему уходу от формата НКО Альтман ничего не говорит.
Когда ChatGPT «взорвал» медиапространство, OpenAI оказалась в ситуации, когда у неё отчаянно не хватало ресурсов и не было бизнес-модели. Поэтому подписка оказалась буквально идеей из серии «введём сейчас, разберёмся позже».
Альтман уважает убеждения бывших участников совета директоров, но считает, что попытка его отстранения была ошибкой. При этом следом он говорит, что слабо ориентируется во всех комитетах, отвечающих за безопасность развития ИИ в его компании.
Но, естественно, само понятие сейчас очень размыто. Поэтому цели будут меняться. Но вот в случае с условным сверх-ИИ для Альтмана показателем будет резкое увеличение числа научных открытий.
Впереди только светлое будущее: масштабирование моделей продолжает показывать свою эффективность. Недостаток энергии покроет термоядерный синтез, с чипами проблем не будет. Рост стоимость подписки и другие способы монетизации ИИ будут рассматриваться. Но вот о планах по дальнейшему уходу от формата НКО Альтман ничего не говорит.
Please open Telegram to view this post
VIEW IN TELEGRAM
Bloomberg.com
Sam Altman on ChatGPT’s First Two Years, Elon Musk and AI Under Trump
An interview with the OpenAI co-founder.
Маск дышит OpenAI в спину со своим Grok 3, который уже отличился самым большим трейнинг-раном в истории. А ещё он обещал выложить исходный код Grok 2 с релизом новой версии — чего тоже с нетерпением ждём 🤖
https://www.group-telegram.com/ai_newz/3595
https://www.group-telegram.com/ai_newz/3595
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
эйай ньюз
Пре-трейн Grok 3 завершен!
На пре-трейн этап тренировки модели ушло более 200 миллионов H100 часов - самый большой трейнинг ран в истории. Это более чем 6x компьюта Llama 3.1 405B и 70x компьюта DeepSeek V3.
Сейчас модель тюнят (там тоже может быть несколько…
На пре-трейн этап тренировки модели ушло более 200 миллионов H100 часов - самый большой трейнинг ран в истории. Это более чем 6x компьюта Llama 3.1 405B и 70x компьюта DeepSeek V3.
Сейчас модель тюнят (там тоже может быть несколько…