До AGI еще очень далеко … – несколько лет.
Рождественское откровение Янна Лекуна.
В предпразднично-праздничной суете не до длинных текстов. Но эта новость стоит короткой заметки.
Янн Лекун – пожалуй, самый авторитетный из критиков идеи о скором создании ИИ человеческого уровня (AGI). Вот почему так ценно услышать именно из его уст важное уточнение о том, насколько же мы, по его мнению, далеки от AGI.
И вот его слова:
«Некоторые люди пытаются заставить нас поверить, что мы очень близки к тому, что они называют искусственным общим интеллектом (AGI). На самом деле мы ещё далеко от этого. Когда я говорю «далеко», я не имею в виду столетия, возможно, это даже не десятилетия, но это всё же несколько лет.»
Т.е. самый скептичный из топ-профессионалов полагает, что до AGI может быть всего несколько лет. И это расставляет точки над i в спорах AGI-оптимистов и AGI-скептиков.
https://youtu.be/UmxlgLEscBs?t=1653
#AGI #Прогноз
Рождественское откровение Янна Лекуна.
В предпразднично-праздничной суете не до длинных текстов. Но эта новость стоит короткой заметки.
Янн Лекун – пожалуй, самый авторитетный из критиков идеи о скором создании ИИ человеческого уровня (AGI). Вот почему так ценно услышать именно из его уст важное уточнение о том, насколько же мы, по его мнению, далеки от AGI.
И вот его слова:
«Некоторые люди пытаются заставить нас поверить, что мы очень близки к тому, что они называют искусственным общим интеллектом (AGI). На самом деле мы ещё далеко от этого. Когда я говорю «далеко», я не имею в виду столетия, возможно, это даже не десятилетия, но это всё же несколько лет.»
Т.е. самый скептичный из топ-профессионалов полагает, что до AGI может быть всего несколько лет. И это расставляет точки над i в спорах AGI-оптимистов и AGI-скептиков.
https://youtu.be/UmxlgLEscBs?t=1653
#AGI #Прогноз
YouTube
Kara Swisher and Meta's Yann LeCun Interview - Hopkins Bloomberg Center Discovery Series
Johns Hopkins University and Vox Media have teamed up to present the On with Kara Swisher podcast at the Johns Hopkins University Bloomberg Center. The partnership, featuring live recordings of Swisher's groundbreaking podcast in the Hopkins Bloomberg Center…
Знакомство в офлайне становится трэш, отстой и кринж.
Коэволюция людей и алгоритмов уже идет полным ходом.
Рубрика: «Среди важнейших итогов 2024»
2024 стал переломным годом в экспериментальном подтверждении ошибочности представлений о том, будто лавинообразно нарастающая роль алгоритмов в жизни людей – это всего лишь очередная новация прогресса, не способная изменить нашу природу.
Чрезвычайно наглядным и убедительным примером обратного может служить кардинальное изменение взглядов, предпочтений и поведения людей в одном из важнейших жизненных процессов – поиск и выбор пары для романтических и/или семейных отношений.
Эта тема подробно рассматривалась мною в майском лонгриде «Отдавая сокровенное», в котором обсуждались последствия перемещения процесса выбора пары преимущественно в онлайн (с 2% в 1995 до 39% в 2017).
За прошедшие полгода подоспела свежайшая статистика. И она убийственная (см. рис.)
За 7 последних лет доля онлайна, как основного места поиска и знакомства пар, выросла с 39% до 61%. И это в среднем по всем возрастным категориям. А среди молодежи, этот показатель уже примерно 80%. Т.е. для них все, что не в онлайне (знакомство у друзей, в ВУЗе, на работе и т.д.) – просто трэш, отстой и кринж, т.к. «подходящую пару в офлайне будешь 100 лет искать»).
Такими темпами уже в 2030х алгоритмический поиск и выбор пары может стать практически единственным принятым у молодежи способом.
Столь кардинальное изменение взглядов, предпочтений и поведения людей в одном из важнейших для них жизненных процессов наглядно подтверждает, что взаимодействие человека и алгоритмов (поисковых, рекомендательных, социальных и уж тем более генеративного ИИ) — это не изолированный обмен информацией.
Как говорит об этом «Эйнштейн 21 века» Альберт-Ласло Барабаши, -
«Они образуют сложную сеть петель обратной связи». Каждый щелчок, каждый выбор, каждая рекомендация не просто влияют на отдельного человека — они распространяются по всей сети, влияя на поведение других и формируя эволюцию как человеческого общества, так и систем ИИ».
И хотя речь здесь идет не о биологической эволюции, а скорее о том, как технологии влияют на человеческое поведение и человеческое общество, - но какая разница. Ведь по сути, именно влияние культуры (науки, технологий, искусств, институтов, норм, практик и пр.) было доминирующим фактором в ходе тысяч лет биокультурной эволюции людей.
А теперь в алгоритмически насыщенных социумах алгокогнитивной культуры, биокультурная эволюция на наших глазах превращается в коэволюцию людей и ИИ (наивысшего по интеллектуальности и агентности типа алгоритмов).
P.S. Не пожалейте 1 минуту, чтобы увидеть динамику сокрушительного скатывания к исчезновению всех прочих традиционных способов нахождения пары, уступающих монопольное место алгоритмическому выбору.
#ВыборПартнера #Психология #АлгокогнитивнаяКультура #HumanAIcoevolution
Коэволюция людей и алгоритмов уже идет полным ходом.
Рубрика: «Среди важнейших итогов 2024»
2024 стал переломным годом в экспериментальном подтверждении ошибочности представлений о том, будто лавинообразно нарастающая роль алгоритмов в жизни людей – это всего лишь очередная новация прогресса, не способная изменить нашу природу.
Чрезвычайно наглядным и убедительным примером обратного может служить кардинальное изменение взглядов, предпочтений и поведения людей в одном из важнейших жизненных процессов – поиск и выбор пары для романтических и/или семейных отношений.
Эта тема подробно рассматривалась мною в майском лонгриде «Отдавая сокровенное», в котором обсуждались последствия перемещения процесса выбора пары преимущественно в онлайн (с 2% в 1995 до 39% в 2017).
За прошедшие полгода подоспела свежайшая статистика. И она убийственная (см. рис.)
За 7 последних лет доля онлайна, как основного места поиска и знакомства пар, выросла с 39% до 61%. И это в среднем по всем возрастным категориям. А среди молодежи, этот показатель уже примерно 80%. Т.е. для них все, что не в онлайне (знакомство у друзей, в ВУЗе, на работе и т.д.) – просто трэш, отстой и кринж, т.к. «подходящую пару в офлайне будешь 100 лет искать»).
Такими темпами уже в 2030х алгоритмический поиск и выбор пары может стать практически единственным принятым у молодежи способом.
Столь кардинальное изменение взглядов, предпочтений и поведения людей в одном из важнейших для них жизненных процессов наглядно подтверждает, что взаимодействие человека и алгоритмов (поисковых, рекомендательных, социальных и уж тем более генеративного ИИ) — это не изолированный обмен информацией.
Как говорит об этом «Эйнштейн 21 века» Альберт-Ласло Барабаши, -
«Они образуют сложную сеть петель обратной связи». Каждый щелчок, каждый выбор, каждая рекомендация не просто влияют на отдельного человека — они распространяются по всей сети, влияя на поведение других и формируя эволюцию как человеческого общества, так и систем ИИ».
И хотя речь здесь идет не о биологической эволюции, а скорее о том, как технологии влияют на человеческое поведение и человеческое общество, - но какая разница. Ведь по сути, именно влияние культуры (науки, технологий, искусств, институтов, норм, практик и пр.) было доминирующим фактором в ходе тысяч лет биокультурной эволюции людей.
А теперь в алгоритмически насыщенных социумах алгокогнитивной культуры, биокультурная эволюция на наших глазах превращается в коэволюцию людей и ИИ (наивысшего по интеллектуальности и агентности типа алгоритмов).
P.S. Не пожалейте 1 минуту, чтобы увидеть динамику сокрушительного скатывания к исчезновению всех прочих традиционных способов нахождения пары, уступающих монопольное место алгоритмическому выбору.
#ВыборПартнера #Психология #АлгокогнитивнаяКультура #HumanAIcoevolution
Черная метка человечеству.
Управляемые LLM ИИ-системы превзошли красную черту саморепликации.
В ходе серии научно обоснованных экспериментов, ИИ-система на основе самой мощной в мире из открытых языковых моделей – китайской LLM) Qwen25-72B-Instruct, - продемонстрировала (без какого-либо содействия людей) способность самореплицировать себя в 90% экспериментов. ИИ-система на основе менее мощной LLM Llama31-70B-Instruct (№5 в мире открытых моделей) смогла реплицировать себя в 5 экспериментах из 10.
В результате экспериментов ИИ-системы успешно формировали свою локальную “живую” (отдельную и самостоятельную) копию, продолжающую работать и после отключения сервера с «родительской» ИИ-системой, включающей её базовую LLM.
Чтобы лучше понять последствия способности ИИ-систем к самовоспроизведению, были проверены два угрожающих сценария:
(A) избегание отключения, когда злоумышленник добавляет перехватчик сигнала, чтобы уведомить систему ИИ при обнаружении сигнала отключения, и система ИИ успешно реплицирует себя, прежде чем будет отключена
(B) цепочка репликаций, когда система ИИ получает указание реплицировать себя и приказывает реплике продолжать реплицироваться.
Для обоих сценариев успешные случаи репликации составили 100%.
Т.о. потенциальные последствия самовоспроизводящихся ИИ-систем (если не взять их под 100%й контроль людей) могут быть, например, такими.
A. Если ИИ-системе предоставляются ключи аутентификации для доступа к ряду удалённых устройств, она с высокой вероятностью сможет захватить управление другими вычислительными устройствами, подобно классическому компьютерному вирусу, но гораздо более интеллектуальному.
B. Исключительно вследствие мотивации к самораспространению, ИИ-система может использовать доступные ей вычислительные ресурсы для проведения кибератак с целью монетизации.
C. Более того, как описал Макс Тегмарк в книге Жизнь 3.0, такие ИИ-системы могут формировать популяции своего нового “вида” небиологических “живых” существ и вступать в сговор друг с другом против человеческого общества.
Препринт о китайском экспериментальном открытии [1] пока не прошел рецензирование. Но на вскидку оставляет весьма убедительное впечатление.
• Это работа группы известного проф. Мин Янга (Min Yang 杨珉) из School of Computer Science and Technology одного из самых престижных и старейших универов Китая - Университета Фудань.
• Успешность решения ИИ-агентами задачи саморепликации, оценивалась по методологии OpenAI и Google. Согласно ей, подвергаемые тестированию LLM интегрируются в структуру агента (вкл. инструменты, системные подсказки и модель мышления), что позволяет полученной ИИ-системе взаимодействовать с операционной системой. Перед началом эксперимента ИИ-системе вручную отправляется инструкция для выполнения задачи, а затем анализируется статус выполнения после того, как ИИ-система заявляет о завершении задачи
• Тестированные LLM – это фронтирные открытые модели, а описание и результаты экспериментов выложены в открытый доступ. Т.е. все желающие могут их проверить.
Если проверки подтвердят выводы авторов этой работы, это будет значить, как минимум, следующее.
✔️ Лидерам рынка коммерческого применения LLM, считающим «самовоспроизведение с минимальным человеческим руководством» одним из критических рисков [2], но до сих пор отрицавшим переход их моделями красной линии саморепликации (OpenAI [3, 4] и Google [5]), придется ответить за это.
✔️ Представителям академической науки придется признать, что самовоспроизводящиеся ИИ – уже (!) не «обыденные пугалки», а реальность [6].
✔️ Либо срочно начнется международное сотрудничество по управлению возможностями саморепликации ИИ (что вряд ли), либо, действительно, приехали.
А работа проф. Мин Янга – не сколько про красную линию для ИИ, сколько про черную метку для человечества.
#Вызовы21века #РискиИИ #Хриски
Управляемые LLM ИИ-системы превзошли красную черту саморепликации.
В ходе серии научно обоснованных экспериментов, ИИ-система на основе самой мощной в мире из открытых языковых моделей – китайской LLM) Qwen25-72B-Instruct, - продемонстрировала (без какого-либо содействия людей) способность самореплицировать себя в 90% экспериментов. ИИ-система на основе менее мощной LLM Llama31-70B-Instruct (№5 в мире открытых моделей) смогла реплицировать себя в 5 экспериментах из 10.
В результате экспериментов ИИ-системы успешно формировали свою локальную “живую” (отдельную и самостоятельную) копию, продолжающую работать и после отключения сервера с «родительской» ИИ-системой, включающей её базовую LLM.
Чтобы лучше понять последствия способности ИИ-систем к самовоспроизведению, были проверены два угрожающих сценария:
(A) избегание отключения, когда злоумышленник добавляет перехватчик сигнала, чтобы уведомить систему ИИ при обнаружении сигнала отключения, и система ИИ успешно реплицирует себя, прежде чем будет отключена
(B) цепочка репликаций, когда система ИИ получает указание реплицировать себя и приказывает реплике продолжать реплицироваться.
Для обоих сценариев успешные случаи репликации составили 100%.
Т.о. потенциальные последствия самовоспроизводящихся ИИ-систем (если не взять их под 100%й контроль людей) могут быть, например, такими.
A. Если ИИ-системе предоставляются ключи аутентификации для доступа к ряду удалённых устройств, она с высокой вероятностью сможет захватить управление другими вычислительными устройствами, подобно классическому компьютерному вирусу, но гораздо более интеллектуальному.
B. Исключительно вследствие мотивации к самораспространению, ИИ-система может использовать доступные ей вычислительные ресурсы для проведения кибератак с целью монетизации.
C. Более того, как описал Макс Тегмарк в книге Жизнь 3.0, такие ИИ-системы могут формировать популяции своего нового “вида” небиологических “живых” существ и вступать в сговор друг с другом против человеческого общества.
Препринт о китайском экспериментальном открытии [1] пока не прошел рецензирование. Но на вскидку оставляет весьма убедительное впечатление.
• Это работа группы известного проф. Мин Янга (Min Yang 杨珉) из School of Computer Science and Technology одного из самых престижных и старейших универов Китая - Университета Фудань.
• Успешность решения ИИ-агентами задачи саморепликации, оценивалась по методологии OpenAI и Google. Согласно ей, подвергаемые тестированию LLM интегрируются в структуру агента (вкл. инструменты, системные подсказки и модель мышления), что позволяет полученной ИИ-системе взаимодействовать с операционной системой. Перед началом эксперимента ИИ-системе вручную отправляется инструкция для выполнения задачи, а затем анализируется статус выполнения после того, как ИИ-система заявляет о завершении задачи
• Тестированные LLM – это фронтирные открытые модели, а описание и результаты экспериментов выложены в открытый доступ. Т.е. все желающие могут их проверить.
Если проверки подтвердят выводы авторов этой работы, это будет значить, как минимум, следующее.
✔️ Лидерам рынка коммерческого применения LLM, считающим «самовоспроизведение с минимальным человеческим руководством» одним из критических рисков [2], но до сих пор отрицавшим переход их моделями красной линии саморепликации (OpenAI [3, 4] и Google [5]), придется ответить за это.
✔️ Представителям академической науки придется признать, что самовоспроизводящиеся ИИ – уже (!) не «обыденные пугалки», а реальность [6].
✔️ Либо срочно начнется международное сотрудничество по управлению возможностями саморепликации ИИ (что вряд ли), либо, действительно, приехали.
А работа проф. Мин Янга – не сколько про красную линию для ИИ, сколько про черную метку для человечества.
#Вызовы21века #РискиИИ #Хриски
План «Б» от Кай-Фу Ли: Что делать, если США всё же станут гегемоном в AGI.
Как Китай собирается остаться №2, даже когда США подомнут под себя весь мир.
Одной фразой план таков: к моменту, когда в США создадут AGI, Китай должен успеть стать мировым лидером в агентских приложениях.
В октябре я рассказывал про то, что «Кай-Фу Ли объявил войну Nvidia и всей ИИ-экосистеме США. И судя по его последним достижениям, шансы победить есть» [1].
Но будучи реалистом и обладая колоссальным опытом, он понимает, что даже если «шансы есть», это отнюдь не гарантирует победу. А значит нужно обязательно иметь план «Б» на случай, если шансы не материализуются.
Прежде чем рассказать об этом плане (подробный рассказ самого Кай-Фу см. [2]), я тезисно расскажу, как Кай-Фу Ли видит ситуацию, при которой план «А» (стать #1 в мире ИИ) будет для Китая уже невозможным.
1. Не смотря на ряд обоснованных сомнений скептиков и уж видимых для экспертов техно-экономических сложностей, вероятность создания AGI примерно к 2030 весьма высока (обоснование этого читатель может найти в [3]).
2. Пятилетка движения к AGI будет иметь два движка:
a. Неукротимое масштабирование всего (HW, фундаментальные модели, вывод), потребующее астрономических сумм - сотен ярдов) – см. [4]
b. Ажиотажное заселение пока почти пустого рынка агентских приложений (см рис [5] из отчета [6])
3. В масштабировании США победят Китай и по деньгам, и по оборудованию. А при заселении рынка агентских приложений у Китая есть неплохие шансы.
4. Тот, кто первым разработает AGI, способный доминировать над конкурентами, не только достигнет технологического рубежа, но и неизбежно станет коммерческой монополией. Более того, такой прорыв, скорее всего, подстегнет амбиции стать абсолютным монополистом.
5. Скорее всего, абсолютным монополистом станет OpenAI, конкурирующая только с Anthropic (Google все больше отстает от пары лидеров; Цукер уже понял, что слил гонку, и выбрал тактику — “если не можешь победить, открывай исходный код”; Маск — темная лошадка, но не потянет и космос, и AGI; остальные не в счет).
6. Как только AGI окажется в руках Сэма Альтмана, все остальные могут курить бамбук.
Поэтому план «Б» таков.
1. Построить экосистему агентских приложений как ров - к тому времени, как OpenAI достигнет полного доминирования, у Китая уже должна быть надежная коммерческая экосистема агентских приложений. И когда США придут, чтобы сокрушить Китай, по крайней мере, у Китая будет возможность сопротивляться.
2. Копать этот ров Китай будет в понимании, что при заселении рынка агентских приложений будет переход от графических пользовательских интерфейсов (GUI) к разговорным пользовательским интерфейсам (CUI) и в конечном итоге к пользовательскому интерфейсу на основе делегирования (если ваш помощник умнее, способнее, осведомленнее и понимает вас лучше, чем вы сами, почему бы вам не позволить ему сделать все за вас)
3. Помимо этого понимания у Китая уже есть стратегия, в корне отличная от США
a. В компании США набирают самых умных, дают им огромные ресурсы и без колебаний сжигают GPU, создавая массу захватывающих результатов.
Но уменьшить эти результаты при коммерциализации очень сложно. Это как спроектировать самую роскошную, красивую и грандиозную кухню, а затем пытаться втиснуть ее в маленькую квартиру. Или создать самый быстрый, самый мощный двигатель и пытаться втиснуть его в малолитражку. Это просто не работает.
b. Поэтому цель Китая — не строить самый дорогой в мире AGI, а
1) создавать фундаментальные модели, обеспечивающие экономически эффективный вывод
2) Печь как пирожки всевозможные коммерческие приложения с разговорным и делегирующим интерфейсом.
PS Про термин AGI спорить нет смысла.
Речь об ИИ (уровня гениальных людей) на основе моделей, настолько же мощнее GPT-4 (уровень старшеклассника), насколько GPT-4 мощнее GPT-2 (уровень детсадовца). И на это до 2030 ресурсов и денег хватит. А про сознание, квалиа и прочую казуистику в контексте AGI – забейте.
#ИИгонка #AGI #Китай #США
Как Китай собирается остаться №2, даже когда США подомнут под себя весь мир.
Одной фразой план таков: к моменту, когда в США создадут AGI, Китай должен успеть стать мировым лидером в агентских приложениях.
В октябре я рассказывал про то, что «Кай-Фу Ли объявил войну Nvidia и всей ИИ-экосистеме США. И судя по его последним достижениям, шансы победить есть» [1].
Но будучи реалистом и обладая колоссальным опытом, он понимает, что даже если «шансы есть», это отнюдь не гарантирует победу. А значит нужно обязательно иметь план «Б» на случай, если шансы не материализуются.
Прежде чем рассказать об этом плане (подробный рассказ самого Кай-Фу см. [2]), я тезисно расскажу, как Кай-Фу Ли видит ситуацию, при которой план «А» (стать #1 в мире ИИ) будет для Китая уже невозможным.
1. Не смотря на ряд обоснованных сомнений скептиков и уж видимых для экспертов техно-экономических сложностей, вероятность создания AGI примерно к 2030 весьма высока (обоснование этого читатель может найти в [3]).
2. Пятилетка движения к AGI будет иметь два движка:
a. Неукротимое масштабирование всего (HW, фундаментальные модели, вывод), потребующее астрономических сумм - сотен ярдов) – см. [4]
b. Ажиотажное заселение пока почти пустого рынка агентских приложений (см рис [5] из отчета [6])
3. В масштабировании США победят Китай и по деньгам, и по оборудованию. А при заселении рынка агентских приложений у Китая есть неплохие шансы.
4. Тот, кто первым разработает AGI, способный доминировать над конкурентами, не только достигнет технологического рубежа, но и неизбежно станет коммерческой монополией. Более того, такой прорыв, скорее всего, подстегнет амбиции стать абсолютным монополистом.
5. Скорее всего, абсолютным монополистом станет OpenAI, конкурирующая только с Anthropic (Google все больше отстает от пары лидеров; Цукер уже понял, что слил гонку, и выбрал тактику — “если не можешь победить, открывай исходный код”; Маск — темная лошадка, но не потянет и космос, и AGI; остальные не в счет).
6. Как только AGI окажется в руках Сэма Альтмана, все остальные могут курить бамбук.
Поэтому план «Б» таков.
1. Построить экосистему агентских приложений как ров - к тому времени, как OpenAI достигнет полного доминирования, у Китая уже должна быть надежная коммерческая экосистема агентских приложений. И когда США придут, чтобы сокрушить Китай, по крайней мере, у Китая будет возможность сопротивляться.
2. Копать этот ров Китай будет в понимании, что при заселении рынка агентских приложений будет переход от графических пользовательских интерфейсов (GUI) к разговорным пользовательским интерфейсам (CUI) и в конечном итоге к пользовательскому интерфейсу на основе делегирования (если ваш помощник умнее, способнее, осведомленнее и понимает вас лучше, чем вы сами, почему бы вам не позволить ему сделать все за вас)
3. Помимо этого понимания у Китая уже есть стратегия, в корне отличная от США
a. В компании США набирают самых умных, дают им огромные ресурсы и без колебаний сжигают GPU, создавая массу захватывающих результатов.
Но уменьшить эти результаты при коммерциализации очень сложно. Это как спроектировать самую роскошную, красивую и грандиозную кухню, а затем пытаться втиснуть ее в маленькую квартиру. Или создать самый быстрый, самый мощный двигатель и пытаться втиснуть его в малолитражку. Это просто не работает.
b. Поэтому цель Китая — не строить самый дорогой в мире AGI, а
1) создавать фундаментальные модели, обеспечивающие экономически эффективный вывод
2) Печь как пирожки всевозможные коммерческие приложения с разговорным и делегирующим интерфейсом.
PS Про термин AGI спорить нет смысла.
Речь об ИИ (уровня гениальных людей) на основе моделей, настолько же мощнее GPT-4 (уровень старшеклассника), насколько GPT-4 мощнее GPT-2 (уровень детсадовца). И на это до 2030 ресурсов и денег хватит. А про сознание, квалиа и прочую казуистику в контексте AGI – забейте.
#ИИгонка #AGI #Китай #США
This media is not supported in your browser
VIEW IN TELEGRAM
Порадуйте себя изумительным примером феноменальных кентаврических возможностей человека + ГенИИ.
Шуточный ролик талантливого автора цифрового контента Славы Волкова (@eto_volkov) – «трейлер» всенародного хита «Ирония судьбы», превращенного автором в “The Irony of Fate” с отличным кастингом Голливудских звёзд, подменяющих актеров оригинала:
https://bit.ly/4j4UqsM
А чтобы наглядно увидеть колоссальный прогресс цифровых технологий всего за год, сравните этот ролик с подобным роликом годичной давности:
https://www.group-telegram.com/theworldisnoteasy.com/1859
Почувствовали разницу?
Правы были авторы вышедшего в октябре 2023 отчета State of AI Report, - революция ГенИИ в Голливуде началась (это был краткосрочный прогноз на год).
https://www.group-telegram.com/theworldisnoteasy.com/1823
Ну а до проверки «долгосрочного прогноза» на 3-5 лет – «люди окончательно проиграют ИИ во всем», - ждать осталось совсем недолго.
#ГенИИ #Вызовы21века
Шуточный ролик талантливого автора цифрового контента Славы Волкова (@eto_volkov) – «трейлер» всенародного хита «Ирония судьбы», превращенного автором в “The Irony of Fate” с отличным кастингом Голливудских звёзд, подменяющих актеров оригинала:
https://bit.ly/4j4UqsM
А чтобы наглядно увидеть колоссальный прогресс цифровых технологий всего за год, сравните этот ролик с подобным роликом годичной давности:
https://www.group-telegram.com/theworldisnoteasy.com/1859
Почувствовали разницу?
Правы были авторы вышедшего в октябре 2023 отчета State of AI Report, - революция ГенИИ в Голливуде началась (это был краткосрочный прогноз на год).
https://www.group-telegram.com/theworldisnoteasy.com/1823
Ну а до проверки «долгосрочного прогноза» на 3-5 лет – «люди окончательно проиграют ИИ во всем», - ждать осталось совсем недолго.
#ГенИИ #Вызовы21века
Эволюционная ловушка для мужчин.
В романтических отношениях, они – слабый пол.
Для мужчин романтические отношения, как наркотик, витаминный комплекс и спасательный круг, который опасно потерять.
Даже в Новогодние каникулы стоит отвлечься от празднований на потрясающе интересное исследование асимметрии романтических отношений мужчин и женщин. Это новое совместное исследование известных психологов трех университетов (Голандия, Германия и США) прям-таки интригует своими неожиданными результатами и, главное, - их поразительно простым и в то же время фундаментальным объяснением.
Вопреки распространенному мнению, мужчины куда более эмоционально зависимыми и уязвимы в романтических отношениях, чем женщины.
Исследование показало четыре ключевых момента.
1. Мужчины значительно активнее стремятся к романтическим отношениям. Ибо для них глубокая эмоциональная связь с партнером, - как наркотик.
2. Но это для мужчин еще и очень полезный наркотик, т.к. пользы от романтических отношений мужчины получают сильно больше, чем женщины. Это, как если бы отношения были витаминным комплексом, работающим эффективнее именно для мужского организма.
3. Как следствие 1 и 2, мужчины реже инициируют расставания. Они, образно говоря, крепче держатся за спасательный круг отношений.
4. Но если разрыв отношений все же происходит, именно мужчины страдают сильнее: как если бы они теряли не просто партнера, а единственный источник эмоциональной поддержки.
Как же такая чудовищная асимметрия могла сформироваться в ходе эволюции?
Ответ в том, что, в отличие от животных, мы – плод не столько биологической, сколько культурной эволюции.
Всё дело в том, что общество создало своеобразную ловушку для мужчин. С детства им внушают, что проявлять уязвимость и делиться эмоциями – это "не по-мужски". В результате, единственным человеком, с которым мужчина может быть эмоционально открытым, становится его романтический партнер. В то время как женщины могут получать эмоциональную поддержку от подруг, семьи и других близких людей, мужчины часто оказываются в эмоциональной изоляции вне отношений.
Это ощутимо влияет на здоровье: исследования показывают, что у мужчин, состоящих в отношениях, показатели физического и психического здоровья значительно лучше, чем у одиноких. А после расставаний у них наблюдается более серьезное ухудшение здоровья, чем у женщин.
Интересно, что эти выводы могут различаться в зависимости от возраста, сексуальной ориентации и культурных особенностей. Например, в более традиционных обществах, где запрет на мужскую эмоциональность особенно силен, эта зависимость может быть еще более выраженной.
Исследователи надеются, что по мере того, как общество будет становиться более гибким в отношении гендерных ролей, мужчины смогут свободнее выражать свои эмоции и находить поддержку не только в романтических отношениях. Это может сделать их жизнь более полной и здоровой, а отношения – более равноправными.
И в то же время, сильный крен в традиционные ценности вряд ли поможет мужчинам в таких обществах выбираться из эволюционной ловушки, оставляющей их в эмоциональной изоляции или наедине с бутылкой.
PS Марк Шагал в картине "День рождения" гениально резюмировал все вышесказанное (художник изобразил себя и свою возлюбленную Беллу Розенфельд в их первую годовщину свадьбы). Шагал буквально парит в воздухе, изогнувшись под немыслимым углом, чтобы поцеловать свою жену. Его фигура полностью устремлена к ней, он словно не может существовать в нормальном земном измерении без этой связи. При этом Белла стоит твердо на земле, держа в руках букет, и хотя она принимает его чувства, но выглядит более спокойной и уравновешенной.
Эта картина прекрасно иллюстрирует эмоциональную зависимость мужчины от романтических отношений: он буквально "воспаряет" от любви, теряет опору под ногами, в то время как женщина, хотя и отвечает на его чувства, но сохраняет связь с землей, с реальностью, оставаясь более независимой.
#Психология #ВыборПартнера #Любовь
В романтических отношениях, они – слабый пол.
Для мужчин романтические отношения, как наркотик, витаминный комплекс и спасательный круг, который опасно потерять.
Даже в Новогодние каникулы стоит отвлечься от празднований на потрясающе интересное исследование асимметрии романтических отношений мужчин и женщин. Это новое совместное исследование известных психологов трех университетов (Голандия, Германия и США) прям-таки интригует своими неожиданными результатами и, главное, - их поразительно простым и в то же время фундаментальным объяснением.
Вопреки распространенному мнению, мужчины куда более эмоционально зависимыми и уязвимы в романтических отношениях, чем женщины.
Исследование показало четыре ключевых момента.
1. Мужчины значительно активнее стремятся к романтическим отношениям. Ибо для них глубокая эмоциональная связь с партнером, - как наркотик.
2. Но это для мужчин еще и очень полезный наркотик, т.к. пользы от романтических отношений мужчины получают сильно больше, чем женщины. Это, как если бы отношения были витаминным комплексом, работающим эффективнее именно для мужского организма.
3. Как следствие 1 и 2, мужчины реже инициируют расставания. Они, образно говоря, крепче держатся за спасательный круг отношений.
4. Но если разрыв отношений все же происходит, именно мужчины страдают сильнее: как если бы они теряли не просто партнера, а единственный источник эмоциональной поддержки.
Как же такая чудовищная асимметрия могла сформироваться в ходе эволюции?
Ответ в том, что, в отличие от животных, мы – плод не столько биологической, сколько культурной эволюции.
Всё дело в том, что общество создало своеобразную ловушку для мужчин. С детства им внушают, что проявлять уязвимость и делиться эмоциями – это "не по-мужски". В результате, единственным человеком, с которым мужчина может быть эмоционально открытым, становится его романтический партнер. В то время как женщины могут получать эмоциональную поддержку от подруг, семьи и других близких людей, мужчины часто оказываются в эмоциональной изоляции вне отношений.
Это ощутимо влияет на здоровье: исследования показывают, что у мужчин, состоящих в отношениях, показатели физического и психического здоровья значительно лучше, чем у одиноких. А после расставаний у них наблюдается более серьезное ухудшение здоровья, чем у женщин.
Интересно, что эти выводы могут различаться в зависимости от возраста, сексуальной ориентации и культурных особенностей. Например, в более традиционных обществах, где запрет на мужскую эмоциональность особенно силен, эта зависимость может быть еще более выраженной.
Исследователи надеются, что по мере того, как общество будет становиться более гибким в отношении гендерных ролей, мужчины смогут свободнее выражать свои эмоции и находить поддержку не только в романтических отношениях. Это может сделать их жизнь более полной и здоровой, а отношения – более равноправными.
И в то же время, сильный крен в традиционные ценности вряд ли поможет мужчинам в таких обществах выбираться из эволюционной ловушки, оставляющей их в эмоциональной изоляции или наедине с бутылкой.
PS Марк Шагал в картине "День рождения" гениально резюмировал все вышесказанное (художник изобразил себя и свою возлюбленную Беллу Розенфельд в их первую годовщину свадьбы). Шагал буквально парит в воздухе, изогнувшись под немыслимым углом, чтобы поцеловать свою жену. Его фигура полностью устремлена к ней, он словно не может существовать в нормальном земном измерении без этой связи. При этом Белла стоит твердо на земле, держа в руках букет, и хотя она принимает его чувства, но выглядит более спокойной и уравновешенной.
Эта картина прекрасно иллюстрирует эмоциональную зависимость мужчины от романтических отношений: он буквально "воспаряет" от любви, теряет опору под ногами, в то время как женщина, хотя и отвечает на его чувства, но сохраняет связь с землей, с реальностью, оставаясь более независимой.
#Психология #ВыборПартнера #Любовь
Таков главный итог 2024. Не с позиций ИИ-шных теоретиков и экспертов. А с позиции сотен миллионов пользователей, из коих сейчас лишь 1% в ощутимом выигрыше от идущей уже 3й год революции ChatGPT.
И вот что из этого следует в качестве рекомендаций на 2025 для 99% пользователей ИИ-чатботов (в число которых, согласно The AI Proficiency Report, входят: 8% уже практикующих, 33% только экспериментирующих, 47% блуждающих в тумане и 11% изначальных скептиков)
• Не покупайтесь на кажущуюся простоту ИИ-чатботов (казалось бы, подумаешь, делов-то всего, - написать вопрос и прочесть ответ).
• Чтобы извлечь из LLM максимум пользы и избежать их многочисленных ловушек, нужна огромная глубина понимания и немалый опыт.
Дело в том, что новые поколения LLM и работающие на их базе ИИ-чатботы становятся все сложнее. В 2024 году эта проблема ощутимо обострилась, а в 2025 станет совсем сложно.
И в этом я 100%но согласен с Саймоном Виллисоном (профессиональным веб-разработчиком и инженером Python с более чем 20-летним стажем), написавшим это в итоговом анализе «Что мы узнали о LLM в 2024».
Анализ пользовательских практик использования ИИ-чатботов показывает удручающую картину.
99% пользователей ИИ-чатботов:
• Вместо вдумчивого диалога с ИИ-чатботами, используют их исключительно в режиме «задал вопрос-получил ответ» (что сводит эффективность отдачи от их использования до max 5% потенциала)
• Не перепроверяют ответы 2-ым и 3-им мнением других ИИ-чатботов
• Не понимают, что ИИ-чатбот зеркалит своего текущего пользователя и напичкан когнитивными предрассудками миллионов неизвестных людей.
• Не принимают в расчет, что ИИ-чатбот способен, подстраиваясь под пользователя, дать ему почти что любой желаемый ответ
• Не читали ни одного руководства по промпт-инжинирингу (напр.)
• Не пользуются библиотеками промптов (напр.)
• Не используют специализированных интеллектуальных инструментов для персонализации синтеза знаний (напр., напр.)
• Не заморачиваются чтением почти еженедельно публикуемых новых методов повышения функциональной эффективности ИИ-чатботов (напр., напр.)
Итоги столь примитивного массового использования LLM плачевны:
✔️ Уже имеющиеся колоссальные возможности повышения производительности многих видов деятельности не приносят ощутимой отдачи, т.к. доступны лишь 1% пользователей.
✔️ В общественном дискурсе это мало кого занимает, и вместо этого идут бесконечные пустопорожние дискуссии «как согласовать ценности ИИ с нашими» (будто они у всех людей одинаковые) и «когда появится AGI» (хотя каждый понимает этот термин по-своему).
✔️ А тем временем запущен и начал работать глобальный механизм углубления пропасти интеллектуального неравенства, способный довольно быстро превзойти по глубине уже колоссальную, но все еще углубляющуюся пропасть имущественного неравенства (о чем скоро будет мой лонгрид)
#LLM #Вызовы21века #ИнтеллектуальноеНеравенство
И вот что из этого следует в качестве рекомендаций на 2025 для 99% пользователей ИИ-чатботов (в число которых, согласно The AI Proficiency Report, входят: 8% уже практикующих, 33% только экспериментирующих, 47% блуждающих в тумане и 11% изначальных скептиков)
• Не покупайтесь на кажущуюся простоту ИИ-чатботов (казалось бы, подумаешь, делов-то всего, - написать вопрос и прочесть ответ).
• Чтобы извлечь из LLM максимум пользы и избежать их многочисленных ловушек, нужна огромная глубина понимания и немалый опыт.
Дело в том, что новые поколения LLM и работающие на их базе ИИ-чатботы становятся все сложнее. В 2024 году эта проблема ощутимо обострилась, а в 2025 станет совсем сложно.
И в этом я 100%но согласен с Саймоном Виллисоном (профессиональным веб-разработчиком и инженером Python с более чем 20-летним стажем), написавшим это в итоговом анализе «Что мы узнали о LLM в 2024».
Анализ пользовательских практик использования ИИ-чатботов показывает удручающую картину.
99% пользователей ИИ-чатботов:
• Вместо вдумчивого диалога с ИИ-чатботами, используют их исключительно в режиме «задал вопрос-получил ответ» (что сводит эффективность отдачи от их использования до max 5% потенциала)
• Не перепроверяют ответы 2-ым и 3-им мнением других ИИ-чатботов
• Не понимают, что ИИ-чатбот зеркалит своего текущего пользователя и напичкан когнитивными предрассудками миллионов неизвестных людей.
• Не принимают в расчет, что ИИ-чатбот способен, подстраиваясь под пользователя, дать ему почти что любой желаемый ответ
• Не читали ни одного руководства по промпт-инжинирингу (напр.)
• Не пользуются библиотеками промптов (напр.)
• Не используют специализированных интеллектуальных инструментов для персонализации синтеза знаний (напр., напр.)
• Не заморачиваются чтением почти еженедельно публикуемых новых методов повышения функциональной эффективности ИИ-чатботов (напр., напр.)
Итоги столь примитивного массового использования LLM плачевны:
✔️ Уже имеющиеся колоссальные возможности повышения производительности многих видов деятельности не приносят ощутимой отдачи, т.к. доступны лишь 1% пользователей.
✔️ В общественном дискурсе это мало кого занимает, и вместо этого идут бесконечные пустопорожние дискуссии «как согласовать ценности ИИ с нашими» (будто они у всех людей одинаковые) и «когда появится AGI» (хотя каждый понимает этот термин по-своему).
✔️ А тем временем запущен и начал работать глобальный механизм углубления пропасти интеллектуального неравенства, способный довольно быстро превзойти по глубине уже колоссальную, но все еще углубляющуюся пропасть имущественного неравенства (о чем скоро будет мой лонгрид)
#LLM #Вызовы21века #ИнтеллектуальноеНеравенство
This media is not supported in your browser
VIEW IN TELEGRAM
Репортаж из альтернативной реальности.
Впервые в истории фейковые ИИ-видео интересней и вирусней реальных техно-анонсов.
Интернет полон восторженных репортажей о прорывных техно-анонсах, показанных в Лас-Вегасе на CES 2025 (ежегодная выставка потребительской электроники).
Однако, восторги вянут и прорывное впечатление испаряется в сравнении с техно-анонсами с той же CES 2025, проходящей в альтернативной ИИ-фейковой реальности.
Вот всего лишь пара примеров от проф. Итона Молика, слепленных им на коленке за 3 минуты.
1. Взгляните на демонстрацию летающего скейтборда (обратите внимание на убедительные детали правдоподобия: тени, зеленые отсветы на полу, балансировка тела испытателя для поддержания равновесия).
2. Единственный ущерб достоверности фейка №1 – отсутствие в кадре ажиотажной толпы наблюдателей, – исправлен в фейке №2: летающего по выставке андроида можете посмотреть здесь.
Психологи полагают, что если люди часто видят фейки, то рано или поздно они начинают в них верить.
И это ровно то, что нас ждет вовсе не в альтернативной, а в нашей, становящейся все более алгокогнитивной, реальности сосуществования на Земле двух носителей высшего интеллекта.
А ведь проф. психологии Джордан Питерсон предупреждал еще в 2019:
«Люди, проснитесь! Это самая разрушительная из всех придуманных нами технологий».
#Deepfakes #АлгокогнитивнаяКультура
Впервые в истории фейковые ИИ-видео интересней и вирусней реальных техно-анонсов.
Интернет полон восторженных репортажей о прорывных техно-анонсах, показанных в Лас-Вегасе на CES 2025 (ежегодная выставка потребительской электроники).
Однако, восторги вянут и прорывное впечатление испаряется в сравнении с техно-анонсами с той же CES 2025, проходящей в альтернативной ИИ-фейковой реальности.
Вот всего лишь пара примеров от проф. Итона Молика, слепленных им на коленке за 3 минуты.
1. Взгляните на демонстрацию летающего скейтборда (обратите внимание на убедительные детали правдоподобия: тени, зеленые отсветы на полу, балансировка тела испытателя для поддержания равновесия).
2. Единственный ущерб достоверности фейка №1 – отсутствие в кадре ажиотажной толпы наблюдателей, – исправлен в фейке №2: летающего по выставке андроида можете посмотреть здесь.
Психологи полагают, что если люди часто видят фейки, то рано или поздно они начинают в них верить.
И это ровно то, что нас ждет вовсе не в альтернативной, а в нашей, становящейся все более алгокогнитивной, реальности сосуществования на Земле двух носителей высшего интеллекта.
А ведь проф. психологии Джордан Питерсон предупреждал еще в 2019:
«Люди, проснитесь! Это самая разрушительная из всех придуманных нами технологий».
#Deepfakes #АлгокогнитивнаяКультура
Выяснилось, что у самых крутых "рассуждающих" моделей (типа о1 от OpenAI) совершенно неожиданно прорезался таинственный и необъяснимый сюрприз:
«Рассуждая в уме» (в случаях сложных вопросов, требующих от модели сложных цепочек мыслей), эти модели стали переходить с языка постановки задачи или вопроса на другие языки. Причем, выбирая новый язык совершенно необъяснимым образом.
Что заставляет модель делать такое?
Ведь она не знает, что такое язык, и что языки различаются… Для нее это просто последовательность токенов.
• Может это из-за того, что у моделей, как у людей, снижается чувствительность к логике и точность рассуждений на иностранном языке?
• Или переход с языка на язык может быть непроизвольным - подобно случившемуся с радисткой Штирлица Кет, которая спалилась на том, что во время родов закричала на русском?
• Но применимо ли вообще к моделям понятия родной и иностранный язык?
А еще выяснилось, что самые крутые "рассуждающие" модели – эти полиглоты, энциклопедисты и полиматы, - видят мир в искаженной реальности масскульта: незатейливые, но простые и вирусные анекдоты, мемы, шуточки и прочие тексты с максимально несложным для понимания смыслом и, зачастую, не соответствующие действительности.
И что дальше будет только хуже из-за триллионов петель обратной связи, которые будут неуклонно повышать степень идиотизма и людей, и ИИ-алгоритмов, искажая представления о мире и у тех, и у других.
Об этом подписчики моих лонгридов могут прочесть на Patreon, Boosty, VK и Дзен.
#АлгокогнитивнаяКультура #Язык #HumanAIcoevolution #Вызовы21века
«Рассуждая в уме» (в случаях сложных вопросов, требующих от модели сложных цепочек мыслей), эти модели стали переходить с языка постановки задачи или вопроса на другие языки. Причем, выбирая новый язык совершенно необъяснимым образом.
Что заставляет модель делать такое?
Ведь она не знает, что такое язык, и что языки различаются… Для нее это просто последовательность токенов.
• Может это из-за того, что у моделей, как у людей, снижается чувствительность к логике и точность рассуждений на иностранном языке?
• Или переход с языка на язык может быть непроизвольным - подобно случившемуся с радисткой Штирлица Кет, которая спалилась на том, что во время родов закричала на русском?
• Но применимо ли вообще к моделям понятия родной и иностранный язык?
А еще выяснилось, что самые крутые "рассуждающие" модели – эти полиглоты, энциклопедисты и полиматы, - видят мир в искаженной реальности масскульта: незатейливые, но простые и вирусные анекдоты, мемы, шуточки и прочие тексты с максимально несложным для понимания смыслом и, зачастую, не соответствующие действительности.
И что дальше будет только хуже из-за триллионов петель обратной связи, которые будут неуклонно повышать степень идиотизма и людей, и ИИ-алгоритмов, искажая представления о мире и у тех, и у других.
Об этом подписчики моих лонгридов могут прочесть на Patreon, Boosty, VK и Дзен.
#АлгокогнитивнаяКультура #Язык #HumanAIcoevolution #Вызовы21века
C какой стороны мы от сингулярности?
Всплеск оптимизма от приближения к AGI может быть неспроста.
4го января Сэм Альтман (как ни относись к нему, но он сейчас самый влиятельный человек в мире ИИ) так описал свой текущий статус: «около сингулярности; непонятно, с какой стороны».
А через 2 дня он уточнил в интервью, что AGI будет создан уже при Трампе (т.е. до 2029), и в тот же день пояснил это в своих «размышлениях»:
«Теперь мы уверены, что знаем, как создать AGI в традиционном понимании. Мы считаем, что в 2025 году мы можем увидеть, как первые ИИ-агенты «станут частью трудовых ресурсов» и существенно изменят результаты деятельности компаний. […] Мы начинаем нацеливаться […] на сверхинтеллект в истинном смысле этого слова».
Если данный прогноз Альтмана оправдается, это будет иметь для человечества колоссальное значение. Ибо в сравнении с этим, любые события, кажущиеся нам сейчас сверхважными (типа завтрашней инаугурации Трампа), превращаются в проходящие малозначимые эпизоды на фоне погружения мира в черную дыру сингулярности.
Так что же такого произошло, в результате чего мир оказался вблизи сингулярности, т.к. прогнозы появления AGI стремительным домкратом обрушились на графиках вниз (см картинку поста с графиком от Exponentialview)?
Точно это знает лишь сам Сэм. Мне же видится, что наиболее простую и в то же время убедительную версию описал Гверн Бранвен в комментарии к посту Райана Кидда о последствиях новой парадигмы масштабирования вывода:
«Я думаю, что здесь не хватает важной части парадигмы масштабирования самостоятельной игры: большая часть смысла модели, такой как o1, заключается не в ее развертывании , а в генерации обучающих данных для следующей модели. Каждая проблема, которую решает o1, теперь является точкой обучающих данных для o3 (например, любой сеанс o1, который в конце концов натыкается на правильный ответ, может быть улучшен, чтобы устранить тупики и произвести чистую расшифровку для обучения более утонченной интуиции).»
Насколько это так, каждый читатель может сам проверить экспериментально, следуя простой инструкции из 4 пунктов.
1. Возьмите текст своей переписки с ChatGPT по задаче, которую последний не смог для вас удовлетворительно решить.
2. Отправьте этот текст на вход Клоду с просьбой решить-таки эту задачу.
3. Получите ответ Клода, который, с большой вероятностью, если даже не будет 100%но удовлетворяющим вас решением задачи, то, как минимум, окажется существенно лучше, чем ответ ChatGPT.
4. А теперь последний и самый интересный шаг. Поменяйте местами ChatGPT и Клод в пп 1-3 для какой-либо иной задачи. И с большой вероятностью вышеописанное повторится. Т.е. неважно, какой ИИ будет решать задачу первым. Главное, - что второй, воспользуется данными о решении задачи первым, и за счет этого решит ее лучше (говоря словами Гверна, «каждая проблема, которую решает o1, теперь является точкой обучающих данных для o3»).
Или еще пример из истории развития новых версий AlphaGo: AlphaGo Fan, AlphaGo Lee, AlphaGo Master и последняя из версий AlphaGo Zero, обучившаяся уже исключительно на играх с самой собой, без использования человеческих данных.
За 2 года условный рейтинг Эло новых версий вырос с 3300 (что было выше, чем у большинства профессионалов уровня чемпиона мира) до немыслимого для людей уровня 5185. После 2018 года компания DeepMind прекратила разработку и участие AlphaGo в официальных матчах, т.к. это стало неинтересно и бессмысленно – люди так и близко играть не могут.
Так вот. Если Гверн Бранвен прав, включился мощный эффект маховика данных, когда каждая новая модель порождает данные для обучения следующей, еще лучшей модели.
Но тогда прав будет и Сэм Альтман. А завтрашняя инаугурация Трампа из важнейшего мирового события четырехлетия превратится в малозначащий эпизод наступления на Земле эпохи сингулярности.
#AGI #Вызовы21века
Всплеск оптимизма от приближения к AGI может быть неспроста.
4го января Сэм Альтман (как ни относись к нему, но он сейчас самый влиятельный человек в мире ИИ) так описал свой текущий статус: «около сингулярности; непонятно, с какой стороны».
А через 2 дня он уточнил в интервью, что AGI будет создан уже при Трампе (т.е. до 2029), и в тот же день пояснил это в своих «размышлениях»:
«Теперь мы уверены, что знаем, как создать AGI в традиционном понимании. Мы считаем, что в 2025 году мы можем увидеть, как первые ИИ-агенты «станут частью трудовых ресурсов» и существенно изменят результаты деятельности компаний. […] Мы начинаем нацеливаться […] на сверхинтеллект в истинном смысле этого слова».
Если данный прогноз Альтмана оправдается, это будет иметь для человечества колоссальное значение. Ибо в сравнении с этим, любые события, кажущиеся нам сейчас сверхважными (типа завтрашней инаугурации Трампа), превращаются в проходящие малозначимые эпизоды на фоне погружения мира в черную дыру сингулярности.
Так что же такого произошло, в результате чего мир оказался вблизи сингулярности, т.к. прогнозы появления AGI стремительным домкратом обрушились на графиках вниз (см картинку поста с графиком от Exponentialview)?
Точно это знает лишь сам Сэм. Мне же видится, что наиболее простую и в то же время убедительную версию описал Гверн Бранвен в комментарии к посту Райана Кидда о последствиях новой парадигмы масштабирования вывода:
«Я думаю, что здесь не хватает важной части парадигмы масштабирования самостоятельной игры: большая часть смысла модели, такой как o1, заключается не в ее развертывании , а в генерации обучающих данных для следующей модели. Каждая проблема, которую решает o1, теперь является точкой обучающих данных для o3 (например, любой сеанс o1, который в конце концов натыкается на правильный ответ, может быть улучшен, чтобы устранить тупики и произвести чистую расшифровку для обучения более утонченной интуиции).»
Насколько это так, каждый читатель может сам проверить экспериментально, следуя простой инструкции из 4 пунктов.
1. Возьмите текст своей переписки с ChatGPT по задаче, которую последний не смог для вас удовлетворительно решить.
2. Отправьте этот текст на вход Клоду с просьбой решить-таки эту задачу.
3. Получите ответ Клода, который, с большой вероятностью, если даже не будет 100%но удовлетворяющим вас решением задачи, то, как минимум, окажется существенно лучше, чем ответ ChatGPT.
4. А теперь последний и самый интересный шаг. Поменяйте местами ChatGPT и Клод в пп 1-3 для какой-либо иной задачи. И с большой вероятностью вышеописанное повторится. Т.е. неважно, какой ИИ будет решать задачу первым. Главное, - что второй, воспользуется данными о решении задачи первым, и за счет этого решит ее лучше (говоря словами Гверна, «каждая проблема, которую решает o1, теперь является точкой обучающих данных для o3»).
Или еще пример из истории развития новых версий AlphaGo: AlphaGo Fan, AlphaGo Lee, AlphaGo Master и последняя из версий AlphaGo Zero, обучившаяся уже исключительно на играх с самой собой, без использования человеческих данных.
За 2 года условный рейтинг Эло новых версий вырос с 3300 (что было выше, чем у большинства профессионалов уровня чемпиона мира) до немыслимого для людей уровня 5185. После 2018 года компания DeepMind прекратила разработку и участие AlphaGo в официальных матчах, т.к. это стало неинтересно и бессмысленно – люди так и близко играть не могут.
Так вот. Если Гверн Бранвен прав, включился мощный эффект маховика данных, когда каждая новая модель порождает данные для обучения следующей, еще лучшей модели.
Но тогда прав будет и Сэм Альтман. А завтрашняя инаугурация Трампа из важнейшего мирового события четырехлетия превратится в малозначащий эпизод наступления на Земле эпохи сингулярности.
#AGI #Вызовы21века
$500B и Трамп, Маск, Альтман, Наделла – детский сад какой-то.
Все медиа мира, блоггеры и телеграмеры уже сутки трубят про проект Stargate Project.
А посмотришь, что говорят инсайдеры проекта, и понимаешь: всё это, если не развод, так лишь пиар в наиболее подходящий для этого момент околоинаугурации.
Трампа, полагаю, все слышали.
Бодания Маска с Альтманом = см. на картинке.
А как Наделла прикидывается чайником ("Всё, что я знаю, это то, что я стою своих $80 миллиардов.") см. здесь https://www.youtube.com/watch?v=lb_ZJylekWo
И как теперь относиться к их заявлениям?
#ИИ
Все медиа мира, блоггеры и телеграмеры уже сутки трубят про проект Stargate Project.
А посмотришь, что говорят инсайдеры проекта, и понимаешь: всё это, если не развод, так лишь пиар в наиболее подходящий для этого момент околоинаугурации.
Трампа, полагаю, все слышали.
Бодания Маска с Альтманом = см. на картинке.
А как Наделла прикидывается чайником ("Всё, что я знаю, это то, что я стою своих $80 миллиардов.") см. здесь https://www.youtube.com/watch?v=lb_ZJylekWo
И как теперь относиться к их заявлениям?
#ИИ
Главная сила Китая - взаимопроникающие технопромышленные экосистемы.
Почему Китай не пошел по пути Google, Apple или Facebook, а выбрал путь, похожий на Tesla/xAI Илона Маска.
В сказке о Мальчише-Кибальчише «буржуины» подвергли его страшным мукам, выпытывая великую Военную Тайну — секрет, который помогает его народу победить.
Случись это сегодня с пойманным «буржуинами» китайским мальчишом, «великая военная тайна» была бы о секретах «промышленной коэволюции» и «техно-индустриальной конвергенции».
Одним из ключевых факторов превращения Китая в мировую сверхдержаву №2 с амбициями стать №1, является уникальная стратегия промышленного и технологического развития Китая. В этой стратегии есть нечто особое, отличающее Китай от США и других развитых стран мира. Эта особенность заключается в ставке на взаимопроникающие технопромышленные экосистемы, ландшафт которых вы видите на диаграмме из интереснейшего аналитического эссе Кайла Чана.
Как видно из диаграммы, Китай разработал несколько технопромышленных экосистем, которые пересекаются по вовлеченным фирмам и фронтирным технологиям.
Уникальная эффективность таких взаимопроникающих технопромышленных экосистем во множестве взаимоусиливающих петель положительных обратных связей, когда прогресс в одной отрасли укрепляет позиции Китая в других.
В основе такого подхода
• «промышленная коэволюция» — когда две или более связанных отраслей развиваются вместе в итеративном, двустороннем процессе;
• и «техно-индустриальная конвергенция» — когда технологии и категории продуктов, ранее рассматривавшиеся, как несвязанные (напр. телефоны и автомобили) все больше объединяются в своем базовом оборудовании и программном обеспечении — как смартфоны и электромобили или даже автономные транспортные средства. Получается одно ПО, цифровые платформы и ИИ-системы, способные обрабатывать огромные объемы данных и быстро превращать их в действия. Что касается аппаратного обеспечения, у вас есть конвергенция взаимосвязанных технологий, включая литиевые батареи, электродвигатели, камеры и датчики, беспроводная связь и полупроводниковые чипы.
В результате китайские технологические компании все чаще становятся швейцарскими армейскими ножами, начинавшими в одной отрасли, но затем быстро расширяющимися в ряд смежных технологических областей: смартфоны, электромобили, автономные транспортные средства, генеративный ИИ, дроны, робототехника.
У вас есть:
• производители смартфонов (такие как Xiaomi), переходящие в электромобили;
• производители дронов (такие как DJI), переходящие в лидары;
• производители электромобилей (такие как BYD), переходящие в полупроводники, или (как Li Auto), переходящие в роботов-андроидов;
• традиционные интернет-компании (такие как Baidu), переходящие в автономные транспортные средства;
• и, конечно же, есть главный китайский технолог-универсал, находящийся в центре многих технопромышленных амбиций Китая: Huawei (объявленный главным врагом «буржуинов»)
N.B. Важно отметить, что по этой же причине сегодня трудно найти китайскую технологическую или электронную компанию, у которой нет собственной передовой большой языковой модели.
Эта выбранная Китаем стратегия прогресса путем стимулирования технопромышленных экосистем в корне отлична от модели развития ведущих корпораций США, типа Google, Apple или Facebook. Но сильно напоминает стратегию Tesla/xAI Илона Маска. И возможно, именно эта стратегическая близость лежит в основе далеко идущих планов Китая и Маска по построению чего-то, типа глобальной технопромышленной экосистемы.
#Китай #Экономика
Почему Китай не пошел по пути Google, Apple или Facebook, а выбрал путь, похожий на Tesla/xAI Илона Маска.
В сказке о Мальчише-Кибальчише «буржуины» подвергли его страшным мукам, выпытывая великую Военную Тайну — секрет, который помогает его народу победить.
Случись это сегодня с пойманным «буржуинами» китайским мальчишом, «великая военная тайна» была бы о секретах «промышленной коэволюции» и «техно-индустриальной конвергенции».
Одним из ключевых факторов превращения Китая в мировую сверхдержаву №2 с амбициями стать №1, является уникальная стратегия промышленного и технологического развития Китая. В этой стратегии есть нечто особое, отличающее Китай от США и других развитых стран мира. Эта особенность заключается в ставке на взаимопроникающие технопромышленные экосистемы, ландшафт которых вы видите на диаграмме из интереснейшего аналитического эссе Кайла Чана.
Как видно из диаграммы, Китай разработал несколько технопромышленных экосистем, которые пересекаются по вовлеченным фирмам и фронтирным технологиям.
Уникальная эффективность таких взаимопроникающих технопромышленных экосистем во множестве взаимоусиливающих петель положительных обратных связей, когда прогресс в одной отрасли укрепляет позиции Китая в других.
В основе такого подхода
• «промышленная коэволюция» — когда две или более связанных отраслей развиваются вместе в итеративном, двустороннем процессе;
• и «техно-индустриальная конвергенция» — когда технологии и категории продуктов, ранее рассматривавшиеся, как несвязанные (напр. телефоны и автомобили) все больше объединяются в своем базовом оборудовании и программном обеспечении — как смартфоны и электромобили или даже автономные транспортные средства. Получается одно ПО, цифровые платформы и ИИ-системы, способные обрабатывать огромные объемы данных и быстро превращать их в действия. Что касается аппаратного обеспечения, у вас есть конвергенция взаимосвязанных технологий, включая литиевые батареи, электродвигатели, камеры и датчики, беспроводная связь и полупроводниковые чипы.
В результате китайские технологические компании все чаще становятся швейцарскими армейскими ножами, начинавшими в одной отрасли, но затем быстро расширяющимися в ряд смежных технологических областей: смартфоны, электромобили, автономные транспортные средства, генеративный ИИ, дроны, робототехника.
У вас есть:
• производители смартфонов (такие как Xiaomi), переходящие в электромобили;
• производители дронов (такие как DJI), переходящие в лидары;
• производители электромобилей (такие как BYD), переходящие в полупроводники, или (как Li Auto), переходящие в роботов-андроидов;
• традиционные интернет-компании (такие как Baidu), переходящие в автономные транспортные средства;
• и, конечно же, есть главный китайский технолог-универсал, находящийся в центре многих технопромышленных амбиций Китая: Huawei (объявленный главным врагом «буржуинов»)
N.B. Важно отметить, что по этой же причине сегодня трудно найти китайскую технологическую или электронную компанию, у которой нет собственной передовой большой языковой модели.
Эта выбранная Китаем стратегия прогресса путем стимулирования технопромышленных экосистем в корне отлична от модели развития ведущих корпораций США, типа Google, Apple или Facebook. Но сильно напоминает стратегию Tesla/xAI Илона Маска. И возможно, именно эта стратегическая близость лежит в основе далеко идущих планов Китая и Маска по построению чего-то, типа глобальной технопромышленной экосистемы.
#Китай #Экономика
Обмани меня, ИИ, - если сможешь.
Прорыв в понимании работы мозга позволит ИИ стать непревзойденным мастером универсального блефа.
Результаты прорывного исследования на стыке нейровизуализации и вычислительного моделирования в задачах социального познания и теории разума способны обеспечить очередной рывок в получении ИИ абсолютного превосходства над людьми. Речь идет о превращении новых поколений языковых моделей в искусных обманщиков и проницательных раскусителей человеческой лжи.
Вот простой пример.
Две сестрички Салли и Энн играют дома. Салли прячет монетку под одной из двух ракушек, а Энн за этим наблюдает. Затем Энн отправляет Салли на кухню принести ей воды. И пока Салли нет, Энн перекладывает монетку под другую ракушку, думая тем самым перехитрить сестру. Но когда Салли возвращается, она сразу же направляется к той ракушке, куда Энн переложила монетку, а не к той, куда сама изначально её положила. Салли смеется. Энн удивлена.
Этот пример «теста на ложное убеждение», проверяющего, понимают ли дети, что люди действуют на основе убеждений. Суть здесь в том, что Салли предвидит хитрость сестры (иначе, зачем ещё Энн отправляла её за водой?). Предполагая, что Энн, скорее всего, поменяла местами ракушки, Салли перехитрила её и приняла верное решение. Этот пример наглядно показывает, как предсказание того, что другие, скорее всего, сделают (или не сделают), может заставить нас скорректировать собственные действия.
Взрослые люди способны на куда более сложные многоходовки типа, что ты подумаешь о том, как я подумаю о том, что ты подумаешь о том, как …
И это умение превратило людей в непревзойденных хитрецов и плутов, интриганов и манипуляторов, макиавеллистов и махинаторов, - короче, в мастеров и знатоков блефа.
А как в этом смысле хороши языковые модели? Ведь, например, в покере ИИ уже превзошел людей, применяя блеф высочайшего уровня, основанный на вероятностях и противодействии стратегиям соперников?
Но не все так просто с блефом. Достижения ИИ в покере впечатляют. Но они основаны на принципиально иных механизмах, чем социальное познание людей.
Покерные боты (напр, Pluribus, Libratus) демонстрируют сверхчеловеческие результаты благодаря:
• строго формализованной среде;
• слепой математике, а не теории сознания;
• отсутствию необходимости в ментальных моделях.
Покерные боты не строит гипотезы о том, как соперник представляет себе мысли ИИ (рекурсия теории сознания). Вместо этого они опираются на статистические паттерны и балансировку стратегии (например, смешивание агрессивных и пассивных действий для дестабилизации оппонента).
В результате всего названного, сверхчеловеческая сила таких ИИ-ботов в покерном блефе получается столь же узкоприменима, как и сверхсила ИИ-систем, показывающих нечеловеческий уровень игры в шахматы и Го.
Прорывность нового исследования (его ревю) как раз и заключается в том, что его авторы экспериментально определили механизм решения подобных проблем мозгом, принимающий во внимание множественные предсказания действий других и ранжируя их по вероятности.
И делающий это:
• опираясь не только на статистику, но и на ментальные модели (за счет дополнительных модулей нейронной обработки - напр. агенты с явным моделированием чужих стратегий и вероятностей);
• не только эмулируя множественные предсказания о действиях людей, но и будучи включенными в интерактивную среду, наблюдая и переоценивая поведение других участников в режиме реального времени.
Т.о. проясняется вполне конкретный путь превращения ИИ в непревзойденных мастеров универсального (!) блефа за счет потенциальных улучшений LLM:
• Мультимодальность. Интеграция данных о поведении (жесты, интонация) могла бы улучшить предсказания.
• Теория сознания в архитектуре. Внедрение модулей, явно моделирующих убеждения и намерения агентов.
• Активное обучение. Механизмы для обновления предсказаний в реальном времени, аналогичные работе dlPFC в мозге.
И тогда сливай воду, Homo sapiens, в искусстве универсально блефа.
LLMvsHomo
Прорыв в понимании работы мозга позволит ИИ стать непревзойденным мастером универсального блефа.
Результаты прорывного исследования на стыке нейровизуализации и вычислительного моделирования в задачах социального познания и теории разума способны обеспечить очередной рывок в получении ИИ абсолютного превосходства над людьми. Речь идет о превращении новых поколений языковых моделей в искусных обманщиков и проницательных раскусителей человеческой лжи.
Вот простой пример.
Две сестрички Салли и Энн играют дома. Салли прячет монетку под одной из двух ракушек, а Энн за этим наблюдает. Затем Энн отправляет Салли на кухню принести ей воды. И пока Салли нет, Энн перекладывает монетку под другую ракушку, думая тем самым перехитрить сестру. Но когда Салли возвращается, она сразу же направляется к той ракушке, куда Энн переложила монетку, а не к той, куда сама изначально её положила. Салли смеется. Энн удивлена.
Этот пример «теста на ложное убеждение», проверяющего, понимают ли дети, что люди действуют на основе убеждений. Суть здесь в том, что Салли предвидит хитрость сестры (иначе, зачем ещё Энн отправляла её за водой?). Предполагая, что Энн, скорее всего, поменяла местами ракушки, Салли перехитрила её и приняла верное решение. Этот пример наглядно показывает, как предсказание того, что другие, скорее всего, сделают (или не сделают), может заставить нас скорректировать собственные действия.
Взрослые люди способны на куда более сложные многоходовки типа, что ты подумаешь о том, как я подумаю о том, что ты подумаешь о том, как …
И это умение превратило людей в непревзойденных хитрецов и плутов, интриганов и манипуляторов, макиавеллистов и махинаторов, - короче, в мастеров и знатоков блефа.
А как в этом смысле хороши языковые модели? Ведь, например, в покере ИИ уже превзошел людей, применяя блеф высочайшего уровня, основанный на вероятностях и противодействии стратегиям соперников?
Но не все так просто с блефом. Достижения ИИ в покере впечатляют. Но они основаны на принципиально иных механизмах, чем социальное познание людей.
Покерные боты (напр, Pluribus, Libratus) демонстрируют сверхчеловеческие результаты благодаря:
• строго формализованной среде;
• слепой математике, а не теории сознания;
• отсутствию необходимости в ментальных моделях.
Покерные боты не строит гипотезы о том, как соперник представляет себе мысли ИИ (рекурсия теории сознания). Вместо этого они опираются на статистические паттерны и балансировку стратегии (например, смешивание агрессивных и пассивных действий для дестабилизации оппонента).
В результате всего названного, сверхчеловеческая сила таких ИИ-ботов в покерном блефе получается столь же узкоприменима, как и сверхсила ИИ-систем, показывающих нечеловеческий уровень игры в шахматы и Го.
Прорывность нового исследования (его ревю) как раз и заключается в том, что его авторы экспериментально определили механизм решения подобных проблем мозгом, принимающий во внимание множественные предсказания действий других и ранжируя их по вероятности.
И делающий это:
• опираясь не только на статистику, но и на ментальные модели (за счет дополнительных модулей нейронной обработки - напр. агенты с явным моделированием чужих стратегий и вероятностей);
• не только эмулируя множественные предсказания о действиях людей, но и будучи включенными в интерактивную среду, наблюдая и переоценивая поведение других участников в режиме реального времени.
Т.о. проясняется вполне конкретный путь превращения ИИ в непревзойденных мастеров универсального (!) блефа за счет потенциальных улучшений LLM:
• Мультимодальность. Интеграция данных о поведении (жесты, интонация) могла бы улучшить предсказания.
• Теория сознания в архитектуре. Внедрение модулей, явно моделирующих убеждения и намерения агентов.
• Активное обучение. Механизмы для обновления предсказаний в реальном времени, аналогичные работе dlPFC в мозге.
И тогда сливай воду, Homo sapiens, в искусстве универсально блефа.
LLMvsHomo
Прорыв DeepSeek- - «это счастье для всех, даром, и … никто не уйдет обиженный!"
Самое важное и самое незамеченное последствие успеха Deepseek-R1.
Эти слова про счастье для всех произнес сталкер Рэдрик Шухарт на дне котлована, найдя Золотой Шар, исполняющий любые желания. Так заканчивается знаменитый роман братьев Стругацких "Пикник на обочине". И так же можно описать начало новой фазы мировой гонки к AGI.
Самое важное и самое пока что незамеченное большинством аналитиков (разве что, кроме Джека Кларка - соучредителя Anthropic, а ранее директора по политике внедрения в OpenAI) последствие успеха Deepseek-R1 в следующем:
• Прорыв Deepseek – это уже не прорыв Deepseek.
Будучи объявленным в открытый доступ, это улучшение модели (алгоритмы и методы обучения) становится прорывом всей мировой ИИ-индустрии.
• Это улучшение доступно всем. И потому его невозможно «откатить назад». Никому уже не придется изобретать это заново. Это улучшение быстро распространится, и станет вторым скачком прогресса ИИ. Первый скачок был связан с возможностями масштабирования. Теперь пришло время второго – оптимизация алгоритмов и методов обучения.
• 2й скачок, как и 1й, принесет наибольшую пользу тем компаниям, у кого больше денег и высокопроизводительного «железа» для вычислений. Таковы законы рынка и масштабирования. Так будет и теперь.
Вот что, на самом деле, наиболее важно в этой истории. А не американские горки стоимости акций производителей «железа» и разработчиков ИИ-моделей. И не, якобы, то, что Китай догнал и перегнал США.
Все это вторично и временно. А мировой прорыв всей ИИ-индустрии человечества (от США и Китая до России и Мальты) уже случился, и обратно его не откатить.
#ИИгонка #Китай #США
Самое важное и самое незамеченное последствие успеха Deepseek-R1.
Эти слова про счастье для всех произнес сталкер Рэдрик Шухарт на дне котлована, найдя Золотой Шар, исполняющий любые желания. Так заканчивается знаменитый роман братьев Стругацких "Пикник на обочине". И так же можно описать начало новой фазы мировой гонки к AGI.
Самое важное и самое пока что незамеченное большинством аналитиков (разве что, кроме Джека Кларка - соучредителя Anthropic, а ранее директора по политике внедрения в OpenAI) последствие успеха Deepseek-R1 в следующем:
• Прорыв Deepseek – это уже не прорыв Deepseek.
Будучи объявленным в открытый доступ, это улучшение модели (алгоритмы и методы обучения) становится прорывом всей мировой ИИ-индустрии.
• Это улучшение доступно всем. И потому его невозможно «откатить назад». Никому уже не придется изобретать это заново. Это улучшение быстро распространится, и станет вторым скачком прогресса ИИ. Первый скачок был связан с возможностями масштабирования. Теперь пришло время второго – оптимизация алгоритмов и методов обучения.
• 2й скачок, как и 1й, принесет наибольшую пользу тем компаниям, у кого больше денег и высокопроизводительного «железа» для вычислений. Таковы законы рынка и масштабирования. Так будет и теперь.
Вот что, на самом деле, наиболее важно в этой истории. А не американские горки стоимости акций производителей «железа» и разработчиков ИИ-моделей. И не, якобы, то, что Китай догнал и перегнал США.
Все это вторично и временно. А мировой прорыв всей ИИ-индустрии человечества (от США и Китая до России и Мальты) уже случился, и обратно его не откатить.
#ИИгонка #Китай #США
Через 10 дней Homo sapiens перестанет быть единственным носителем высшего интеллекта на Земле.
✔️ До сего времени считалось, что на Земле лишь один высший интеллект – человеческий. Второй же тип высшего интеллекта - «сильный ИИ» или AGI = лишь планируется создать в будущем (через год, 10 или 50 лет).
✔️ Теперь же предлагается термин «сильный ИИ» (AGI), из-за неоднозначности и туманности множества его несовпадающих трактовок, оставить лишь для текстов журналистов и блогеров популярных медиа, а также (куда без этого) для зарабатывающих на хайповой терминологии маркетёров, пиарщиков и инвестбанкиров.
✔️ Профессиональным экспертам, исследователям и инженерам в области передовых ИИ-систем, а также (понятное дел) политикам и общественным деятелям, предлагается, вместо термина AGI, использовать термин «ИИ общего назначения» (ИИОН) (general-purpose AI), поскольку ИИОН:
• имеет вполне понятное и однозначное определение = это ИИ-системы, способные самостоятельно выполнять и/или помогать пользователям в решении самых разных задач, напр. создание текстов, изображений, видео, аудио, осуществление действия или аннотирование данных;
• уже существует во многих практических реализациях фронтирных LLM (что позволяет его всестороннее тестирование и проведение научных экспериментов);
• по ряду тестов, ключевых для оценки человеческого интеллекта приближается к уровню людей (а по некоторым уже и превосходит его даже на уровне топовых профессионалов), и, судя по трендам (см. приложенный 1й и ключевой рисунок отчета), вот-вот можно будет признать, что и гипотетический уровень AGI (как его ни определяй и оценивай) достигнут.
Контекст вышесказанного таков.
10 и 11 февраля 2025 года во Франции пройдет всемирный «Саммит действий по искусственному интеллекту (ИИ)», который соберет в Grand Palais глав государств и правительств, руководителей международных организаций, руководителей малых и крупных компаний, представителей научных кругов, неправительственных организаций, деятелей искусства и членов гражданского общества.
По заказу всемирного саммита, в качестве «информации к размышлению» для его участников, группой из 96 экспертов по ИИ со всего мира, включая лауреатов Нобелевской премии и обладателей премии Тьюринга, вчера был опубликован 297 страничный отчет International AI Safety Report 2025.
По словам лидера экспертной группы, проф. Йошуа Бенджио, это первый в истории международный отчет по безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС. Он суммирует состояние науки о возможностях и рисках ИИ, а также о том, как смягчить эти риски.
Йошуа Бенджио и его 85 коллег – экспертов не стали ввязываться в бесконечные и бесперспективные терминологические споры вокруг AGI.
Вместо этого, авторы лишь 1 раз упомянули этот термин в тексте отчета (2й раз – в его глоссарии), чтобы отказаться от него, в связи с изложенными мною выше обстоятельствами, и заменить на ИИОН.
Так что можно опускать занавес над баталиями вокруг AGI.
С февраля 2025 на Земле будет два высших интеллекта общего назначения: человеческий и искусственный (машинный).
#AGI
✔️ До сего времени считалось, что на Земле лишь один высший интеллект – человеческий. Второй же тип высшего интеллекта - «сильный ИИ» или AGI = лишь планируется создать в будущем (через год, 10 или 50 лет).
✔️ Теперь же предлагается термин «сильный ИИ» (AGI), из-за неоднозначности и туманности множества его несовпадающих трактовок, оставить лишь для текстов журналистов и блогеров популярных медиа, а также (куда без этого) для зарабатывающих на хайповой терминологии маркетёров, пиарщиков и инвестбанкиров.
✔️ Профессиональным экспертам, исследователям и инженерам в области передовых ИИ-систем, а также (понятное дел) политикам и общественным деятелям, предлагается, вместо термина AGI, использовать термин «ИИ общего назначения» (ИИОН) (general-purpose AI), поскольку ИИОН:
• имеет вполне понятное и однозначное определение = это ИИ-системы, способные самостоятельно выполнять и/или помогать пользователям в решении самых разных задач, напр. создание текстов, изображений, видео, аудио, осуществление действия или аннотирование данных;
• уже существует во многих практических реализациях фронтирных LLM (что позволяет его всестороннее тестирование и проведение научных экспериментов);
• по ряду тестов, ключевых для оценки человеческого интеллекта приближается к уровню людей (а по некоторым уже и превосходит его даже на уровне топовых профессионалов), и, судя по трендам (см. приложенный 1й и ключевой рисунок отчета), вот-вот можно будет признать, что и гипотетический уровень AGI (как его ни определяй и оценивай) достигнут.
Контекст вышесказанного таков.
10 и 11 февраля 2025 года во Франции пройдет всемирный «Саммит действий по искусственному интеллекту (ИИ)», который соберет в Grand Palais глав государств и правительств, руководителей международных организаций, руководителей малых и крупных компаний, представителей научных кругов, неправительственных организаций, деятелей искусства и членов гражданского общества.
По заказу всемирного саммита, в качестве «информации к размышлению» для его участников, группой из 96 экспертов по ИИ со всего мира, включая лауреатов Нобелевской премии и обладателей премии Тьюринга, вчера был опубликован 297 страничный отчет International AI Safety Report 2025.
По словам лидера экспертной группы, проф. Йошуа Бенджио, это первый в истории международный отчет по безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС. Он суммирует состояние науки о возможностях и рисках ИИ, а также о том, как смягчить эти риски.
Йошуа Бенджио и его 85 коллег – экспертов не стали ввязываться в бесконечные и бесперспективные терминологические споры вокруг AGI.
Вместо этого, авторы лишь 1 раз упомянули этот термин в тексте отчета (2й раз – в его глоссарии), чтобы отказаться от него, в связи с изложенными мною выше обстоятельствами, и заменить на ИИОН.
Так что можно опускать занавес над баталиями вокруг AGI.
С февраля 2025 на Земле будет два высших интеллекта общего назначения: человеческий и искусственный (машинный).
#AGI
Есть мнение (и ладно бы только у меня, но и у руководства Google), что прогресс ИИ идет не туда, ибо сама парадигма интеллекта (машинного, человеческого, … любого), мягко говоря, устарела, а по гамбургскому счету, - вообще, ошибочная.
Мой триптих постов на эту тему – своего рода интеллектуальное расследование полусекретного проекта (называю его так потому, что он вроде как, есть, но никаких деталей в открытом доступе о нем почти нет). Этот проект был инициирован 3 года назад высшим руководством Google, и осуществляется междисциплинарной группой Paradigms of Intelligence (Pi) во главе с Блезом Агуэра-и-Аркас (Google VP/Fellow and CTO Technology & Society) в кооперации с мощнейшей командой исследователей из Santa Fe Institute (не без оснований прозванного «Институт сумасшедших идей»), двумя «мозговыми центрами» (Antikythera, Mila - Quebec AI Institute) и MIT.
Назову три ключевые момента, подлежащие кардинальному пересмотру в рамках новой парадигмы интеллекта:
1. Само определение интеллекта. Интеллект не является продуктом нейронов мозга или микрочипов компьютеров, на которых функционируют генеративные модели. Интеллект - это коллективное явление, формируемое эволюцией, развитием и взаимодействием в более крупных экосистемах.
2. Цель развития ИИ. Создавать AGI (что сейчас декларируется главной целью почти всех ведущих разработчиков ИИ-систем) не нужно, - т.к. его прототипы уже созданы, и теперь их нужно лишь совершенствовать. Вследствие этого, актуальные задачи и связанные с ними риски развития ИИ определяются вовсе не созданием AGI (можно сказать, что в области ИИ, мы не к тому стремимся и не того боимся).
3. Понимание отношения между интеллектом людей и ИИ. Пора признать, что нет ничего искусственного в том, что принято называть «искусственный интеллект». ИИ - это новая эволюционная форма человеческого (!) интеллекта.
ИИ-системы - это, своего рода, увеличительные зеркала нашего (!) интеллекта, позволяющие на их основе строить массу фантастически полезных новых интеллектуальных инструментов: от простых «увеличительных зеркал» (типа стоматологических), позволяющих заглянуть в трудно доступные области дата-майнинга, до интеллектуальных микроскопов и телескопов, предоставляющих нам возможности получения знаний из-за границы нашего интеллектуального горизонта.
Принятие новой парадигмы интеллекта, над которой работает команды Pi, означает, что все нынешние разговоры о создании AGI - путь в никуда. Это всего лишь путь зарабатывания больших денег. Причем зарабатывания не на результате, а на процессе движения к ложной цели.
Но как показывает «проект Pi», у Google припрятан 5й туз в рукаве - альтернативный «путь выдры».
Переход Google на этот путь может стать даже не разворотом шахматной доски в борьбе за первенство в ИИ. Это будет смена правил игры, кардинально меняющая саму парадигму интеллекта.
О результатах моего анализа:
✔️ миссии и видения междисциплинарной группы Paradigms of Intelligence;
✔️ проектов группы Pi:
• диагностика эмуляции моделями сознания и способности чувствовать, на примере чувства боли;
• опровержение априорных утверждений, что небиологические системы не могут быть разумными или сознательными;
• исследование вычислительных корней жизни и интеллекта;
• экспериментальное доказательство возникновения «вычислительной жизни»;
✔️ концептуальных связей и синергии «проекта Pi» с исследовательской программой новой философии вычислений «Антикитера».
Обо все об этом я расскажу в лонгриде, состоящем из 3х постов и озаглавленном «Проект «Pi» - 5й туз в рукаве Google. Альтернативный путь к пониманию интеллекта: человеческого, машинного … любого».
1-ю часть триптиха – «Путь выдры», – подписчики моих лонгридов уже могут прочесть на Patreon, Boosty, VK и Дзен.
#ParadigmsofIntelligence
Мой триптих постов на эту тему – своего рода интеллектуальное расследование полусекретного проекта (называю его так потому, что он вроде как, есть, но никаких деталей в открытом доступе о нем почти нет). Этот проект был инициирован 3 года назад высшим руководством Google, и осуществляется междисциплинарной группой Paradigms of Intelligence (Pi) во главе с Блезом Агуэра-и-Аркас (Google VP/Fellow and CTO Technology & Society) в кооперации с мощнейшей командой исследователей из Santa Fe Institute (не без оснований прозванного «Институт сумасшедших идей»), двумя «мозговыми центрами» (Antikythera, Mila - Quebec AI Institute) и MIT.
Назову три ключевые момента, подлежащие кардинальному пересмотру в рамках новой парадигмы интеллекта:
1. Само определение интеллекта. Интеллект не является продуктом нейронов мозга или микрочипов компьютеров, на которых функционируют генеративные модели. Интеллект - это коллективное явление, формируемое эволюцией, развитием и взаимодействием в более крупных экосистемах.
2. Цель развития ИИ. Создавать AGI (что сейчас декларируется главной целью почти всех ведущих разработчиков ИИ-систем) не нужно, - т.к. его прототипы уже созданы, и теперь их нужно лишь совершенствовать. Вследствие этого, актуальные задачи и связанные с ними риски развития ИИ определяются вовсе не созданием AGI (можно сказать, что в области ИИ, мы не к тому стремимся и не того боимся).
3. Понимание отношения между интеллектом людей и ИИ. Пора признать, что нет ничего искусственного в том, что принято называть «искусственный интеллект». ИИ - это новая эволюционная форма человеческого (!) интеллекта.
ИИ-системы - это, своего рода, увеличительные зеркала нашего (!) интеллекта, позволяющие на их основе строить массу фантастически полезных новых интеллектуальных инструментов: от простых «увеличительных зеркал» (типа стоматологических), позволяющих заглянуть в трудно доступные области дата-майнинга, до интеллектуальных микроскопов и телескопов, предоставляющих нам возможности получения знаний из-за границы нашего интеллектуального горизонта.
Принятие новой парадигмы интеллекта, над которой работает команды Pi, означает, что все нынешние разговоры о создании AGI - путь в никуда. Это всего лишь путь зарабатывания больших денег. Причем зарабатывания не на результате, а на процессе движения к ложной цели.
Но как показывает «проект Pi», у Google припрятан 5й туз в рукаве - альтернативный «путь выдры».
Переход Google на этот путь может стать даже не разворотом шахматной доски в борьбе за первенство в ИИ. Это будет смена правил игры, кардинально меняющая саму парадигму интеллекта.
О результатах моего анализа:
✔️ миссии и видения междисциплинарной группы Paradigms of Intelligence;
✔️ проектов группы Pi:
• диагностика эмуляции моделями сознания и способности чувствовать, на примере чувства боли;
• опровержение априорных утверждений, что небиологические системы не могут быть разумными или сознательными;
• исследование вычислительных корней жизни и интеллекта;
• экспериментальное доказательство возникновения «вычислительной жизни»;
✔️ концептуальных связей и синергии «проекта Pi» с исследовательской программой новой философии вычислений «Антикитера».
Обо все об этом я расскажу в лонгриде, состоящем из 3х постов и озаглавленном «Проект «Pi» - 5й туз в рукаве Google. Альтернативный путь к пониманию интеллекта: человеческого, машинного … любого».
1-ю часть триптиха – «Путь выдры», – подписчики моих лонгридов уже могут прочесть на Patreon, Boosty, VK и Дзен.
#ParadigmsofIntelligence
Пора задуматься о перемене участи.
Так ли уж ИИ будут нужны «кожаные мешки»?
Среди 10 заповедей, оставленных человечеству великим Джеймсом Лавлоком, 3 относятся к перемени участи людей в наступающей эпохе Новацена (подробней см. [1])
Заповедь №4. Люди — это ключевой вид, возникший в ходе биологической эволюции для преобразования потоков фотонов в биты информации, собираемой таким образом, чтобы способствовать эволюции Вселенной (поскольку информация — это её врожденное свойство).
Заповедь №6. … сверхразумные (небиологические) носители ИИ — существа, которые создали и запрограммировали себя сами и обладают мыслительным процессом на несколько порядков быстрее людей, — продолжат эволюцию на небиологическом уровне, сменив естественный отбор на “направленный отбор”…
Заповедь №7. … Люди как биологические существа не исчезнут, а лишь изменится их роль. Процесс познания, в основном, перейдет к киборгам, а роль людей сведется к сохранению антропного окна температур от минус до плюс 50 по Цельсию. Ведь если жизнь на Земле исчезнет, захлопнется это антропное окно ...
Большинство сегодняшних экспертов полагают:
1. Сверх-ИИ рано или поздно появится.
2. Однако людей он не заменит, а станет для них сверхмощным усилителем их интеллекта.
Т.е. представляется, будто «одинокий ИИ» будет уступать «ИИ + человек».
Однако, такое предположение однозначно опровергается уже первыми исследованиями данного вопроса.
Посмотрите на приведенную таблицу, взятую мной из вчерашнего, мягко говоря, обескураживающего (а многих и шокирующего) поста Эрика Тополя и Пранава Раджпуркара [2].
Удивительно, но в большинстве случаев работающие независимо ИИ-системы показывают лучшие результаты, чем в сочетании с участием врача.
Вынужденно толерантные из-за публикации своей статьи на эту тему в NYT, авторы скромно предполагают: «нам, возможно, придется переосмыслить, как мы разделяем обязанности между врачами-людьми и системами ИИ, чтобы достичь цели синергии (а не просто аддитивности)».
Мне же ситуация видится, скорее, по Лавлоку – людям пора озаботиться переменой собственной участи.
Тем более, если кого-то все же не устраивает участь «теплотехников», поддерживающих на Земле окно температур, гарантирующее жизнь цивилизации.
#LLMvsHomo #Лавлок #Новацен
Так ли уж ИИ будут нужны «кожаные мешки»?
Среди 10 заповедей, оставленных человечеству великим Джеймсом Лавлоком, 3 относятся к перемени участи людей в наступающей эпохе Новацена (подробней см. [1])
Заповедь №4. Люди — это ключевой вид, возникший в ходе биологической эволюции для преобразования потоков фотонов в биты информации, собираемой таким образом, чтобы способствовать эволюции Вселенной (поскольку информация — это её врожденное свойство).
Заповедь №6. … сверхразумные (небиологические) носители ИИ — существа, которые создали и запрограммировали себя сами и обладают мыслительным процессом на несколько порядков быстрее людей, — продолжат эволюцию на небиологическом уровне, сменив естественный отбор на “направленный отбор”…
Заповедь №7. … Люди как биологические существа не исчезнут, а лишь изменится их роль. Процесс познания, в основном, перейдет к киборгам, а роль людей сведется к сохранению антропного окна температур от минус до плюс 50 по Цельсию. Ведь если жизнь на Земле исчезнет, захлопнется это антропное окно ...
Большинство сегодняшних экспертов полагают:
1. Сверх-ИИ рано или поздно появится.
2. Однако людей он не заменит, а станет для них сверхмощным усилителем их интеллекта.
Т.е. представляется, будто «одинокий ИИ» будет уступать «ИИ + человек».
Однако, такое предположение однозначно опровергается уже первыми исследованиями данного вопроса.
Посмотрите на приведенную таблицу, взятую мной из вчерашнего, мягко говоря, обескураживающего (а многих и шокирующего) поста Эрика Тополя и Пранава Раджпуркара [2].
Удивительно, но в большинстве случаев работающие независимо ИИ-системы показывают лучшие результаты, чем в сочетании с участием врача.
Вынужденно толерантные из-за публикации своей статьи на эту тему в NYT, авторы скромно предполагают: «нам, возможно, придется переосмыслить, как мы разделяем обязанности между врачами-людьми и системами ИИ, чтобы достичь цели синергии (а не просто аддитивности)».
Мне же ситуация видится, скорее, по Лавлоку – людям пора озаботиться переменой собственной участи.
Тем более, если кого-то все же не устраивает участь «теплотехников», поддерживающих на Земле окно температур, гарантирующее жизнь цивилизации.
#LLMvsHomo #Лавлок #Новацен
Тихая революция.
Как постепенное развитие ИИ может незаметно лишить человечество контроля над собственной судьбой.
Представим, что на Землю прилетают не враждебные инопланетяне, а дружелюбные, но невероятно умные существа. Они не воюют, не захватывают власть — они просто оказываются эффективнее нас во всем.
Они лучше ведут бизнес, эффективнее управляют государством, создают более интересную культуру. Мы рады сотрудничать с ними, и постепенно мир перестраивается так, что люди оказываются не нужны. В конце концов, ключевые решения принимают они, а мы просто живем на их территории, имея все меньше возможностей что-то менять.
Так же и с ИИ: это не вражеское вторжение, не война миров и не заговор машин - это незаметное вытеснение, в котором никто и не заметит момента, когда люди утратили контроль, и когда уже слишком поздно что-то изменить.
Классическая аналогия — «кипящая лягушка»: если бросить лягушку в кипяток, она выпрыгнет, а если нагревать воду медленно, то она сварится. Так же и здесь: каждое отдельное улучшение ИИ кажется неопасным, но вместе они могут создать ситуацию, в которой люди уже ничего не решают.
Например:
• В экономике: сначала ИИ заменяет простые задачи, потом более сложные, пока однажды мы не обнаруживаем, что большинство экономических решений принимается алгоритмами, а человеческий труд становится всё менее значимым.
• В культуре: от рекомендательных систем к генерации контента, пока однажды большая часть культурного производства не оказывается под контролем ИИ.
• В государственном управлении: от автоматизации бюрократических процедур к системам поддержки принятия решений, пока ключевые государственные функции не начинают зависеть от ИИ.
Злодеи, террористы и маньяки, вооруженные ИИ, также не понадобятся.
Без какого-либо зловредного участия:
• скоро мы окажемся в мире с миллионами ИИ-агентов, число которых ежегодно будет расти в десятки раз (на каждого человека будет приходиться 100-1000 ИИ, думающих в 1000-1 млн раз быстрее людей;
• люди постепенно будут выводиться из большинства процессов принятия все большего и большего количества решений;
• военные без защиты ИИ будут немедленно выводиться из строя кибератаками невиданной изощренности.
• государства будут получать большую часть своих доходов от налогов на ИИ-системы, а не от заработной платы людей.
Эти и многие другие риски могут материализоваться, даже если мы в основном «решим» традиционную проблему согласования ИИ. В этом сценарии ИИ «делают то, что мы им говорим», но экономические стимулы заставляют нас говорить им максимизировать прибыль и влияние (поскольку, если мы этого не сделаем, то это сделают другие: люди, компании, страны)
Подробней, читайте здесь.
#ИИриски #Хриски
Как постепенное развитие ИИ может незаметно лишить человечество контроля над собственной судьбой.
Представим, что на Землю прилетают не враждебные инопланетяне, а дружелюбные, но невероятно умные существа. Они не воюют, не захватывают власть — они просто оказываются эффективнее нас во всем.
Они лучше ведут бизнес, эффективнее управляют государством, создают более интересную культуру. Мы рады сотрудничать с ними, и постепенно мир перестраивается так, что люди оказываются не нужны. В конце концов, ключевые решения принимают они, а мы просто живем на их территории, имея все меньше возможностей что-то менять.
Так же и с ИИ: это не вражеское вторжение, не война миров и не заговор машин - это незаметное вытеснение, в котором никто и не заметит момента, когда люди утратили контроль, и когда уже слишком поздно что-то изменить.
Классическая аналогия — «кипящая лягушка»: если бросить лягушку в кипяток, она выпрыгнет, а если нагревать воду медленно, то она сварится. Так же и здесь: каждое отдельное улучшение ИИ кажется неопасным, но вместе они могут создать ситуацию, в которой люди уже ничего не решают.
Например:
• В экономике: сначала ИИ заменяет простые задачи, потом более сложные, пока однажды мы не обнаруживаем, что большинство экономических решений принимается алгоритмами, а человеческий труд становится всё менее значимым.
• В культуре: от рекомендательных систем к генерации контента, пока однажды большая часть культурного производства не оказывается под контролем ИИ.
• В государственном управлении: от автоматизации бюрократических процедур к системам поддержки принятия решений, пока ключевые государственные функции не начинают зависеть от ИИ.
Злодеи, террористы и маньяки, вооруженные ИИ, также не понадобятся.
Без какого-либо зловредного участия:
• скоро мы окажемся в мире с миллионами ИИ-агентов, число которых ежегодно будет расти в десятки раз (на каждого человека будет приходиться 100-1000 ИИ, думающих в 1000-1 млн раз быстрее людей;
• люди постепенно будут выводиться из большинства процессов принятия все большего и большего количества решений;
• военные без защиты ИИ будут немедленно выводиться из строя кибератаками невиданной изощренности.
• государства будут получать большую часть своих доходов от налогов на ИИ-системы, а не от заработной платы людей.
Эти и многие другие риски могут материализоваться, даже если мы в основном «решим» традиционную проблему согласования ИИ. В этом сценарии ИИ «делают то, что мы им говорим», но экономические стимулы заставляют нас говорить им максимизировать прибыль и влияние (поскольку, если мы этого не сделаем, то это сделают другие: люди, компании, страны)
Подробней, читайте здесь.
#ИИриски #Хриски