Символом надвигающейся глобальной ИИ-катастрофы стала химера «серого носорога» и «черного лебедя»
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".
Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.
В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.
А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".
Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.
Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.
Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.
#СтратегическаяАналитика #ИИ #Китай #США
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".
Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.
В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.
А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".
Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.
Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.
Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.
#СтратегическаяАналитика #ИИ #Китай #США
Unknown
Sergey Karelov
Подкаст о прогностическом исследовании "Искусственный интеллект 2027"
«Гормоны в тренде: секс-роботы с ИИ взорвали рынок»
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».
В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».
О как я ошибался. Потребовалось менее года.
В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.
Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»
По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.
Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.
Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.
Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.
#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».
В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».
О как я ошибался. Потребовалось менее года.
В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.
Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»
По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.
Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.
Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.
Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.
#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны
Нас не заменят
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.
Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.
Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)
Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.
Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.
Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.
Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.
Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.
Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.
Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.
Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.
Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.
Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.
#LLMvsHomo
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.
Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.
Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)
Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.
Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.
Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.
Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.
Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.
Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.
Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.
Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.
Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.
Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.
#LLMvsHomo
AGI — не надвигающийся «Скайнет», а сверхсложная электророзетка.
Если вам надоело слушать о грядущем восстании машин, вот освежающий глоток реализма и конструктивности.
Именно такой нестандартный ракурс предлагают исследователи Принстонского университета Арвинд Нараянян и Саяш Капур в эссе «AI as Normal Technology». Они называют ИИ «нормальной технологией» и убеждают: главное в нём — не мифическая «суперинтеллектуальность», а вполне земная логика изобретения, внедрения и распространения.
Ключевая мысль авторов такова.
Термины «интеллект» и «сверхинтеллект» уже несколько десятков лет использовались неправильно. Эти термины попеременно относятся то к возможностям (capability), то к мощи/власти (power). Но первое является неотъемлемым свойством системы, тогда как второе — это вопрос того, как мы проектируем среду, в которой функционируют системы ИИ. И здесь люди обладают широким спектром возможностей влиять на проектирование.
Медленное, но верное влияние
Авторы считают, что прорывы в моделях происходят быстро, но до реальных экономических сдвигов пройдут десятилетия — ровно как было с электричеством или интернетом. Особенно это касается чувствительных сфер применения (медицина, транспорт …), где безопасность и регулирование устанавливают естественный «скоростной лимит»
Люди остаются у руля
Даже в мире более продвинутого ИИ, контроль, как подчёркивают авторы, остаётся за людьми и организациями. Вместо «галактического мозга в коробке» авторы видят множество моделей человеческого надзора: аудит, мониторинг, отказоустойчивые «тормоза», принцип наименьших привилегий и др. — целый инженерный арсенал, который уже работает в других критически важных системах.
Риски и как их укротить
Авторы анализируют четыре группы угроз: аварии, гонка вооружений, злоупотребления и спекулятивное «бумажно скрепочное» рассогласование целей. Все они, по мнению авторов, решаемы средствами нормального техно управления. А вот долгосрочные социальные перекосы — неравенство, эрозия доверия, монокультура моделей — куда опаснее и требуют внимания уже сегодня.
Политика «устойчивости», а не «запретов»
Авторы предлагают ориентир — resilience: уменьшать неопределённость, делать системы отказоустойчивыми, развивать открытость и конкуренцию. Напротив, идеи «нераспространения» (строгие лицензии, закрытие моделей) они считают контрпродуктивными: меньше игроков — значит одна единственная уязвимость может обрушить всё сразу. Вместо этого государствам стоит инвестировать в научные данные о реальных инцидентах, повышать ИИ грамотность общества и укреплять социальные лифты для тех, кого автоматизация затронет первыми.
Почему это важно
Эссе разрушает привычное «апокалиптическое» и «утопическое» деление обсуждений ИИ. Оно возвращает разговор в плоскость институций, экономики и людей, напоминая: технологии меняют мир не рывком, а шаг за шагом. От того, как мы организуем эти шаги, зависит, станет ли ИИ очередным двигателем прогресса или усилителем старых проблем.
#AGI #ИИриски #Хриски
Если вам надоело слушать о грядущем восстании машин, вот освежающий глоток реализма и конструктивности.
Именно такой нестандартный ракурс предлагают исследователи Принстонского университета Арвинд Нараянян и Саяш Капур в эссе «AI as Normal Technology». Они называют ИИ «нормальной технологией» и убеждают: главное в нём — не мифическая «суперинтеллектуальность», а вполне земная логика изобретения, внедрения и распространения.
Ключевая мысль авторов такова.
Термины «интеллект» и «сверхинтеллект» уже несколько десятков лет использовались неправильно. Эти термины попеременно относятся то к возможностям (capability), то к мощи/власти (power). Но первое является неотъемлемым свойством системы, тогда как второе — это вопрос того, как мы проектируем среду, в которой функционируют системы ИИ. И здесь люди обладают широким спектром возможностей влиять на проектирование.
Медленное, но верное влияние
Авторы считают, что прорывы в моделях происходят быстро, но до реальных экономических сдвигов пройдут десятилетия — ровно как было с электричеством или интернетом. Особенно это касается чувствительных сфер применения (медицина, транспорт …), где безопасность и регулирование устанавливают естественный «скоростной лимит»
Люди остаются у руля
Даже в мире более продвинутого ИИ, контроль, как подчёркивают авторы, остаётся за людьми и организациями. Вместо «галактического мозга в коробке» авторы видят множество моделей человеческого надзора: аудит, мониторинг, отказоустойчивые «тормоза», принцип наименьших привилегий и др. — целый инженерный арсенал, который уже работает в других критически важных системах.
Риски и как их укротить
Авторы анализируют четыре группы угроз: аварии, гонка вооружений, злоупотребления и спекулятивное «бумажно скрепочное» рассогласование целей. Все они, по мнению авторов, решаемы средствами нормального техно управления. А вот долгосрочные социальные перекосы — неравенство, эрозия доверия, монокультура моделей — куда опаснее и требуют внимания уже сегодня.
Политика «устойчивости», а не «запретов»
Авторы предлагают ориентир — resilience: уменьшать неопределённость, делать системы отказоустойчивыми, развивать открытость и конкуренцию. Напротив, идеи «нераспространения» (строгие лицензии, закрытие моделей) они считают контрпродуктивными: меньше игроков — значит одна единственная уязвимость может обрушить всё сразу. Вместо этого государствам стоит инвестировать в научные данные о реальных инцидентах, повышать ИИ грамотность общества и укреплять социальные лифты для тех, кого автоматизация затронет первыми.
Почему это важно
Эссе разрушает привычное «апокалиптическое» и «утопическое» деление обсуждений ИИ. Оно возвращает разговор в плоскость институций, экономики и людей, напоминая: технологии меняют мир не рывком, а шаг за шагом. От того, как мы организуем эти шаги, зависит, станет ли ИИ очередным двигателем прогресса или усилителем старых проблем.
#AGI #ИИриски #Хриски
Deepseek разоблачен
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».
Сухой остаток заключения комитета можно сформулировать так.
Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.
Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.
Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.
Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.
#Китай #США #ИИгонка #ЭкспортныйКонтроль
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».
Сухой остаток заключения комитета можно сформулировать так.
Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.
Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.
Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.
Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
В это трудно поверить, но Deepseek в реальном времени (!!!) цензурирует свои ответы. И прямо на ваших глазах исправляет сделанные парой абзацев выше в том же чате свои высказывания или просто стирает их, ссылаясь на невозможность обсуждения этой темы.
Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.
#Китай #США #ИИгонка #ЭкспортныйКонтроль
Найден практический способ создания ИИ с сознанием и человеческой моралью.
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.
Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.
Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.
Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».
Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.
#ИИ #AGI #АктивныйВывод #Мораль
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.
Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.
Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.
Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».
Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.
#ИИ #AGI #АктивныйВывод #Мораль
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
ИИ разделил человечество на 3 «подвида»: развитые, развивающиеся и китайцы
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было опрошено 48 340 человек в 47 странах.
Прекрасно оформленную графику 115-страничного отчета исследования стоит просмотреть всем.
1. Человечество разделилось по отношению к ИИ на 2 группы:
A. тех, кто в своем большинстве активно и умело используют, доверяют и позитивно относятся к ИИ, глядя на перспективы развития ИИ с оптимизмом;
B. тех, кто в своем большинстве мало и неумело используют, не сильно доверяют и довольно негативно относятся к ИИ, глядя на перспективы развития ИИ с опасение и тревогой;
А – это развивающиеся страны типа Нигерии, Индии, Эмиратов, Южной Африки и т.п.
В – это развитые страны типа западноевропейский стран, Австралии, США и Японии
2. Однако есть еще и третья группа – это Китай:
A. По часть активного и умелого использования, доверия и позитивного отношения, характеризуемого доминированием позитивных взглядов на перспективы развития ИИ, китайцы даже лучше большинства развивающихся стран.
B. При этом вряд ли кто сомневается, что по части ИИ-потенциала (да и вообще, по части экономики, науки и технологий), Китай – хоть еще и не №1 в мире, но уж точно не ниже №2.
Именно поэтому австралийская новостное агентство сопроводило новость об этом отчете видеороликом «ИИ-технологии делают Китай более мощным, чем никогда»
Данных по России в отчете, понятное дело, нет.
Однако, по данным ВЦИОМ, активность использования и умение россиян примерно как в Австралии и Канаде. А по части доверия и оптимизма – как в Венгрии или Испании.
Так что, чтобы присоединиться к почетной 3й группе, в России нужно сильно больше китайцев.
#ИИгонка #Китай
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было опрошено 48 340 человек в 47 странах.
Прекрасно оформленную графику 115-страничного отчета исследования стоит просмотреть всем.
Я же здесь открытым текстом напишу 2 вывода исследования, о которых авторы написали лишь между строк из-за ограничений политкорректности.
1. Человечество разделилось по отношению к ИИ на 2 группы:
A. тех, кто в своем большинстве активно и умело используют, доверяют и позитивно относятся к ИИ, глядя на перспективы развития ИИ с оптимизмом;
B. тех, кто в своем большинстве мало и неумело используют, не сильно доверяют и довольно негативно относятся к ИИ, глядя на перспективы развития ИИ с опасение и тревогой;
А – это развивающиеся страны типа Нигерии, Индии, Эмиратов, Южной Африки и т.п.
В – это развитые страны типа западноевропейский стран, Австралии, США и Японии
2. Однако есть еще и третья группа – это Китай:
A. По часть активного и умелого использования, доверия и позитивного отношения, характеризуемого доминированием позитивных взглядов на перспективы развития ИИ, китайцы даже лучше большинства развивающихся стран.
B. При этом вряд ли кто сомневается, что по части ИИ-потенциала (да и вообще, по части экономики, науки и технологий), Китай – хоть еще и не №1 в мире, но уж точно не ниже №2.
Именно поэтому австралийская новостное агентство сопроводило новость об этом отчете видеороликом «ИИ-технологии делают Китай более мощным, чем никогда»
Данных по России в отчете, понятное дело, нет.
Однако, по данным ВЦИОМ, активность использования и умение россиян примерно как в Австралии и Канаде. А по части доверия и оптимизма – как в Венгрии или Испании.
Так что, чтобы присоединиться к почетной 3й группе, в России нужно сильно больше китайцев.
#ИИгонка #Китай
Новый сверхэффективный способ извлечения знаний
На длинных выходных создайте себе сомыслителя – всезнающего проводника в ваших исследовательских путешествиях
Одной из самых недооценённых возможностей использования ИИ является его использование в роли сомыслителя, превращающего чтение обширных текстов из линейного процесса в многоступенчатое исследовательское путешествие, где ИИ уже не просто «говорящая книга», а своего рода «ИИ-мнемозина» — интеллектуальный интерфейс извлечения знаний из вашего информария, ускоряющий:
Наличие ИИ-мнемозины выводит освоение содержимого больших текстов на уровень, недостижимый обычным чтением, и создаёт основу для непрерывного расширения знаний по мере пополнения корпуса текстов новыми материалами.
Архитектурные идеи создания подобных интеллектуальных интерфейсов со сквозной «дорожной картой» пользовательского опыта и набором приёмов, превращающих информарий в интеллект конструктор, находятся лишь в проработке.
И предлагаемая вашему вниманию ”песочница” информария альманаха «Линзы будущего» — лишь пример такого рода учебно-экспериментальной среды. Этот прототип интеллект конструктора ориентирован на:
• глубокое погружение в эссе альманаха
• глубокое бурение его смысловых пластов
• майнинг идей, гипотез, неявных и альтернативных смыслов, ассоциаций и противоречий
• структурирование извлеченных знаний
подробней об альманахе
О ”песочнице” информария
Уникальность ”песочницы” в том, что эссе можно не просто читать, но и осуществлять их интеллектуальный анализ в диалоге с «ИИ-мнемозиной» - всеведущей хранительницей текстов и смыслов информария:
• задавать любые вопросы по источникам и их комбинациям;
• анализировать, оценивать и критически переосмысливать идем и гипотезы альманаха;
• генерировать интеллектуальные карты, позволяющие сочетать навигацию в пространстве смыслов информария;
o с глубоким бурением на несколько этажей вглубь каждого из смысловых пластов;
o с майнингом неявных ассоциативных и содержательных связей и иерархий идей, гипотез и прогнозов, раскиданных по различным эссе и, на первый взгляд, казалось бы, никак не связанных;
• устраивать интеллектуальный пинг-понг и вдумчивые дискуссии с ИИ-мнемозиной;
• организовывать дискуссии ИИ-аватаров, обсуждающих самостоятельно или с участием пользователя интересующие его аспекты по материалам источников информария.
Ключевая архитектурная идея информария — «Семантический планетарий»
Информарий динамически строит многослойные ментальные экосистемы, где каждый смысловой элемент — «звезда» в планетарии знаний. Пользователь «летает» между слоями, а «ИИ мнемозина» выступает навигатором и куратором.
Возможны 7 градаций погружения в ментальные экосистемы информария. Это своего рода 7 линз, позволяющих увидеть скрытые закономерности и связи, а также оценить их силу:
1. Панорамная линза — Быстро ухватить ландшафт тем
2. Линза сканирования — Найти зоны интереса
3. Динамические линзы — Смотреть под разными углами
4. Слоистое бурение — Идти глубже, не теряя контекст
5. Ассоциативный сплав — Соединять далёкие идеи
6. Кузница гипотез — Формировать новые выводы и гипотезы
7. Институализация — Конвертировать знания во внешние артефакты
Подробней о «песочнице»
Аудио-аннотации альманаха:
• 2 диалога — обсуждений альманаха: 6 мин и 22 мин (англ)
• 2 рассказа об альманахе: 7 мин и 30 мин
Желающие погрузиться глубже в альманах и поэкспериментировать с “песочницей” его информария,
см. уровни доступа
#Информарий #ЛинзыБудущего
На длинных выходных создайте себе сомыслителя – всезнающего проводника в ваших исследовательских путешествиях
Одной из самых недооценённых возможностей использования ИИ является его использование в роли сомыслителя, превращающего чтение обширных текстов из линейного процесса в многоступенчатое исследовательское путешествие, где ИИ уже не просто «говорящая книга», а своего рода «ИИ-мнемозина» — интеллектуальный интерфейс извлечения знаний из вашего информария, ускоряющий:
• ориентацию и навигацию по обширному корпусу текстов
• глубинный анализ извлекаемых из текстов смыслов
• синтез идей и гипотез на основе анализа
• их критическую проверку
Наличие ИИ-мнемозины выводит освоение содержимого больших текстов на уровень, недостижимый обычным чтением, и создаёт основу для непрерывного расширения знаний по мере пополнения корпуса текстов новыми материалами.
Архитектурные идеи создания подобных интеллектуальных интерфейсов со сквозной «дорожной картой» пользовательского опыта и набором приёмов, превращающих информарий в интеллект конструктор, находятся лишь в проработке.
И предлагаемая вашему вниманию ”песочница” информария альманаха «Линзы будущего» — лишь пример такого рода учебно-экспериментальной среды. Этот прототип интеллект конструктора ориентирован на:
• глубокое погружение в эссе альманаха
• глубокое бурение его смысловых пластов
• майнинг идей, гипотез, неявных и альтернативных смыслов, ассоциаций и противоречий
• структурирование извлеченных знаний
«Линзы будущего» — это экспериментальный альманах, цель которого интегрировать философию, науку и IT технологии для выработки целостного понимания значительных глобальных изменений и возрастающей непредсказуемости в мире. Учитывая беспрецедентный характер этих изменений, альманах опирается на аргументированные эвристические гипотезы для объяснения их причин и механизмов, а также для оценки потенциальных краткосрочных сценариев.
подробней об альманахе
О ”песочнице” информария
Уникальность ”песочницы” в том, что эссе можно не просто читать, но и осуществлять их интеллектуальный анализ в диалоге с «ИИ-мнемозиной» - всеведущей хранительницей текстов и смыслов информария:
• задавать любые вопросы по источникам и их комбинациям;
• анализировать, оценивать и критически переосмысливать идем и гипотезы альманаха;
• генерировать интеллектуальные карты, позволяющие сочетать навигацию в пространстве смыслов информария;
o с глубоким бурением на несколько этажей вглубь каждого из смысловых пластов;
o с майнингом неявных ассоциативных и содержательных связей и иерархий идей, гипотез и прогнозов, раскиданных по различным эссе и, на первый взгляд, казалось бы, никак не связанных;
• устраивать интеллектуальный пинг-понг и вдумчивые дискуссии с ИИ-мнемозиной;
• организовывать дискуссии ИИ-аватаров, обсуждающих самостоятельно или с участием пользователя интересующие его аспекты по материалам источников информария.
Ключевая архитектурная идея информария — «Семантический планетарий»
Информарий динамически строит многослойные ментальные экосистемы, где каждый смысловой элемент — «звезда» в планетарии знаний. Пользователь «летает» между слоями, а «ИИ мнемозина» выступает навигатором и куратором.
Возможны 7 градаций погружения в ментальные экосистемы информария. Это своего рода 7 линз, позволяющих увидеть скрытые закономерности и связи, а также оценить их силу:
1. Панорамная линза — Быстро ухватить ландшафт тем
2. Линза сканирования — Найти зоны интереса
3. Динамические линзы — Смотреть под разными углами
4. Слоистое бурение — Идти глубже, не теряя контекст
5. Ассоциативный сплав — Соединять далёкие идеи
6. Кузница гипотез — Формировать новые выводы и гипотезы
7. Институализация — Конвертировать знания во внешние артефакты
Подробней о «песочнице»
Аудио-аннотации альманаха:
• 2 диалога — обсуждений альманаха: 6 мин и 22 мин (англ)
• 2 рассказа об альманахе: 7 мин и 30 мин
Желающие погрузиться глубже в альманах и поэкспериментировать с “песочницей” его информария,
см. уровни доступа
#Информарий #ЛинзыБудущего
Начался парадигмальный сдвиг, превосходящий революционностью все предыдущие
Его суть:
1. кардинальное переосмысление нашего понимания, что такое интеллект, разум и жизнь;
2. отказ от бинарного разделения "естественного" и "искусственного" в пользу понимания непрерывности между материей и разумом;
3. уход от представлений, что живые существа принципиально отличаются от машин;
4. переход к пониманию интеллекта, как континуума, проявляющегося в самых разнообразных сущностях (биологических и иных);
5. признание того, что полноценное развитие человечества невозможно без осознания спектра возможных форм разума, и что сегодняшние споры об AGI и ASI касаются универсальных экзистенциальных вопросов, стоящих перед всеми биологическими существами.
Опубликованная перед праздниками в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» – своего рода «апрельские тезисы» начинающейся революции. Предвосхищая ее начало, я написал в начале февраля в посте о предыдущей работе Левина: «Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие».
И вот спустя три месяца «апрельские тезисы» Левина открыто провозглашают с трибуны солидного научного журнала, что этот парадигмальный переворот начался. И, следовательно, уже можно открывать карты «Проекта Pi» и Google может вынимать пятый туз из своего рукава (см. триптих моих лонгридов [1, 2, 3]) и открыто объявлять о проекте, вот уже 2 года готовящем слом мейнстримной парадигмы интеллекта.
Так Google и сделал, начав в апреле официально выводить «Проект Pi» на высший научный уровень в корпорации. Для этого была опубликована статья, соавторами которой стали руководитель «Проекта Pi» Блез Агуэра-и-Аркас (вице-президент и ведущий научный сотрудник Google Technology & Society) и Джеймс Маниика — старший вице-президент Google-Alphabet и президент по исследованиям, лабораториям, технологиям и обществу в Google, а также почетный член Института ИИ при Стэнфордском университете и почетный научный сотрудник и приглашенный профессор Оксфорда.
Эта статья, как бы предваряя публикацию работы Левина, описывает начавшийся парадигмальный переворот в понимании интеллекта, разума и жизни, вписывая его в последовательность пяти взаимосвязанных сдвигов парадигмы эволюционирующего интеллекта, представляющего собой социальный фрактал.
Авторы пишут, что смена парадигм часто сопряжена с трудностями, поскольку легче принять новые идеи, когда они совместимы с существующим мировоззрением, но сложнее, когда они несовместимы. Классическим примером является крах геоцентрической парадигмы, которая доминировала в космологической мысли примерно два тысячелетия. В геоцентрической модели Земля стояла на месте, в то время как Солнце, Луна, планеты и звезды вращались вокруг нас. Вера в то, что мы находимся в центре Вселенной, подкрепленная теорией эпициклов Птолемея, крупным научным достижением своего времени, была как интуитивной, так и совместимой с религиозными традициями. Следовательно, гелиоцентрическая парадигма Коперника была не просто научным достижением, но и горячо оспариваемой ересью и, возможно, даже, для некоторых, как отмечает Бенджамин Браттон, экзистенциальной травмой .
Так же происходит и сегодня с начавшимся парадигмальным сдвигом в понимании феномена интеллект.
Советую обязательно прочесть этот «меморандум о 5-ти парадигмальных сдвигах», ну или хотя бы прослушать этот 7-минутный подкаст.
Меморандум подготовит вас к обсуждению «апрельских тезисов» Левина (в следующем посте) о парадигмальной революции, назначение которой – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества.
#ParadigmsofIntelligence #DiverseIntelligence
Его суть:
1. кардинальное переосмысление нашего понимания, что такое интеллект, разум и жизнь;
2. отказ от бинарного разделения "естественного" и "искусственного" в пользу понимания непрерывности между материей и разумом;
3. уход от представлений, что живые существа принципиально отличаются от машин;
4. переход к пониманию интеллекта, как континуума, проявляющегося в самых разнообразных сущностях (биологических и иных);
5. признание того, что полноценное развитие человечества невозможно без осознания спектра возможных форм разума, и что сегодняшние споры об AGI и ASI касаются универсальных экзистенциальных вопросов, стоящих перед всеми биологическими существами.
Опубликованная перед праздниками в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» – своего рода «апрельские тезисы» начинающейся революции. Предвосхищая ее начало, я написал в начале февраля в посте о предыдущей работе Левина: «Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие».
И вот спустя три месяца «апрельские тезисы» Левина открыто провозглашают с трибуны солидного научного журнала, что этот парадигмальный переворот начался. И, следовательно, уже можно открывать карты «Проекта Pi» и Google может вынимать пятый туз из своего рукава (см. триптих моих лонгридов [1, 2, 3]) и открыто объявлять о проекте, вот уже 2 года готовящем слом мейнстримной парадигмы интеллекта.
Так Google и сделал, начав в апреле официально выводить «Проект Pi» на высший научный уровень в корпорации. Для этого была опубликована статья, соавторами которой стали руководитель «Проекта Pi» Блез Агуэра-и-Аркас (вице-президент и ведущий научный сотрудник Google Technology & Society) и Джеймс Маниика — старший вице-президент Google-Alphabet и президент по исследованиям, лабораториям, технологиям и обществу в Google, а также почетный член Института ИИ при Стэнфордском университете и почетный научный сотрудник и приглашенный профессор Оксфорда.
Эта статья, как бы предваряя публикацию работы Левина, описывает начавшийся парадигмальный переворот в понимании интеллекта, разума и жизни, вписывая его в последовательность пяти взаимосвязанных сдвигов парадигмы эволюционирующего интеллекта, представляющего собой социальный фрактал.
Вот эти 5 взаимосвязанных сдвигов парадигмы интеллекта: Естественные вычисления, Нейронные вычисления, Предиктивный интеллект, Общий интеллект и Коллективный интеллект.
Авторы пишут, что смена парадигм часто сопряжена с трудностями, поскольку легче принять новые идеи, когда они совместимы с существующим мировоззрением, но сложнее, когда они несовместимы. Классическим примером является крах геоцентрической парадигмы, которая доминировала в космологической мысли примерно два тысячелетия. В геоцентрической модели Земля стояла на месте, в то время как Солнце, Луна, планеты и звезды вращались вокруг нас. Вера в то, что мы находимся в центре Вселенной, подкрепленная теорией эпициклов Птолемея, крупным научным достижением своего времени, была как интуитивной, так и совместимой с религиозными традициями. Следовательно, гелиоцентрическая парадигма Коперника была не просто научным достижением, но и горячо оспариваемой ересью и, возможно, даже, для некоторых, как отмечает Бенджамин Браттон, экзистенциальной травмой .
Так же происходит и сегодня с начавшимся парадигмальным сдвигом в понимании феномена интеллект.
Советую обязательно прочесть этот «меморандум о 5-ти парадигмальных сдвигах», ну или хотя бы прослушать этот 7-минутный подкаст.
Меморандум подготовит вас к обсуждению «апрельских тезисов» Левина (в следующем посте) о парадигмальной революции, назначение которой – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества.
#ParadigmsofIntelligence #DiverseIntelligence
ИИ – лишь мост к многообразию разума
Уже в 2030-е земная цивилизация станет постчеловеческой
Ноосфера будет создаваться не только людьми, но и новыми типами разумных существ — биороботами, киборгами, химерами, гибротами, биосинтетиками и еще пока не известными нам нетрадиционными формами разума с более сложными когнитивными способностями, чем у людей. А основой культуры на планете станет культура синтбиоза - совместная эволюция многообразия разумных видов.
Комментируя осенью 2024 материализацию своего прогнозного сценария 2021 года о превращении привычного нам мира в «мир химер», я написал пост, озаглавленный так -
Этими тремя классами были биохимеры (гибриды тела и чужих органов), инфохимеры (гибриды мозга и чужого разума) и материализованные дигитанты» (гибриды “души” и чужих чувств).
А к лету 2025 эта тема уже вошла в официальный научный дискурс. Опубликованная в конце апреля в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» стала своего рода «апрельскими тезисами» начинающейся парадигмальной революции - кардинального переосмысления нашего понимания, что такое интеллект, разум и жизнь.
Следующим событием в этом ряду станет проходящая в июне 1-я Международная онлайн-конференция журнала Philosophies «Разумное исследование разума», на которой тема переосмысления понимания разума будет одной из центральных. Звёздный состав спикеров конференции (Стивен Вольфрам, Эндрю Адамацкий, Майкл Левин и др) и тематика их докладов (вычислительные основы разума, возникновение разумного поведения далеко за пределами животного мира, распознавание и общение с нетрадиционным разумом и др), 100%-но вписывающаяся в новую парадигму интеллекта «Проекта Pi» от Google, подтверждают сказанное мною в предыдущем посте – начинается колоссальный парадигмальный сдвиг. Назначение этой парадигмальной революции – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества. Конференция пройдет 10-14 июня. Регистрация для участия бесплатная.
Но вернемся к «апрельским тезисам» Майкла Левина. Эта его работа существует в трех вариантах:
1. рецензированная академическая версия
2. развернутая авторская версия в формате эссе
3. сокращенный вариант эссе, отредактированный для широкой аудитории
Какой из вариантов читать - выбор за вами.
Я бы рекомендовал начать с 3-го варианта. Для предпочитающих слушать я подготовил русскую озвучку полного текста варианта №3 (36-мин). А кому нужна английская озвучка, она есть здесь (32-мин).
Однако, для понимания даже облегченного варианта №3 желательно иметь хотя бы минимальное представление о двух базовых концепциях Левина: Technological Approach to Mind Everywhere (TAME) и Diverse Intelligence (DI). Их описание в моем информарии «ИИ: мост к разнообразию разума» рассредоточено по 23-х статьям Левина и 150 слайдам 5-и его презентаций – докладов.
Описание трактовки Левиным трех основных понятий базовых концепций TAME и DI (жизнь, интеллект, разум), ужатое до одной страницы текста, желающие, в качестве прокачки мозгов, могут прочесть здесь. Понимание трактовки Левиным этих трёх понятий наводит на резкость взгляд через призму TAME и DI на роль ИИ, как моста к многообразию разума и будущему человечества.
Ну а для подписчиков моих лонгридов, совместно с ИИ-Мнемозиной, был написан (и как теперь положено, озвучен ИИ) текст, конкретизирующий одну из ключевых мыслей «апрельских тезисов» Левина о том, как многообразие разума изменит земную цивилизацию (ссылки на лонгрид на разных платформах: 1, 2, 3, 4).
Подписчикам двух высших уровней предоставляется доступ к информарию «Искусственный интеллект: Мост к разнообразию разума», где они могут в диалоге с ИИ-Мнемозиной получать ответы на любые вопросы по этой теме на основе собранных в информарии работ Майкла Левина.
#МирХимер #Химеры
Уже в 2030-е земная цивилизация станет постчеловеческой
Ноосфера будет создаваться не только людьми, но и новыми типами разумных существ — биороботами, киборгами, химерами, гибротами, биосинтетиками и еще пока не известными нам нетрадиционными формами разума с более сложными когнитивными способностями, чем у людей. А основой культуры на планете станет культура синтбиоза - совместная эволюция многообразия разумных видов.
Комментируя осенью 2024 материализацию своего прогнозного сценария 2021 года о превращении привычного нам мира в «мир химер», я написал пост, озаглавленный так -
«Нежить и нелюди уже среди нас… как и было сказано. Два класса химер совершенствуются, третий - появится лет через 10».
Этими тремя классами были биохимеры (гибриды тела и чужих органов), инфохимеры (гибриды мозга и чужого разума) и материализованные дигитанты» (гибриды “души” и чужих чувств).
А к лету 2025 эта тема уже вошла в официальный научный дискурс. Опубликованная в конце апреля в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» стала своего рода «апрельскими тезисами» начинающейся парадигмальной революции - кардинального переосмысления нашего понимания, что такое интеллект, разум и жизнь.
Следующим событием в этом ряду станет проходящая в июне 1-я Международная онлайн-конференция журнала Philosophies «Разумное исследование разума», на которой тема переосмысления понимания разума будет одной из центральных. Звёздный состав спикеров конференции (Стивен Вольфрам, Эндрю Адамацкий, Майкл Левин и др) и тематика их докладов (вычислительные основы разума, возникновение разумного поведения далеко за пределами животного мира, распознавание и общение с нетрадиционным разумом и др), 100%-но вписывающаяся в новую парадигму интеллекта «Проекта Pi» от Google, подтверждают сказанное мною в предыдущем посте – начинается колоссальный парадигмальный сдвиг. Назначение этой парадигмальной революции – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества. Конференция пройдет 10-14 июня. Регистрация для участия бесплатная.
Но вернемся к «апрельским тезисам» Майкла Левина. Эта его работа существует в трех вариантах:
1. рецензированная академическая версия
2. развернутая авторская версия в формате эссе
3. сокращенный вариант эссе, отредактированный для широкой аудитории
Какой из вариантов читать - выбор за вами.
Я бы рекомендовал начать с 3-го варианта. Для предпочитающих слушать я подготовил русскую озвучку полного текста варианта №3 (36-мин). А кому нужна английская озвучка, она есть здесь (32-мин).
Однако, для понимания даже облегченного варианта №3 желательно иметь хотя бы минимальное представление о двух базовых концепциях Левина: Technological Approach to Mind Everywhere (TAME) и Diverse Intelligence (DI). Их описание в моем информарии «ИИ: мост к разнообразию разума» рассредоточено по 23-х статьям Левина и 150 слайдам 5-и его презентаций – докладов.
Описание трактовки Левиным трех основных понятий базовых концепций TAME и DI (жизнь, интеллект, разум), ужатое до одной страницы текста, желающие, в качестве прокачки мозгов, могут прочесть здесь. Понимание трактовки Левиным этих трёх понятий наводит на резкость взгляд через призму TAME и DI на роль ИИ, как моста к многообразию разума и будущему человечества.
Ну а для подписчиков моих лонгридов, совместно с ИИ-Мнемозиной, был написан (и как теперь положено, озвучен ИИ) текст, конкретизирующий одну из ключевых мыслей «апрельских тезисов» Левина о том, как многообразие разума изменит земную цивилизацию (ссылки на лонгрид на разных платформах: 1, 2, 3, 4).
Подписчикам двух высших уровней предоставляется доступ к информарию «Искусственный интеллект: Мост к разнообразию разума», где они могут в диалоге с ИИ-Мнемозиной получать ответы на любые вопросы по этой теме на основе собранных в информарии работ Майкла Левина.
#МирХимер #Химеры