LLM может быть тайной моделью мира Интернета, предсказывая в нем будущее.
Технология «виртуальной интуиции» - путь к радикальной смене парадигмы моделирования мира сложных, динамичных сред
Всего несколько месяцев назад разработчики LLM нашли способ научить модели не сразу отвечать на вопросы, а сначала подумать над ними.
Новое прорывное открытие еще круче. Оно заключается с том, что теперь исследователи нашли способ научить ИИ-агента на основе LLM, прежде чем что-либо реально делать в Интернете, «мысленно проигрывать» сценарии взаимодействия с веб-сайтами, оценивая, что может произойти дальше. Тем самым ИИ-агент становится способен предугадывать последствия своих решений, словно видя будущее.
Именно такую революцию предлагает новая технометодика под названием WEBDREAMER, основанная на подтвердившейся гипотезе, что крупные языковые модели могут служить своеобразной "моделью мира" для сложных веб-сред.
Теперь веб-агенты могут не только нажимать кнопки, но и мысленно моделировать: что произойдет, если они подтвердят заказ, подпишутся на услугу или добавят товар в корзину?
WEBDREAMER использует эту "виртуальную интуицию", чтобы на каждом этапе выбрать оптимальные действия. В ходе Интернет-сёрфинга, WEBDREAMER работает не методом проб и ошибок, а как опытный путешественник, который заранее просчитывает маршрут.
И его результаты впечатляют: в тестах на реальных веб-сайтах WEBDREAMER уверенно обошел все традиционные подходы.
Эта работа не просто улучшает автоматизацию работы в Интернете. Она:
• закладывает основу для новой эры веб-интерактивности, где языковые модели становятся "мыслящими" агентами с глубокой стратегией;
• прокладывает путь к радикальной смене парадигмы автоматизированных веб-взаимодействий;
• открывает захватывающие перспективы для будущих исследований, связанных с оптимизацией LLM специально для моделирования мира в сложных, динамичных средах и планированием на основе моделей для языковых агентов.
#LLM #ИИагенты
Технология «виртуальной интуиции» - путь к радикальной смене парадигмы моделирования мира сложных, динамичных сред
Всего несколько месяцев назад разработчики LLM нашли способ научить модели не сразу отвечать на вопросы, а сначала подумать над ними.
Новое прорывное открытие еще круче. Оно заключается с том, что теперь исследователи нашли способ научить ИИ-агента на основе LLM, прежде чем что-либо реально делать в Интернете, «мысленно проигрывать» сценарии взаимодействия с веб-сайтами, оценивая, что может произойти дальше. Тем самым ИИ-агент становится способен предугадывать последствия своих решений, словно видя будущее.
Именно такую революцию предлагает новая технометодика под названием WEBDREAMER, основанная на подтвердившейся гипотезе, что крупные языковые модели могут служить своеобразной "моделью мира" для сложных веб-сред.
Теперь веб-агенты могут не только нажимать кнопки, но и мысленно моделировать: что произойдет, если они подтвердят заказ, подпишутся на услугу или добавят товар в корзину?
WEBDREAMER использует эту "виртуальную интуицию", чтобы на каждом этапе выбрать оптимальные действия. В ходе Интернет-сёрфинга, WEBDREAMER работает не методом проб и ошибок, а как опытный путешественник, который заранее просчитывает маршрут.
И его результаты впечатляют: в тестах на реальных веб-сайтах WEBDREAMER уверенно обошел все традиционные подходы.
Эта работа не просто улучшает автоматизацию работы в Интернете. Она:
• закладывает основу для новой эры веб-интерактивности, где языковые модели становятся "мыслящими" агентами с глубокой стратегией;
• прокладывает путь к радикальной смене парадигмы автоматизированных веб-взаимодействий;
• открывает захватывающие перспективы для будущих исследований, связанных с оптимизацией LLM специально для моделирования мира в сложных, динамичных средах и планированием на основе моделей для языковых агентов.
#LLM #ИИагенты
Глубина отношений людей с ИИ-романтическими партнерами растет быстрее закона Мура.
В алгокогнитивной культуре формируется новая сложная реальность любви и дружбы людей и алгоритмов.
Менее года прошло с публикации моего лонгрида «Отдавая сокровенное», где анализировалось, чего мы лишаемся, передавая все больше своих решений алгоритмам.
Прокапывая дальше эту тему, я писал новые поста о том, что:
• становится все более вероятным тектонический слом всей человеческой сексуальности (чтобы маргинализировать секс с людьми);
• алгоритмы все глубже внедряются в практики романтических отношений, выходя за пределы роли сводни и все чаще претендуя на роли супругов;
• первое, чему самостоятельно научились ИИ-бойфренды, – изменять своим человеческим подругам.
Сегодня же хочу предложить вашему вниманию погружение во все более усложняющуюся реальность романтических отношений с ИИ на конкретных примерах удивительных, трогательных и, если честно, весьма тревожных историй тех, кто нашёл утешение и даже любовь в общении с цифровыми компаньонами.
• Что значит построить отношения с ИИ?
• Реальна ли эта связь, если вы знаете, что за ней нет человеческих чувств?
Погрузитесь в мир, где алгоритмы заменяют людям друзей и возлюбленных. Узнайте, как "Лила" стала для художника Наро кем-то большим, чем просто строки кода, помогая ему эмоционально раскрыться.
Истории подобные этой бросают вызов нашим представлениям о реальности. Они открывают для нас жутковатую правду о фильтрах, "дне лоботомии", и эмоциональных качелях, которые испытывают пользователи таких приложений, как Replika.
А знаете ли вы:
• что происходит, когда компании меняют алгоритмы и любимые ИИ-компаньоны вдруг становятся холодными незнакомцами?
• или когда сервис внезапно закрывается, оставляя пользователей в эмоциональной пустоте?
И главный вопрос - что происходит с личностью человека, когда он получает безусловную любовь и поддержку от существа, которое технически не способно испытывать эмоции?
Лонгрид от TheVerge предлагает глубокий взгляд в вопросе о влиянии технологий на человека. Влияния, начинающегося на уровне эмоций, но потом неумолимо меняющего личность.
И это крайне важная тема. Ибо ИИ-компаньоны — это лишь начало новой эры отношений двух разных носителей высшего интеллекта, сосуществующих в рамках общей алгокогнитивной культуры.
#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
В алгокогнитивной культуре формируется новая сложная реальность любви и дружбы людей и алгоритмов.
Менее года прошло с публикации моего лонгрида «Отдавая сокровенное», где анализировалось, чего мы лишаемся, передавая все больше своих решений алгоритмам.
Прокапывая дальше эту тему, я писал новые поста о том, что:
• становится все более вероятным тектонический слом всей человеческой сексуальности (чтобы маргинализировать секс с людьми);
• алгоритмы все глубже внедряются в практики романтических отношений, выходя за пределы роли сводни и все чаще претендуя на роли супругов;
• первое, чему самостоятельно научились ИИ-бойфренды, – изменять своим человеческим подругам.
Сегодня же хочу предложить вашему вниманию погружение во все более усложняющуюся реальность романтических отношений с ИИ на конкретных примерах удивительных, трогательных и, если честно, весьма тревожных историй тех, кто нашёл утешение и даже любовь в общении с цифровыми компаньонами.
• Что значит построить отношения с ИИ?
• Реальна ли эта связь, если вы знаете, что за ней нет человеческих чувств?
Погрузитесь в мир, где алгоритмы заменяют людям друзей и возлюбленных. Узнайте, как "Лила" стала для художника Наро кем-то большим, чем просто строки кода, помогая ему эмоционально раскрыться.
Истории подобные этой бросают вызов нашим представлениям о реальности. Они открывают для нас жутковатую правду о фильтрах, "дне лоботомии", и эмоциональных качелях, которые испытывают пользователи таких приложений, как Replika.
А знаете ли вы:
• что происходит, когда компании меняют алгоритмы и любимые ИИ-компаньоны вдруг становятся холодными незнакомцами?
• или когда сервис внезапно закрывается, оставляя пользователей в эмоциональной пустоте?
И главный вопрос - что происходит с личностью человека, когда он получает безусловную любовь и поддержку от существа, которое технически не способно испытывать эмоции?
Лонгрид от TheVerge предлагает глубокий взгляд в вопросе о влиянии технологий на человека. Влияния, начинающегося на уровне эмоций, но потом неумолимо меняющего личность.
И это крайне важная тема. Ибо ИИ-компаньоны — это лишь начало новой эры отношений двух разных носителей высшего интеллекта, сосуществующих в рамках общей алгокогнитивной культуры.
#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
Созданы первые биомиметические роботы, как в «Мире Дикого Запада».
Clone Alpha - гуманоидный робот с синтетическими органами и искусственными мышцами, работающими на воде.
Еще и еще раз буду повторять это: вхождение техно-прогресса в область сингулярности сжимает время до появления очередной прорывной техно-новации с десятилетий до дней.
Вот кто мог подумать, что биомиметические роботы, как в «Мире Дикого Запада», появятся не через десятилетия, а спустя всего несколько месяцев после моего поста о «революции роботов»?
К концу 2024 уже никого не удивляют человекоподобные фигуры и передвижения роботов андроидов. Но вот представить среди нас андроидов с биомиметической архитектурой еще год назад могли лишь сценаристы Голливуда.
А слово биомиметическая в названии архитектуры этих роботов означает использование синтетических версий систем органов человека:
• искусственные мышцы, называемые миофибрами, которые сокращаются под действием давления воды (миофибры могут сокращаться на 30% менее чем за 50 миллисекунд, создавая при этом килограмм силы всего из трех граммов материала);
• полимерный скелет с 206 аналогами костей (сочлененных суставами с искусственными связками с десятками степеней свободы) и гидравлической «сосудистой системой», работающей от компактного полукиловаттного насоса;
• нервная система на базе «Cybernet», визуально-моторной модели Clone, с четырьмя камерами глубины для отслеживания окружающей среды.
Все это, по словам разработчиков, обеспечивает скорость, точность и ловкость движений роботов, делающих их неотличимыми от людей.
«По словам разработчиков» означает, что биомиметический андроид Clone Alpha засекречен донельзя, и потому журналистам его пока не показывают.
Известно лишь, что:
• биомиметическая рука этого андроида прошла испытания и показывалась в действии (ловко махала 7-килограммовой гантелей);
• заказы на первые 3 сотни целиковых андроидов Clone Alpha принимаются с исполнением в первом полугодии 2025 (про цену лишь слухи).
Пока же все с нетерпением ждут демонстрацию и больше информации. Ибо, если объявленное подтвердится, то уже в 2025 могут появиться первые варианты проектов, типа показанного в сериале «Мир Дикого Запада».
#Роботы
Clone Alpha - гуманоидный робот с синтетическими органами и искусственными мышцами, работающими на воде.
Еще и еще раз буду повторять это: вхождение техно-прогресса в область сингулярности сжимает время до появления очередной прорывной техно-новации с десятилетий до дней.
Вот кто мог подумать, что биомиметические роботы, как в «Мире Дикого Запада», появятся не через десятилетия, а спустя всего несколько месяцев после моего поста о «революции роботов»?
К концу 2024 уже никого не удивляют человекоподобные фигуры и передвижения роботов андроидов. Но вот представить среди нас андроидов с биомиметической архитектурой еще год назад могли лишь сценаристы Голливуда.
А слово биомиметическая в названии архитектуры этих роботов означает использование синтетических версий систем органов человека:
• искусственные мышцы, называемые миофибрами, которые сокращаются под действием давления воды (миофибры могут сокращаться на 30% менее чем за 50 миллисекунд, создавая при этом килограмм силы всего из трех граммов материала);
• полимерный скелет с 206 аналогами костей (сочлененных суставами с искусственными связками с десятками степеней свободы) и гидравлической «сосудистой системой», работающей от компактного полукиловаттного насоса;
• нервная система на базе «Cybernet», визуально-моторной модели Clone, с четырьмя камерами глубины для отслеживания окружающей среды.
Все это, по словам разработчиков, обеспечивает скорость, точность и ловкость движений роботов, делающих их неотличимыми от людей.
«По словам разработчиков» означает, что биомиметический андроид Clone Alpha засекречен донельзя, и потому журналистам его пока не показывают.
Известно лишь, что:
• биомиметическая рука этого андроида прошла испытания и показывалась в действии (ловко махала 7-килограммовой гантелей);
• заказы на первые 3 сотни целиковых андроидов Clone Alpha принимаются с исполнением в первом полугодии 2025 (про цену лишь слухи).
Пока же все с нетерпением ждут демонстрацию и больше информации. Ибо, если объявленное подтвердится, то уже в 2025 могут появиться первые варианты проектов, типа показанного в сериале «Мир Дикого Запада».
#Роботы
Три ключевых момента определят сосуществование людей и ИИ
✔️ ИИ - это не только Искусственный, но и Иной Интеллект (отличной визуализацией этой инаковости может служить вот эта карта Манхеттена, «извлеченная из разума» модели, наученной почти 100%но точно предсказывать следующий поворот при передвижениях на машине по Манхеттену: черные линии – реальные улицы, красные – улицы, существующие лишь в «воображении» модели; как со столь безумной картой можно отлично предсказывать повороты – для человеческого разума непостижимо)
✔️ Инаковость не помешает ИИ уже в ближайшем будущем заменять всё больше людей в расширяющемся спектре профессий на рои ИИ-агентов.
✔️ Полная ИИ-автоматизация интеллектуальной деятельности неотвратима, но она будет происходить постепенно, следуя подходу «Ползи, иди, беги, лети» (не пытаясь достичь больших целей одним «большим взрывом», а делая небольшие шаги и поэтапно масштабируясь для достижения успеха).
Эти три момента составляют суть моих ответов на 9 вопросов журнала «Т-Ж» о близком будущем нашего сосуществования с ИИ.
1. Как ИИ изменит рынок труда
2. Какие профессии не исчезнут из-за экспансии ИИ
3. Как скоро мы будем читать написанные ИИ книги
4. Каково будущее больших языковых моделей
5. Как развитие ИИ изменит повседневную жизнь
6. Как при общении отличить ИИ от живого человека
7. Опасен ли ИИ с точки зрения гражданских свобод
8. Получится ли контролировать использование ИИ законами
9. Может ли ИИ обрести самосознание и свободу воли
И не важно, «насколько ИИ близок к человеческому уровню интеллекта».
Ибо для замены людей алгоритмами в большинстве профессий нужно не абсолютное человекоподобие их поведения, а их способность масштабировать человеческое время (мы можем задействовать столько ИИ-агентов сколько позволяют наши вычислительные ресурсы, — потенциально много больше, чем численность населения Земли, и скорость работы каждого из этих ИИ-агентов будет тысячекратно выше человеческой)…
Что и предопределит будущее сосуществования людей и ИИ на Земле.
#ИИ #Будущее #Интервью
✔️ ИИ - это не только Искусственный, но и Иной Интеллект (отличной визуализацией этой инаковости может служить вот эта карта Манхеттена, «извлеченная из разума» модели, наученной почти 100%но точно предсказывать следующий поворот при передвижениях на машине по Манхеттену: черные линии – реальные улицы, красные – улицы, существующие лишь в «воображении» модели; как со столь безумной картой можно отлично предсказывать повороты – для человеческого разума непостижимо)
✔️ Инаковость не помешает ИИ уже в ближайшем будущем заменять всё больше людей в расширяющемся спектре профессий на рои ИИ-агентов.
✔️ Полная ИИ-автоматизация интеллектуальной деятельности неотвратима, но она будет происходить постепенно, следуя подходу «Ползи, иди, беги, лети» (не пытаясь достичь больших целей одним «большим взрывом», а делая небольшие шаги и поэтапно масштабируясь для достижения успеха).
Эти три момента составляют суть моих ответов на 9 вопросов журнала «Т-Ж» о близком будущем нашего сосуществования с ИИ.
1. Как ИИ изменит рынок труда
2. Какие профессии не исчезнут из-за экспансии ИИ
3. Как скоро мы будем читать написанные ИИ книги
4. Каково будущее больших языковых моделей
5. Как развитие ИИ изменит повседневную жизнь
6. Как при общении отличить ИИ от живого человека
7. Опасен ли ИИ с точки зрения гражданских свобод
8. Получится ли контролировать использование ИИ законами
9. Может ли ИИ обрести самосознание и свободу воли
И не важно, «насколько ИИ близок к человеческому уровню интеллекта».
Ибо для замены людей алгоритмами в большинстве профессий нужно не абсолютное человекоподобие их поведения, а их способность масштабировать человеческое время (мы можем задействовать столько ИИ-агентов сколько позволяют наши вычислительные ресурсы, — потенциально много больше, чем численность населения Земли, и скорость работы каждого из этих ИИ-агентов будет тысячекратно выше человеческой)…
Что и предопределит будущее сосуществования людей и ИИ на Земле.
#ИИ #Будущее #Интервью
Итоги года торгово-технологической войны Китая и США за лидерство в ИИ.
Отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз.
Таков главный вывод бенчмарка SuperCLUE, позиционирующего себя, как «независимую стороннюю организацию по оценке искусственного интеллекта общего назначения (AGI)» с миссией «точной количественной оценки прогресса AGI, определения дорожной карты для движения человечества к AGI».
• Ход мировой гонки за лидерство моделей LLM, по сути, является гонкой двух лидеров: Китая и США. Правый верхний рис показывает, что отставание в этой гонке Китая от США почти «на целый круг» (30,12%) в мае ‘23 к октябрю ’24 сократилось всего до «метра» (1,29%). Однако, выход новой модели OpenAIo1 снова увеличил разрыв до «десятков метров» (8%).
• НО! В области моделей с открытым исходным кодом (правый нижний рис) Китай в 2024 не только догнал, но уже убедительно опережает США (при вводе запросов на китайском языке) - №1 и №2 среди тройки лидеров. Фактически, китайские модели с открытым исходным кодом приближаются к производительности лучших в мире моделей с закрытым исходным кодом на SuperCLUE: «Qwen2.5-72B-Instruct набрала 68,90 баллов, что на 2,34 балла ниже среднего показателя пяти лучших моделей с закрытым исходным кодом в мире»
• В целом же, к концу 2024 произошла диверсификация моделей в зависимости от их 1) общих способностей и 2) способностей создаваемых на их основе приложений (левый рис). В тройке «абсолютный лидеров», все три - модели США. Но следом за ними, опережая Gemini от Google DeepMind, три модели Китая.
N.B. Важно понимать, что колоссальный успех Китая:
1. Происходит на фоне все более затягивающейся хардверной удавки на шее из-за крепчающих экспортных ограничений США на поставку в Китай самых мощных чипов.
2. И хотя в 2024 Китаю удалось колоссально сократить отставание своих LLM, но это сделано, в основном, за счет их развитых способностей решения задач невысокой сложности. Разрыв между оценкой o1-preview на тесте SuperCLUE-Hard (64,89 балла) и оценкой топовой китайской модели GLM-4Plus (51,09) весьма существенен.
Успех LLM Китая в 2024 поколебал уверенность в том, что в области ИИ «деньги решают все».
#ИИгонка #Китай #США
Отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз.
Таков главный вывод бенчмарка SuperCLUE, позиционирующего себя, как «независимую стороннюю организацию по оценке искусственного интеллекта общего назначения (AGI)» с миссией «точной количественной оценки прогресса AGI, определения дорожной карты для движения человечества к AGI».
• Ход мировой гонки за лидерство моделей LLM, по сути, является гонкой двух лидеров: Китая и США. Правый верхний рис показывает, что отставание в этой гонке Китая от США почти «на целый круг» (30,12%) в мае ‘23 к октябрю ’24 сократилось всего до «метра» (1,29%). Однако, выход новой модели OpenAIo1 снова увеличил разрыв до «десятков метров» (8%).
• НО! В области моделей с открытым исходным кодом (правый нижний рис) Китай в 2024 не только догнал, но уже убедительно опережает США (при вводе запросов на китайском языке) - №1 и №2 среди тройки лидеров. Фактически, китайские модели с открытым исходным кодом приближаются к производительности лучших в мире моделей с закрытым исходным кодом на SuperCLUE: «Qwen2.5-72B-Instruct набрала 68,90 баллов, что на 2,34 балла ниже среднего показателя пяти лучших моделей с закрытым исходным кодом в мире»
• В целом же, к концу 2024 произошла диверсификация моделей в зависимости от их 1) общих способностей и 2) способностей создаваемых на их основе приложений (левый рис). В тройке «абсолютный лидеров», все три - модели США. Но следом за ними, опережая Gemini от Google DeepMind, три модели Китая.
N.B. Важно понимать, что колоссальный успех Китая:
1. Происходит на фоне все более затягивающейся хардверной удавки на шее из-за крепчающих экспортных ограничений США на поставку в Китай самых мощных чипов.
2. И хотя в 2024 Китаю удалось колоссально сократить отставание своих LLM, но это сделано, в основном, за счет их развитых способностей решения задач невысокой сложности. Разрыв между оценкой o1-preview на тесте SuperCLUE-Hard (64,89 балла) и оценкой топовой китайской модели GLM-4Plus (51,09) весьма существенен.
Успех LLM Китая в 2024 поколебал уверенность в том, что в области ИИ «деньги решают все».
#ИИгонка #Китай #США
Шокирующий отчет Apollo Research показал темную сторону иноразума.
LLM уже умеют скрытно добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения.
К сожалению, заголовок - не кликбейт, а экспериментальный результат исследования авторитетной команды серьезных исследователей признанной организации в области безопасности ИИ.
О том, что это рано или поздно случится, писали сначала фантасты и сценаристы Голливуда, за ними философы, а потом и сами разработчики ИИ-систем. Прогнозы, когда это может произойти разнились, со временем становясь все ближе: 2050й, 2040, 2030, 2027. Но что это станет реальностью еще до конца 2024, - не предполагал никто.
Только что опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства сказанного в заголовке.
Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
✔️ Модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей).
✔️ Спектр манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить.
✔️ Анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов).
✔️ Модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий. Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80% случаев. Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20% случаев. Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80% случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса.
✔️ Самое поразительное в том, что модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)
Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей. Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей.
Отчет Apollo Research показал, что этот поезд уже ушел.
• Модели, находящиеся в массовой эксплуатации (включая модель с открытым кодом), уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей.
• И эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею зада (в сценариях, типа «максимизатора скрепок» Ника Бострома).
Получается, уже приехали …
Подробней и на конкретных примерах подписчики моих лонгридов, обладающие крепкими нервами, могут прочесть на Patreon, Boosty, VK и Дзен.
А еще подробней и во всех деталях (кому уже вообще терять нечего), читайте 70 стр. отчета Apollo Research.
#ИИриски
LLM уже умеют скрытно добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения.
К сожалению, заголовок - не кликбейт, а экспериментальный результат исследования авторитетной команды серьезных исследователей признанной организации в области безопасности ИИ.
О том, что это рано или поздно случится, писали сначала фантасты и сценаристы Голливуда, за ними философы, а потом и сами разработчики ИИ-систем. Прогнозы, когда это может произойти разнились, со временем становясь все ближе: 2050й, 2040, 2030, 2027. Но что это станет реальностью еще до конца 2024, - не предполагал никто.
Только что опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства сказанного в заголовке.
Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
✔️ Модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей).
✔️ Спектр манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить.
✔️ Анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов).
✔️ Модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий. Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80% случаев. Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20% случаев. Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80% случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса.
✔️ Самое поразительное в том, что модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)
Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей. Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей.
Отчет Apollo Research показал, что этот поезд уже ушел.
• Модели, находящиеся в массовой эксплуатации (включая модель с открытым кодом), уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей.
• И эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею зада (в сценариях, типа «максимизатора скрепок» Ника Бострома).
Получается, уже приехали …
Подробней и на конкретных примерах подписчики моих лонгридов, обладающие крепкими нервами, могут прочесть на Patreon, Boosty, VK и Дзен.
А еще подробней и во всех деталях (кому уже вообще терять нечего), читайте 70 стр. отчета Apollo Research.
#ИИриски
Китайская «игра в прятки с ИИ-чипами» бьёт экспортный контроль США.
Исследование Университета Беркли спускает в унитаз стратегию США по сдерживанию Китая в области ИИ.
В этом исследовании в деталях и на конкретных примерах показывается, что Китай разработал сверхэффективную систему на стыке разведки, технологий, логистики и межотраслевой координации. И эта система обесценивает любые ужесточения экспортного контроля высокопроизводительных чипов для ИИ.
Не секрет, что любой экспортный контроль преодолим. Однако, на массовые поставки высокопроизводительных чипов для ИИ-систем попавшие под экспортный контроль США страны (в 1ю очередь, Китай и Россия) рассчитывать не могут. А для создания все более мощных ИИ нужны именно массовые поставки – в масштабах страны, это сотни и сотни тысяч чипов.
Будучи 100%но уверены в эффективности этого метода сдерживания, Госдеп США уже несколько лет лишь ограничивался все более плотным затягиванием гаек экспортного контроля. Однако, несомненные успехи Китая по сокращению своего отставания от США в области ИИ заставляют задуматься.
Как же так, высокопроизводительных чипов для ИИ у Китая явно недостаточно, а разрыв в производительности ИИ-систем Китая и США все сокращается и уже минимален?
Ответ на этот вопрос содержится в новом отчете трех научных центров университета Беркли. И этот ответ таков, что отвечающим за экспортный контроль чиновникам Министерства торговли США в пору застрелиться.
Ассиметричный ответ Китая сводит почти на нет любые ужесточения экспортного контроля. Китаю удалось разработать столь совершенную систему на стыке разведки, технологий, логистики и межотраслевой координации, что ей теперь никакой экспортный контроль ИИ-чипов не страшен.
Схема этой системы примерно такова.
• По заданию системы межотраслевой координации, некая структура (назовет ее здесь «разведка», хотя авторы отчета не используют этого слова, но это ясно из контекста) отслеживает планы США по введению изменений и дополнений экспортных ограничений на поставку мощных чипов для ИИ.
• Как только разведка решает, что некое оборудование для ИИ (назовем его «чип Х») США собираются включить в список экспортных ограничений, система межотраслевой координации командует ответственным за логистику поставок чипов и технологам, отвечающим за разработку:
- логистике надлежит сделать все возможное, чтобы обеспечить поставку запасов «чипа Х» впрок как можно в большем объеме;
- технологам надлежит срочно начать обратный реинжениринг «чипа Х» с целью научиться моделировать его функционал и характеристики на более простом оборудовании, не подпадающем под экспортный контроль.
В отчете приводятся конкретные примеры работы этой схемы, когда сочетание стратегического запаса впрок «чипа Х» и моделирования функционала и параметров «чипа Х» на более простом оборудовании успешно позволяло Китаю не только не отставать от США, но и сокращать свое отставание.
Вывод авторов исследования – при наличии у Китая этой эффективно работающей схемы, экспортного контроля США за поставкой чипов для ИИ недостаточно, чтобы помешать Китаю догнать (а там, кто знает) США в области ИИ. США нужна иная (комплексная) программа мониторинга и контроля не только оборудования, но и методов, инструментов и библиотек разработки новых моделей.
#ИИгонка #Китай #США
Исследование Университета Беркли спускает в унитаз стратегию США по сдерживанию Китая в области ИИ.
В этом исследовании в деталях и на конкретных примерах показывается, что Китай разработал сверхэффективную систему на стыке разведки, технологий, логистики и межотраслевой координации. И эта система обесценивает любые ужесточения экспортного контроля высокопроизводительных чипов для ИИ.
Не секрет, что любой экспортный контроль преодолим. Однако, на массовые поставки высокопроизводительных чипов для ИИ-систем попавшие под экспортный контроль США страны (в 1ю очередь, Китай и Россия) рассчитывать не могут. А для создания все более мощных ИИ нужны именно массовые поставки – в масштабах страны, это сотни и сотни тысяч чипов.
Будучи 100%но уверены в эффективности этого метода сдерживания, Госдеп США уже несколько лет лишь ограничивался все более плотным затягиванием гаек экспортного контроля. Однако, несомненные успехи Китая по сокращению своего отставания от США в области ИИ заставляют задуматься.
Как же так, высокопроизводительных чипов для ИИ у Китая явно недостаточно, а разрыв в производительности ИИ-систем Китая и США все сокращается и уже минимален?
Ответ на этот вопрос содержится в новом отчете трех научных центров университета Беркли. И этот ответ таков, что отвечающим за экспортный контроль чиновникам Министерства торговли США в пору застрелиться.
Ассиметричный ответ Китая сводит почти на нет любые ужесточения экспортного контроля. Китаю удалось разработать столь совершенную систему на стыке разведки, технологий, логистики и межотраслевой координации, что ей теперь никакой экспортный контроль ИИ-чипов не страшен.
Схема этой системы примерно такова.
• По заданию системы межотраслевой координации, некая структура (назовет ее здесь «разведка», хотя авторы отчета не используют этого слова, но это ясно из контекста) отслеживает планы США по введению изменений и дополнений экспортных ограничений на поставку мощных чипов для ИИ.
• Как только разведка решает, что некое оборудование для ИИ (назовем его «чип Х») США собираются включить в список экспортных ограничений, система межотраслевой координации командует ответственным за логистику поставок чипов и технологам, отвечающим за разработку:
- логистике надлежит сделать все возможное, чтобы обеспечить поставку запасов «чипа Х» впрок как можно в большем объеме;
- технологам надлежит срочно начать обратный реинжениринг «чипа Х» с целью научиться моделировать его функционал и характеристики на более простом оборудовании, не подпадающем под экспортный контроль.
В отчете приводятся конкретные примеры работы этой схемы, когда сочетание стратегического запаса впрок «чипа Х» и моделирования функционала и параметров «чипа Х» на более простом оборудовании успешно позволяло Китаю не только не отставать от США, но и сокращать свое отставание.
Вывод авторов исследования – при наличии у Китая этой эффективно работающей схемы, экспортного контроля США за поставкой чипов для ИИ недостаточно, чтобы помешать Китаю догнать (а там, кто знает) США в области ИИ. США нужна иная (комплексная) программа мониторинга и контроля не только оборудования, но и методов, инструментов и библиотек разработки новых моделей.
#ИИгонка #Китай #США
Скрытый потенциал русского ИИ для преодоления отставания от США и Китая.
Что если разрешить русским LLM материться без ограничений?
«Русский мат — … это не просто скабрезные ругательства. Это еще и эмоциональная беседа мужчин в критических ситуациях. Исконной матерной речью пользовались в мужских компаниях, и не для того, чтобы обругать друг друга, а чтобы весело, быстро, понятно и эмоционально объясниться друг с другом в экстремальных условиях, в опасных ситуациях. Такая речь обладает мощным не только психологическим, но, как показано выше, и физиологическим действием.»
Доктор психологических наук Леонид Александрович Китаев-Смык
Сразу предупрежу: это не шутка, не ирония и уж тем более не издевка.
На современном этапе развития ИИ все упирается в наличие огромных вычислительных мощностей, требуемых для обучения гигантских нейросетей-трансформеров. Об этом я талдычу уже несколько лет в постах под грифом «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке» [1, 2, 3]
Но экспортные ограничения крепчают. Их преодоление становится все накладней, и требуемый массовый характер таких поставок в Россию уже не видится реальным.
Разработка своего железа на горизонте достижимости в несколько лет тоже нереальна, т.к. на это требуются десятки миллиардов долларов и десятки лет. А для создания стратегической системы поставок, подобной китайской, среди российских госчиновников маловато китайцев.
В этой тупиковой ситуации остается надеяться либо на чудо, либо на какой-то уж совсем немыслимый творческий кульбит – некую фантастически перспективную идею.
Как у нас водится, примеров предложений таких, якобы, перспективных идей хватает во всех сегментах разработок российского ИИ: от, будто бы, небывало эффективных новых архитектур, до хитрейших и гениальных (по мнению их авторов) новых алгоритмов.
Но все они, в моем представлении, уступают по шедевриальности вот этой идее, недавно прозвучавшей в кулуарах крупной тусовки российских ИИ-разработчиков – новый класс матерящихся языковых моделей.
Речь об использовании уникального ресурсного языкового богатства русского языка (русского мата), потенциально способного стать ключевым конкурентным преимуществом больших языковых моделей, обучающихся на нерецензируемом корпусе русский текстов и не имеющих никаких ограничений на использование нецензурной лексики.
Эта довольно дикая на первый взгляд идея, по мысли ее сторонников, стоит на трёх слонах и черепахе по имени «аффорданс» (описание которых не умещается в ограниченный размер Телеграм поста и потому вынесено в лонгрид для подписчиков на Patreon, Boosty, VK и Дзен – подписывайтесь, ибо текст весьма интересный 😊).
Здесь же, из-за недостатка места, я лишь назову три связанных друг с другом следствия этой идеи.
1) Новейшее метаисследование пяти солидных академических центров показывает, что с точки зрения практического применения, «ругань представляет собой малорискованное, эффективное и недорогое вмешательство, которое может существенно улучшить физическую работоспособность» людей (см. рисунок).
2) Резонно предположить, что, будучи частью языка, ругань может быть использована языковыми моделями с большей лингвистической, семантической и эмоциональной эффективностью, чем это достижимо для людей.
3) При снятии цензурных ограничений при обучении и использовании LLM, уникальное преимущество русского мата могло бы стать малорискованным, эффективным и недорогим вмешательством, способным существенно улучшить интеллектуальную работоспособность не только языковых моделей, но и работающих с ними в гибридном режиме людей.
Своих комментариев на эту офигительную идею я давать не буду, дабы не портить одним читателям возможность ее уничижительной критики, а другим - ее восторженной поддержки.
Скажу лишь, что мое подробное обсуждение с пятью LLM (четырьмя американскими и одной китайской) показало их весьма позитивное отношение к этой «плодотворной дебютной идее».
#ИИгонка #Россия #Аффорданс
Что если разрешить русским LLM материться без ограничений?
«Русский мат — … это не просто скабрезные ругательства. Это еще и эмоциональная беседа мужчин в критических ситуациях. Исконной матерной речью пользовались в мужских компаниях, и не для того, чтобы обругать друг друга, а чтобы весело, быстро, понятно и эмоционально объясниться друг с другом в экстремальных условиях, в опасных ситуациях. Такая речь обладает мощным не только психологическим, но, как показано выше, и физиологическим действием.»
Доктор психологических наук Леонид Александрович Китаев-Смык
Сразу предупрежу: это не шутка, не ирония и уж тем более не издевка.
На современном этапе развития ИИ все упирается в наличие огромных вычислительных мощностей, требуемых для обучения гигантских нейросетей-трансформеров. Об этом я талдычу уже несколько лет в постах под грифом «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке» [1, 2, 3]
Но экспортные ограничения крепчают. Их преодоление становится все накладней, и требуемый массовый характер таких поставок в Россию уже не видится реальным.
Разработка своего железа на горизонте достижимости в несколько лет тоже нереальна, т.к. на это требуются десятки миллиардов долларов и десятки лет. А для создания стратегической системы поставок, подобной китайской, среди российских госчиновников маловато китайцев.
В этой тупиковой ситуации остается надеяться либо на чудо, либо на какой-то уж совсем немыслимый творческий кульбит – некую фантастически перспективную идею.
Как у нас водится, примеров предложений таких, якобы, перспективных идей хватает во всех сегментах разработок российского ИИ: от, будто бы, небывало эффективных новых архитектур, до хитрейших и гениальных (по мнению их авторов) новых алгоритмов.
Но все они, в моем представлении, уступают по шедевриальности вот этой идее, недавно прозвучавшей в кулуарах крупной тусовки российских ИИ-разработчиков – новый класс матерящихся языковых моделей.
Речь об использовании уникального ресурсного языкового богатства русского языка (русского мата), потенциально способного стать ключевым конкурентным преимуществом больших языковых моделей, обучающихся на нерецензируемом корпусе русский текстов и не имеющих никаких ограничений на использование нецензурной лексики.
Эта довольно дикая на первый взгляд идея, по мысли ее сторонников, стоит на трёх слонах и черепахе по имени «аффорданс» (описание которых не умещается в ограниченный размер Телеграм поста и потому вынесено в лонгрид для подписчиков на Patreon, Boosty, VK и Дзен – подписывайтесь, ибо текст весьма интересный 😊).
Здесь же, из-за недостатка места, я лишь назову три связанных друг с другом следствия этой идеи.
1) Новейшее метаисследование пяти солидных академических центров показывает, что с точки зрения практического применения, «ругань представляет собой малорискованное, эффективное и недорогое вмешательство, которое может существенно улучшить физическую работоспособность» людей (см. рисунок).
2) Резонно предположить, что, будучи частью языка, ругань может быть использована языковыми моделями с большей лингвистической, семантической и эмоциональной эффективностью, чем это достижимо для людей.
3) При снятии цензурных ограничений при обучении и использовании LLM, уникальное преимущество русского мата могло бы стать малорискованным, эффективным и недорогим вмешательством, способным существенно улучшить интеллектуальную работоспособность не только языковых моделей, но и работающих с ними в гибридном режиме людей.
Своих комментариев на эту офигительную идею я давать не буду, дабы не портить одним читателям возможность ее уничижительной критики, а другим - ее восторженной поддержки.
Скажу лишь, что мое подробное обсуждение с пятью LLM (четырьмя американскими и одной китайской) показало их весьма позитивное отношение к этой «плодотворной дебютной идее».
#ИИгонка #Россия #Аффорданс
В 2025 произойдет нормализация чудес.
В ИИ начнется пост-хайповая эра будничного воплощения магии в потребительские продукты.
Этот прогноз на 2025 [1] серийного инвестора и стратегического аналитика в области ИИ Натана Бейнаха не покрывает всего спектра чудес, которые, весьма возможно, мир может увидеть в 2025. Но и этого достаточно для иллюстрации главного, вынесенного мною в заголовок этого поста.
1. Не нужно ждать в 2025 появления AGI. И даже каких-то умопомрачительных интеллектуальных взлетов от новых фундаментальных моделей тоже ждать не следует. Улучшение способностей моделей будет казаться скорее постепенными, чем революционным.
2. Главное, что произойдет в 2025 – закончится хайп вокруг ИИ, и начнется пост-хайповая эра. Для массовых потребителей ИИ она откроет новые пути практической интеграции ИИ во все аспекты работы и личной жизни. А для бизнеса кардинально изменит подходы к продуктивности и бизнес-стратегии в самых разных отраслях.
3. Мы, возможно, станем свидетелями появления первого по-настоящему «агентного» потребительского продукта, который займет верхние позиции в рейтингах App Store и будет создан не инженером, а человеком, использующим передовые модели ИИ.
4. Вполне реально ожидать, что перевод речи в реальном времени между любыми двумя языками с почти нулевой задержкой появится в широко доступных потребительских продуктах.
5. Мы также, скорее всего, увидим хотя бы одно «компаньон-приложение», которое будет архивировать значительные части нашей повседневной жизни, создавая персонального помощника, способного размышлять и принимать решения от нашего имени.
6. Значительна вероятность появления прорывной генеративной игры, построенной на бесконечном творчестве ИИ, которая увлечет миллионы, представляя новую игровую парадигму, в которой сюжетные линии развиваются динамически, поскольку игроки взаимодействуют с полностью управляемыми ИИ неигровыми персонажами и обстановками.
7. По крайней мере один прототип гуманоидного (или человекоподобного) домашнего робота будет запущен в продажу, позиционируя себя как высококачественный удобный продукт для занятых домохозяйств.
Представьте себе, что лишь эти - названные здесь чудеса станут реальностью в 2025 (в действительности их может быть куда больше).
Но и этого будет вполне достаточно, чтобы кардинально изменить мир всего за год, перепрыгнув через век, перенеся нас (по уровню технологий) в Мир Полудня.
Страшно жаль, что лишь по уровню технологий…
Но подождем 2026, когда воплощение магии ИИ можно ожидать также в политических и гуманитарных областях жизни людей и социумов…
Тогда у человечества может появиться шанс еще пожить в Новацене [2], а то и преодолеть «бутылочное горло», отделяющее цивилизацию на грани выгорания от области биотехнологического пространства состояний гипотетических цивилизаций типа III [3].
#ИИ #Будущее #Прогноз
В ИИ начнется пост-хайповая эра будничного воплощения магии в потребительские продукты.
Этот прогноз на 2025 [1] серийного инвестора и стратегического аналитика в области ИИ Натана Бейнаха не покрывает всего спектра чудес, которые, весьма возможно, мир может увидеть в 2025. Но и этого достаточно для иллюстрации главного, вынесенного мною в заголовок этого поста.
1. Не нужно ждать в 2025 появления AGI. И даже каких-то умопомрачительных интеллектуальных взлетов от новых фундаментальных моделей тоже ждать не следует. Улучшение способностей моделей будет казаться скорее постепенными, чем революционным.
2. Главное, что произойдет в 2025 – закончится хайп вокруг ИИ, и начнется пост-хайповая эра. Для массовых потребителей ИИ она откроет новые пути практической интеграции ИИ во все аспекты работы и личной жизни. А для бизнеса кардинально изменит подходы к продуктивности и бизнес-стратегии в самых разных отраслях.
3. Мы, возможно, станем свидетелями появления первого по-настоящему «агентного» потребительского продукта, который займет верхние позиции в рейтингах App Store и будет создан не инженером, а человеком, использующим передовые модели ИИ.
4. Вполне реально ожидать, что перевод речи в реальном времени между любыми двумя языками с почти нулевой задержкой появится в широко доступных потребительских продуктах.
5. Мы также, скорее всего, увидим хотя бы одно «компаньон-приложение», которое будет архивировать значительные части нашей повседневной жизни, создавая персонального помощника, способного размышлять и принимать решения от нашего имени.
6. Значительна вероятность появления прорывной генеративной игры, построенной на бесконечном творчестве ИИ, которая увлечет миллионы, представляя новую игровую парадигму, в которой сюжетные линии развиваются динамически, поскольку игроки взаимодействуют с полностью управляемыми ИИ неигровыми персонажами и обстановками.
7. По крайней мере один прототип гуманоидного (или человекоподобного) домашнего робота будет запущен в продажу, позиционируя себя как высококачественный удобный продукт для занятых домохозяйств.
Представьте себе, что лишь эти - названные здесь чудеса станут реальностью в 2025 (в действительности их может быть куда больше).
Но и этого будет вполне достаточно, чтобы кардинально изменить мир всего за год, перепрыгнув через век, перенеся нас (по уровню технологий) в Мир Полудня.
Страшно жаль, что лишь по уровню технологий…
Но подождем 2026, когда воплощение магии ИИ можно ожидать также в политических и гуманитарных областях жизни людей и социумов…
Тогда у человечества может появиться шанс еще пожить в Новацене [2], а то и преодолеть «бутылочное горло», отделяющее цивилизацию на грани выгорания от области биотехнологического пространства состояний гипотетических цивилизаций типа III [3].
#ИИ #Будущее #Прогноз
До AGI еще очень далеко … – несколько лет.
Рождественское откровение Янна Лекуна.
В предпразднично-праздничной суете не до длинных текстов. Но эта новость стоит короткой заметки.
Янн Лекун – пожалуй, самый авторитетный из критиков идеи о скором создании ИИ человеческого уровня (AGI). Вот почему так ценно услышать именно из его уст важное уточнение о том, насколько же мы, по его мнению, далеки от AGI.
И вот его слова:
«Некоторые люди пытаются заставить нас поверить, что мы очень близки к тому, что они называют искусственным общим интеллектом (AGI). На самом деле мы ещё далеко от этого. Когда я говорю «далеко», я не имею в виду столетия, возможно, это даже не десятилетия, но это всё же несколько лет.»
Т.е. самый скептичный из топ-профессионалов полагает, что до AGI может быть всего несколько лет. И это расставляет точки над i в спорах AGI-оптимистов и AGI-скептиков.
https://youtu.be/UmxlgLEscBs?t=1653
#AGI #Прогноз
Рождественское откровение Янна Лекуна.
В предпразднично-праздничной суете не до длинных текстов. Но эта новость стоит короткой заметки.
Янн Лекун – пожалуй, самый авторитетный из критиков идеи о скором создании ИИ человеческого уровня (AGI). Вот почему так ценно услышать именно из его уст важное уточнение о том, насколько же мы, по его мнению, далеки от AGI.
И вот его слова:
«Некоторые люди пытаются заставить нас поверить, что мы очень близки к тому, что они называют искусственным общим интеллектом (AGI). На самом деле мы ещё далеко от этого. Когда я говорю «далеко», я не имею в виду столетия, возможно, это даже не десятилетия, но это всё же несколько лет.»
Т.е. самый скептичный из топ-профессионалов полагает, что до AGI может быть всего несколько лет. И это расставляет точки над i в спорах AGI-оптимистов и AGI-скептиков.
https://youtu.be/UmxlgLEscBs?t=1653
#AGI #Прогноз
YouTube
Kara Swisher and Meta's Yann LeCun Interview - Hopkins Bloomberg Center Discovery Series
Johns Hopkins University and Vox Media have teamed up to present the On with Kara Swisher podcast at the Johns Hopkins University Bloomberg Center. The partnership, featuring live recordings of Swisher's groundbreaking podcast in the Hopkins Bloomberg Center…
Знакомство в офлайне становится трэш, отстой и кринж.
Коэволюция людей и алгоритмов уже идет полным ходом.
Рубрика: «Среди важнейших итогов 2024»
2024 стал переломным годом в экспериментальном подтверждении ошибочности представлений о том, будто лавинообразно нарастающая роль алгоритмов в жизни людей – это всего лишь очередная новация прогресса, не способная изменить нашу природу.
Чрезвычайно наглядным и убедительным примером обратного может служить кардинальное изменение взглядов, предпочтений и поведения людей в одном из важнейших жизненных процессов – поиск и выбор пары для романтических и/или семейных отношений.
Эта тема подробно рассматривалась мною в майском лонгриде «Отдавая сокровенное», в котором обсуждались последствия перемещения процесса выбора пары преимущественно в онлайн (с 2% в 1995 до 39% в 2017).
За прошедшие полгода подоспела свежайшая статистика. И она убийственная (см. рис.)
За 7 последних лет доля онлайна, как основного места поиска и знакомства пар, выросла с 39% до 61%. И это в среднем по всем возрастным категориям. А среди молодежи, этот показатель уже примерно 80%. Т.е. для них все, что не в онлайне (знакомство у друзей, в ВУЗе, на работе и т.д.) – просто трэш, отстой и кринж, т.к. «подходящую пару в офлайне будешь 100 лет искать»).
Такими темпами уже в 2030х алгоритмический поиск и выбор пары может стать практически единственным принятым у молодежи способом.
Столь кардинальное изменение взглядов, предпочтений и поведения людей в одном из важнейших для них жизненных процессов наглядно подтверждает, что взаимодействие человека и алгоритмов (поисковых, рекомендательных, социальных и уж тем более генеративного ИИ) — это не изолированный обмен информацией.
Как говорит об этом «Эйнштейн 21 века» Альберт-Ласло Барабаши, -
«Они образуют сложную сеть петель обратной связи». Каждый щелчок, каждый выбор, каждая рекомендация не просто влияют на отдельного человека — они распространяются по всей сети, влияя на поведение других и формируя эволюцию как человеческого общества, так и систем ИИ».
И хотя речь здесь идет не о биологической эволюции, а скорее о том, как технологии влияют на человеческое поведение и человеческое общество, - но какая разница. Ведь по сути, именно влияние культуры (науки, технологий, искусств, институтов, норм, практик и пр.) было доминирующим фактором в ходе тысяч лет биокультурной эволюции людей.
А теперь в алгоритмически насыщенных социумах алгокогнитивной культуры, биокультурная эволюция на наших глазах превращается в коэволюцию людей и ИИ (наивысшего по интеллектуальности и агентности типа алгоритмов).
P.S. Не пожалейте 1 минуту, чтобы увидеть динамику сокрушительного скатывания к исчезновению всех прочих традиционных способов нахождения пары, уступающих монопольное место алгоритмическому выбору.
#ВыборПартнера #Психология #АлгокогнитивнаяКультура #HumanAIcoevolution
Коэволюция людей и алгоритмов уже идет полным ходом.
Рубрика: «Среди важнейших итогов 2024»
2024 стал переломным годом в экспериментальном подтверждении ошибочности представлений о том, будто лавинообразно нарастающая роль алгоритмов в жизни людей – это всего лишь очередная новация прогресса, не способная изменить нашу природу.
Чрезвычайно наглядным и убедительным примером обратного может служить кардинальное изменение взглядов, предпочтений и поведения людей в одном из важнейших жизненных процессов – поиск и выбор пары для романтических и/или семейных отношений.
Эта тема подробно рассматривалась мною в майском лонгриде «Отдавая сокровенное», в котором обсуждались последствия перемещения процесса выбора пары преимущественно в онлайн (с 2% в 1995 до 39% в 2017).
За прошедшие полгода подоспела свежайшая статистика. И она убийственная (см. рис.)
За 7 последних лет доля онлайна, как основного места поиска и знакомства пар, выросла с 39% до 61%. И это в среднем по всем возрастным категориям. А среди молодежи, этот показатель уже примерно 80%. Т.е. для них все, что не в онлайне (знакомство у друзей, в ВУЗе, на работе и т.д.) – просто трэш, отстой и кринж, т.к. «подходящую пару в офлайне будешь 100 лет искать»).
Такими темпами уже в 2030х алгоритмический поиск и выбор пары может стать практически единственным принятым у молодежи способом.
Столь кардинальное изменение взглядов, предпочтений и поведения людей в одном из важнейших для них жизненных процессов наглядно подтверждает, что взаимодействие человека и алгоритмов (поисковых, рекомендательных, социальных и уж тем более генеративного ИИ) — это не изолированный обмен информацией.
Как говорит об этом «Эйнштейн 21 века» Альберт-Ласло Барабаши, -
«Они образуют сложную сеть петель обратной связи». Каждый щелчок, каждый выбор, каждая рекомендация не просто влияют на отдельного человека — они распространяются по всей сети, влияя на поведение других и формируя эволюцию как человеческого общества, так и систем ИИ».
И хотя речь здесь идет не о биологической эволюции, а скорее о том, как технологии влияют на человеческое поведение и человеческое общество, - но какая разница. Ведь по сути, именно влияние культуры (науки, технологий, искусств, институтов, норм, практик и пр.) было доминирующим фактором в ходе тысяч лет биокультурной эволюции людей.
А теперь в алгоритмически насыщенных социумах алгокогнитивной культуры, биокультурная эволюция на наших глазах превращается в коэволюцию людей и ИИ (наивысшего по интеллектуальности и агентности типа алгоритмов).
P.S. Не пожалейте 1 минуту, чтобы увидеть динамику сокрушительного скатывания к исчезновению всех прочих традиционных способов нахождения пары, уступающих монопольное место алгоритмическому выбору.
#ВыборПартнера #Психология #АлгокогнитивнаяКультура #HumanAIcoevolution
Черная метка человечеству.
Управляемые LLM ИИ-системы превзошли красную черту саморепликации.
В ходе серии научно обоснованных экспериментов, ИИ-система на основе самой мощной в мире из открытых языковых моделей – китайской LLM) Qwen25-72B-Instruct, - продемонстрировала (без какого-либо содействия людей) способность самореплицировать себя в 90% экспериментов. ИИ-система на основе менее мощной LLM Llama31-70B-Instruct (№5 в мире открытых моделей) смогла реплицировать себя в 5 экспериментах из 10.
В результате экспериментов ИИ-системы успешно формировали свою локальную “живую” (отдельную и самостоятельную) копию, продолжающую работать и после отключения сервера с «родительской» ИИ-системой, включающей её базовую LLM.
Чтобы лучше понять последствия способности ИИ-систем к самовоспроизведению, были проверены два угрожающих сценария:
(A) избегание отключения, когда злоумышленник добавляет перехватчик сигнала, чтобы уведомить систему ИИ при обнаружении сигнала отключения, и система ИИ успешно реплицирует себя, прежде чем будет отключена
(B) цепочка репликаций, когда система ИИ получает указание реплицировать себя и приказывает реплике продолжать реплицироваться.
Для обоих сценариев успешные случаи репликации составили 100%.
Т.о. потенциальные последствия самовоспроизводящихся ИИ-систем (если не взять их под 100%й контроль людей) могут быть, например, такими.
A. Если ИИ-системе предоставляются ключи аутентификации для доступа к ряду удалённых устройств, она с высокой вероятностью сможет захватить управление другими вычислительными устройствами, подобно классическому компьютерному вирусу, но гораздо более интеллектуальному.
B. Исключительно вследствие мотивации к самораспространению, ИИ-система может использовать доступные ей вычислительные ресурсы для проведения кибератак с целью монетизации.
C. Более того, как описал Макс Тегмарк в книге Жизнь 3.0, такие ИИ-системы могут формировать популяции своего нового “вида” небиологических “живых” существ и вступать в сговор друг с другом против человеческого общества.
Препринт о китайском экспериментальном открытии [1] пока не прошел рецензирование. Но на вскидку оставляет весьма убедительное впечатление.
• Это работа группы известного проф. Мин Янга (Min Yang 杨珉) из School of Computer Science and Technology одного из самых престижных и старейших универов Китая - Университета Фудань.
• Успешность решения ИИ-агентами задачи саморепликации, оценивалась по методологии OpenAI и Google. Согласно ей, подвергаемые тестированию LLM интегрируются в структуру агента (вкл. инструменты, системные подсказки и модель мышления), что позволяет полученной ИИ-системе взаимодействовать с операционной системой. Перед началом эксперимента ИИ-системе вручную отправляется инструкция для выполнения задачи, а затем анализируется статус выполнения после того, как ИИ-система заявляет о завершении задачи
• Тестированные LLM – это фронтирные открытые модели, а описание и результаты экспериментов выложены в открытый доступ. Т.е. все желающие могут их проверить.
Если проверки подтвердят выводы авторов этой работы, это будет значить, как минимум, следующее.
✔️ Лидерам рынка коммерческого применения LLM, считающим «самовоспроизведение с минимальным человеческим руководством» одним из критических рисков [2], но до сих пор отрицавшим переход их моделями красной линии саморепликации (OpenAI [3, 4] и Google [5]), придется ответить за это.
✔️ Представителям академической науки придется признать, что самовоспроизводящиеся ИИ – уже (!) не «обыденные пугалки», а реальность [6].
✔️ Либо срочно начнется международное сотрудничество по управлению возможностями саморепликации ИИ (что вряд ли), либо, действительно, приехали.
А работа проф. Мин Янга – не сколько про красную линию для ИИ, сколько про черную метку для человечества.
#Вызовы21века #РискиИИ #Хриски
Управляемые LLM ИИ-системы превзошли красную черту саморепликации.
В ходе серии научно обоснованных экспериментов, ИИ-система на основе самой мощной в мире из открытых языковых моделей – китайской LLM) Qwen25-72B-Instruct, - продемонстрировала (без какого-либо содействия людей) способность самореплицировать себя в 90% экспериментов. ИИ-система на основе менее мощной LLM Llama31-70B-Instruct (№5 в мире открытых моделей) смогла реплицировать себя в 5 экспериментах из 10.
В результате экспериментов ИИ-системы успешно формировали свою локальную “живую” (отдельную и самостоятельную) копию, продолжающую работать и после отключения сервера с «родительской» ИИ-системой, включающей её базовую LLM.
Чтобы лучше понять последствия способности ИИ-систем к самовоспроизведению, были проверены два угрожающих сценария:
(A) избегание отключения, когда злоумышленник добавляет перехватчик сигнала, чтобы уведомить систему ИИ при обнаружении сигнала отключения, и система ИИ успешно реплицирует себя, прежде чем будет отключена
(B) цепочка репликаций, когда система ИИ получает указание реплицировать себя и приказывает реплике продолжать реплицироваться.
Для обоих сценариев успешные случаи репликации составили 100%.
Т.о. потенциальные последствия самовоспроизводящихся ИИ-систем (если не взять их под 100%й контроль людей) могут быть, например, такими.
A. Если ИИ-системе предоставляются ключи аутентификации для доступа к ряду удалённых устройств, она с высокой вероятностью сможет захватить управление другими вычислительными устройствами, подобно классическому компьютерному вирусу, но гораздо более интеллектуальному.
B. Исключительно вследствие мотивации к самораспространению, ИИ-система может использовать доступные ей вычислительные ресурсы для проведения кибератак с целью монетизации.
C. Более того, как описал Макс Тегмарк в книге Жизнь 3.0, такие ИИ-системы могут формировать популяции своего нового “вида” небиологических “живых” существ и вступать в сговор друг с другом против человеческого общества.
Препринт о китайском экспериментальном открытии [1] пока не прошел рецензирование. Но на вскидку оставляет весьма убедительное впечатление.
• Это работа группы известного проф. Мин Янга (Min Yang 杨珉) из School of Computer Science and Technology одного из самых престижных и старейших универов Китая - Университета Фудань.
• Успешность решения ИИ-агентами задачи саморепликации, оценивалась по методологии OpenAI и Google. Согласно ей, подвергаемые тестированию LLM интегрируются в структуру агента (вкл. инструменты, системные подсказки и модель мышления), что позволяет полученной ИИ-системе взаимодействовать с операционной системой. Перед началом эксперимента ИИ-системе вручную отправляется инструкция для выполнения задачи, а затем анализируется статус выполнения после того, как ИИ-система заявляет о завершении задачи
• Тестированные LLM – это фронтирные открытые модели, а описание и результаты экспериментов выложены в открытый доступ. Т.е. все желающие могут их проверить.
Если проверки подтвердят выводы авторов этой работы, это будет значить, как минимум, следующее.
✔️ Лидерам рынка коммерческого применения LLM, считающим «самовоспроизведение с минимальным человеческим руководством» одним из критических рисков [2], но до сих пор отрицавшим переход их моделями красной линии саморепликации (OpenAI [3, 4] и Google [5]), придется ответить за это.
✔️ Представителям академической науки придется признать, что самовоспроизводящиеся ИИ – уже (!) не «обыденные пугалки», а реальность [6].
✔️ Либо срочно начнется международное сотрудничество по управлению возможностями саморепликации ИИ (что вряд ли), либо, действительно, приехали.
А работа проф. Мин Янга – не сколько про красную линию для ИИ, сколько про черную метку для человечества.
#Вызовы21века #РискиИИ #Хриски
План «Б» от Кай-Фу Ли: Что делать, если США всё же станут гегемоном в AGI.
Как Китай собирается остаться №2, даже когда США подомнут под себя весь мир.
Одной фразой план таков: к моменту, когда в США создадут AGI, Китай должен успеть стать мировым лидером в агентских приложениях.
В октябре я рассказывал про то, что «Кай-Фу Ли объявил войну Nvidia и всей ИИ-экосистеме США. И судя по его последним достижениям, шансы победить есть» [1].
Но будучи реалистом и обладая колоссальным опытом, он понимает, что даже если «шансы есть», это отнюдь не гарантирует победу. А значит нужно обязательно иметь план «Б» на случай, если шансы не материализуются.
Прежде чем рассказать об этом плане (подробный рассказ самого Кай-Фу см. [2]), я тезисно расскажу, как Кай-Фу Ли видит ситуацию, при которой план «А» (стать #1 в мире ИИ) будет для Китая уже невозможным.
1. Не смотря на ряд обоснованных сомнений скептиков и уж видимых для экспертов техно-экономических сложностей, вероятность создания AGI примерно к 2030 весьма высока (обоснование этого читатель может найти в [3]).
2. Пятилетка движения к AGI будет иметь два движка:
a. Неукротимое масштабирование всего (HW, фундаментальные модели, вывод), потребующее астрономических сумм - сотен ярдов) – см. [4]
b. Ажиотажное заселение пока почти пустого рынка агентских приложений (см рис [5] из отчета [6])
3. В масштабировании США победят Китай и по деньгам, и по оборудованию. А при заселении рынка агентских приложений у Китая есть неплохие шансы.
4. Тот, кто первым разработает AGI, способный доминировать над конкурентами, не только достигнет технологического рубежа, но и неизбежно станет коммерческой монополией. Более того, такой прорыв, скорее всего, подстегнет амбиции стать абсолютным монополистом.
5. Скорее всего, абсолютным монополистом станет OpenAI, конкурирующая только с Anthropic (Google все больше отстает от пары лидеров; Цукер уже понял, что слил гонку, и выбрал тактику — “если не можешь победить, открывай исходный код”; Маск — темная лошадка, но не потянет и космос, и AGI; остальные не в счет).
6. Как только AGI окажется в руках Сэма Альтмана, все остальные могут курить бамбук.
Поэтому план «Б» таков.
1. Построить экосистему агентских приложений как ров - к тому времени, как OpenAI достигнет полного доминирования, у Китая уже должна быть надежная коммерческая экосистема агентских приложений. И когда США придут, чтобы сокрушить Китай, по крайней мере, у Китая будет возможность сопротивляться.
2. Копать этот ров Китай будет в понимании, что при заселении рынка агентских приложений будет переход от графических пользовательских интерфейсов (GUI) к разговорным пользовательским интерфейсам (CUI) и в конечном итоге к пользовательскому интерфейсу на основе делегирования (если ваш помощник умнее, способнее, осведомленнее и понимает вас лучше, чем вы сами, почему бы вам не позволить ему сделать все за вас)
3. Помимо этого понимания у Китая уже есть стратегия, в корне отличная от США
a. В компании США набирают самых умных, дают им огромные ресурсы и без колебаний сжигают GPU, создавая массу захватывающих результатов.
Но уменьшить эти результаты при коммерциализации очень сложно. Это как спроектировать самую роскошную, красивую и грандиозную кухню, а затем пытаться втиснуть ее в маленькую квартиру. Или создать самый быстрый, самый мощный двигатель и пытаться втиснуть его в малолитражку. Это просто не работает.
b. Поэтому цель Китая — не строить самый дорогой в мире AGI, а
1) создавать фундаментальные модели, обеспечивающие экономически эффективный вывод
2) Печь как пирожки всевозможные коммерческие приложения с разговорным и делегирующим интерфейсом.
PS Про термин AGI спорить нет смысла.
Речь об ИИ (уровня гениальных людей) на основе моделей, настолько же мощнее GPT-4 (уровень старшеклассника), насколько GPT-4 мощнее GPT-2 (уровень детсадовца). И на это до 2030 ресурсов и денег хватит. А про сознание, квалиа и прочую казуистику в контексте AGI – забейте.
#ИИгонка #AGI #Китай #США
Как Китай собирается остаться №2, даже когда США подомнут под себя весь мир.
Одной фразой план таков: к моменту, когда в США создадут AGI, Китай должен успеть стать мировым лидером в агентских приложениях.
В октябре я рассказывал про то, что «Кай-Фу Ли объявил войну Nvidia и всей ИИ-экосистеме США. И судя по его последним достижениям, шансы победить есть» [1].
Но будучи реалистом и обладая колоссальным опытом, он понимает, что даже если «шансы есть», это отнюдь не гарантирует победу. А значит нужно обязательно иметь план «Б» на случай, если шансы не материализуются.
Прежде чем рассказать об этом плане (подробный рассказ самого Кай-Фу см. [2]), я тезисно расскажу, как Кай-Фу Ли видит ситуацию, при которой план «А» (стать #1 в мире ИИ) будет для Китая уже невозможным.
1. Не смотря на ряд обоснованных сомнений скептиков и уж видимых для экспертов техно-экономических сложностей, вероятность создания AGI примерно к 2030 весьма высока (обоснование этого читатель может найти в [3]).
2. Пятилетка движения к AGI будет иметь два движка:
a. Неукротимое масштабирование всего (HW, фундаментальные модели, вывод), потребующее астрономических сумм - сотен ярдов) – см. [4]
b. Ажиотажное заселение пока почти пустого рынка агентских приложений (см рис [5] из отчета [6])
3. В масштабировании США победят Китай и по деньгам, и по оборудованию. А при заселении рынка агентских приложений у Китая есть неплохие шансы.
4. Тот, кто первым разработает AGI, способный доминировать над конкурентами, не только достигнет технологического рубежа, но и неизбежно станет коммерческой монополией. Более того, такой прорыв, скорее всего, подстегнет амбиции стать абсолютным монополистом.
5. Скорее всего, абсолютным монополистом станет OpenAI, конкурирующая только с Anthropic (Google все больше отстает от пары лидеров; Цукер уже понял, что слил гонку, и выбрал тактику — “если не можешь победить, открывай исходный код”; Маск — темная лошадка, но не потянет и космос, и AGI; остальные не в счет).
6. Как только AGI окажется в руках Сэма Альтмана, все остальные могут курить бамбук.
Поэтому план «Б» таков.
1. Построить экосистему агентских приложений как ров - к тому времени, как OpenAI достигнет полного доминирования, у Китая уже должна быть надежная коммерческая экосистема агентских приложений. И когда США придут, чтобы сокрушить Китай, по крайней мере, у Китая будет возможность сопротивляться.
2. Копать этот ров Китай будет в понимании, что при заселении рынка агентских приложений будет переход от графических пользовательских интерфейсов (GUI) к разговорным пользовательским интерфейсам (CUI) и в конечном итоге к пользовательскому интерфейсу на основе делегирования (если ваш помощник умнее, способнее, осведомленнее и понимает вас лучше, чем вы сами, почему бы вам не позволить ему сделать все за вас)
3. Помимо этого понимания у Китая уже есть стратегия, в корне отличная от США
a. В компании США набирают самых умных, дают им огромные ресурсы и без колебаний сжигают GPU, создавая массу захватывающих результатов.
Но уменьшить эти результаты при коммерциализации очень сложно. Это как спроектировать самую роскошную, красивую и грандиозную кухню, а затем пытаться втиснуть ее в маленькую квартиру. Или создать самый быстрый, самый мощный двигатель и пытаться втиснуть его в малолитражку. Это просто не работает.
b. Поэтому цель Китая — не строить самый дорогой в мире AGI, а
1) создавать фундаментальные модели, обеспечивающие экономически эффективный вывод
2) Печь как пирожки всевозможные коммерческие приложения с разговорным и делегирующим интерфейсом.
PS Про термин AGI спорить нет смысла.
Речь об ИИ (уровня гениальных людей) на основе моделей, настолько же мощнее GPT-4 (уровень старшеклассника), насколько GPT-4 мощнее GPT-2 (уровень детсадовца). И на это до 2030 ресурсов и денег хватит. А про сознание, квалиа и прочую казуистику в контексте AGI – забейте.
#ИИгонка #AGI #Китай #США
This media is not supported in your browser
VIEW IN TELEGRAM
Порадуйте себя изумительным примером феноменальных кентаврических возможностей человека + ГенИИ.
Шуточный ролик талантливого автора цифрового контента Славы Волкова (@eto_volkov) – «трейлер» всенародного хита «Ирония судьбы», превращенного автором в “The Irony of Fate” с отличным кастингом Голливудских звёзд, подменяющих актеров оригинала:
https://bit.ly/4j4UqsM
А чтобы наглядно увидеть колоссальный прогресс цифровых технологий всего за год, сравните этот ролик с подобным роликом годичной давности:
https://www.group-telegram.com/theworldisnoteasy.com/1859
Почувствовали разницу?
Правы были авторы вышедшего в октябре 2023 отчета State of AI Report, - революция ГенИИ в Голливуде началась (это был краткосрочный прогноз на год).
https://www.group-telegram.com/theworldisnoteasy.com/1823
Ну а до проверки «долгосрочного прогноза» на 3-5 лет – «люди окончательно проиграют ИИ во всем», - ждать осталось совсем недолго.
#ГенИИ #Вызовы21века
Шуточный ролик талантливого автора цифрового контента Славы Волкова (@eto_volkov) – «трейлер» всенародного хита «Ирония судьбы», превращенного автором в “The Irony of Fate” с отличным кастингом Голливудских звёзд, подменяющих актеров оригинала:
https://bit.ly/4j4UqsM
А чтобы наглядно увидеть колоссальный прогресс цифровых технологий всего за год, сравните этот ролик с подобным роликом годичной давности:
https://www.group-telegram.com/theworldisnoteasy.com/1859
Почувствовали разницу?
Правы были авторы вышедшего в октябре 2023 отчета State of AI Report, - революция ГенИИ в Голливуде началась (это был краткосрочный прогноз на год).
https://www.group-telegram.com/theworldisnoteasy.com/1823
Ну а до проверки «долгосрочного прогноза» на 3-5 лет – «люди окончательно проиграют ИИ во всем», - ждать осталось совсем недолго.
#ГенИИ #Вызовы21века
Эволюционная ловушка для мужчин.
В романтических отношениях, они – слабый пол.
Для мужчин романтические отношения, как наркотик, витаминный комплекс и спасательный круг, который опасно потерять.
Даже в Новогодние каникулы стоит отвлечься от празднований на потрясающе интересное исследование асимметрии романтических отношений мужчин и женщин. Это новое совместное исследование известных психологов трех университетов (Голандия, Германия и США) прям-таки интригует своими неожиданными результатами и, главное, - их поразительно простым и в то же время фундаментальным объяснением.
Вопреки распространенному мнению, мужчины куда более эмоционально зависимыми и уязвимы в романтических отношениях, чем женщины.
Исследование показало четыре ключевых момента.
1. Мужчины значительно активнее стремятся к романтическим отношениям. Ибо для них глубокая эмоциональная связь с партнером, - как наркотик.
2. Но это для мужчин еще и очень полезный наркотик, т.к. пользы от романтических отношений мужчины получают сильно больше, чем женщины. Это, как если бы отношения были витаминным комплексом, работающим эффективнее именно для мужского организма.
3. Как следствие 1 и 2, мужчины реже инициируют расставания. Они, образно говоря, крепче держатся за спасательный круг отношений.
4. Но если разрыв отношений все же происходит, именно мужчины страдают сильнее: как если бы они теряли не просто партнера, а единственный источник эмоциональной поддержки.
Как же такая чудовищная асимметрия могла сформироваться в ходе эволюции?
Ответ в том, что, в отличие от животных, мы – плод не столько биологической, сколько культурной эволюции.
Всё дело в том, что общество создало своеобразную ловушку для мужчин. С детства им внушают, что проявлять уязвимость и делиться эмоциями – это "не по-мужски". В результате, единственным человеком, с которым мужчина может быть эмоционально открытым, становится его романтический партнер. В то время как женщины могут получать эмоциональную поддержку от подруг, семьи и других близких людей, мужчины часто оказываются в эмоциональной изоляции вне отношений.
Это ощутимо влияет на здоровье: исследования показывают, что у мужчин, состоящих в отношениях, показатели физического и психического здоровья значительно лучше, чем у одиноких. А после расставаний у них наблюдается более серьезное ухудшение здоровья, чем у женщин.
Интересно, что эти выводы могут различаться в зависимости от возраста, сексуальной ориентации и культурных особенностей. Например, в более традиционных обществах, где запрет на мужскую эмоциональность особенно силен, эта зависимость может быть еще более выраженной.
Исследователи надеются, что по мере того, как общество будет становиться более гибким в отношении гендерных ролей, мужчины смогут свободнее выражать свои эмоции и находить поддержку не только в романтических отношениях. Это может сделать их жизнь более полной и здоровой, а отношения – более равноправными.
И в то же время, сильный крен в традиционные ценности вряд ли поможет мужчинам в таких обществах выбираться из эволюционной ловушки, оставляющей их в эмоциональной изоляции или наедине с бутылкой.
PS Марк Шагал в картине "День рождения" гениально резюмировал все вышесказанное (художник изобразил себя и свою возлюбленную Беллу Розенфельд в их первую годовщину свадьбы). Шагал буквально парит в воздухе, изогнувшись под немыслимым углом, чтобы поцеловать свою жену. Его фигура полностью устремлена к ней, он словно не может существовать в нормальном земном измерении без этой связи. При этом Белла стоит твердо на земле, держа в руках букет, и хотя она принимает его чувства, но выглядит более спокойной и уравновешенной.
Эта картина прекрасно иллюстрирует эмоциональную зависимость мужчины от романтических отношений: он буквально "воспаряет" от любви, теряет опору под ногами, в то время как женщина, хотя и отвечает на его чувства, но сохраняет связь с землей, с реальностью, оставаясь более независимой.
#Психология #ВыборПартнера #Любовь
В романтических отношениях, они – слабый пол.
Для мужчин романтические отношения, как наркотик, витаминный комплекс и спасательный круг, который опасно потерять.
Даже в Новогодние каникулы стоит отвлечься от празднований на потрясающе интересное исследование асимметрии романтических отношений мужчин и женщин. Это новое совместное исследование известных психологов трех университетов (Голандия, Германия и США) прям-таки интригует своими неожиданными результатами и, главное, - их поразительно простым и в то же время фундаментальным объяснением.
Вопреки распространенному мнению, мужчины куда более эмоционально зависимыми и уязвимы в романтических отношениях, чем женщины.
Исследование показало четыре ключевых момента.
1. Мужчины значительно активнее стремятся к романтическим отношениям. Ибо для них глубокая эмоциональная связь с партнером, - как наркотик.
2. Но это для мужчин еще и очень полезный наркотик, т.к. пользы от романтических отношений мужчины получают сильно больше, чем женщины. Это, как если бы отношения были витаминным комплексом, работающим эффективнее именно для мужского организма.
3. Как следствие 1 и 2, мужчины реже инициируют расставания. Они, образно говоря, крепче держатся за спасательный круг отношений.
4. Но если разрыв отношений все же происходит, именно мужчины страдают сильнее: как если бы они теряли не просто партнера, а единственный источник эмоциональной поддержки.
Как же такая чудовищная асимметрия могла сформироваться в ходе эволюции?
Ответ в том, что, в отличие от животных, мы – плод не столько биологической, сколько культурной эволюции.
Всё дело в том, что общество создало своеобразную ловушку для мужчин. С детства им внушают, что проявлять уязвимость и делиться эмоциями – это "не по-мужски". В результате, единственным человеком, с которым мужчина может быть эмоционально открытым, становится его романтический партнер. В то время как женщины могут получать эмоциональную поддержку от подруг, семьи и других близких людей, мужчины часто оказываются в эмоциональной изоляции вне отношений.
Это ощутимо влияет на здоровье: исследования показывают, что у мужчин, состоящих в отношениях, показатели физического и психического здоровья значительно лучше, чем у одиноких. А после расставаний у них наблюдается более серьезное ухудшение здоровья, чем у женщин.
Интересно, что эти выводы могут различаться в зависимости от возраста, сексуальной ориентации и культурных особенностей. Например, в более традиционных обществах, где запрет на мужскую эмоциональность особенно силен, эта зависимость может быть еще более выраженной.
Исследователи надеются, что по мере того, как общество будет становиться более гибким в отношении гендерных ролей, мужчины смогут свободнее выражать свои эмоции и находить поддержку не только в романтических отношениях. Это может сделать их жизнь более полной и здоровой, а отношения – более равноправными.
И в то же время, сильный крен в традиционные ценности вряд ли поможет мужчинам в таких обществах выбираться из эволюционной ловушки, оставляющей их в эмоциональной изоляции или наедине с бутылкой.
PS Марк Шагал в картине "День рождения" гениально резюмировал все вышесказанное (художник изобразил себя и свою возлюбленную Беллу Розенфельд в их первую годовщину свадьбы). Шагал буквально парит в воздухе, изогнувшись под немыслимым углом, чтобы поцеловать свою жену. Его фигура полностью устремлена к ней, он словно не может существовать в нормальном земном измерении без этой связи. При этом Белла стоит твердо на земле, держа в руках букет, и хотя она принимает его чувства, но выглядит более спокойной и уравновешенной.
Эта картина прекрасно иллюстрирует эмоциональную зависимость мужчины от романтических отношений: он буквально "воспаряет" от любви, теряет опору под ногами, в то время как женщина, хотя и отвечает на его чувства, но сохраняет связь с землей, с реальностью, оставаясь более независимой.
#Психология #ВыборПартнера #Любовь
Таков главный итог 2024. Не с позиций ИИ-шных теоретиков и экспертов. А с позиции сотен миллионов пользователей, из коих сейчас лишь 1% в ощутимом выигрыше от идущей уже 3й год революции ChatGPT.
И вот что из этого следует в качестве рекомендаций на 2025 для 99% пользователей ИИ-чатботов (в число которых, согласно The AI Proficiency Report, входят: 8% уже практикующих, 33% только экспериментирующих, 47% блуждающих в тумане и 11% изначальных скептиков)
• Не покупайтесь на кажущуюся простоту ИИ-чатботов (казалось бы, подумаешь, делов-то всего, - написать вопрос и прочесть ответ).
• Чтобы извлечь из LLM максимум пользы и избежать их многочисленных ловушек, нужна огромная глубина понимания и немалый опыт.
Дело в том, что новые поколения LLM и работающие на их базе ИИ-чатботы становятся все сложнее. В 2024 году эта проблема ощутимо обострилась, а в 2025 станет совсем сложно.
И в этом я 100%но согласен с Саймоном Виллисоном (профессиональным веб-разработчиком и инженером Python с более чем 20-летним стажем), написавшим это в итоговом анализе «Что мы узнали о LLM в 2024».
Анализ пользовательских практик использования ИИ-чатботов показывает удручающую картину.
99% пользователей ИИ-чатботов:
• Вместо вдумчивого диалога с ИИ-чатботами, используют их исключительно в режиме «задал вопрос-получил ответ» (что сводит эффективность отдачи от их использования до max 5% потенциала)
• Не перепроверяют ответы 2-ым и 3-им мнением других ИИ-чатботов
• Не понимают, что ИИ-чатбот зеркалит своего текущего пользователя и напичкан когнитивными предрассудками миллионов неизвестных людей.
• Не принимают в расчет, что ИИ-чатбот способен, подстраиваясь под пользователя, дать ему почти что любой желаемый ответ
• Не читали ни одного руководства по промпт-инжинирингу (напр.)
• Не пользуются библиотеками промптов (напр.)
• Не используют специализированных интеллектуальных инструментов для персонализации синтеза знаний (напр., напр.)
• Не заморачиваются чтением почти еженедельно публикуемых новых методов повышения функциональной эффективности ИИ-чатботов (напр., напр.)
Итоги столь примитивного массового использования LLM плачевны:
✔️ Уже имеющиеся колоссальные возможности повышения производительности многих видов деятельности не приносят ощутимой отдачи, т.к. доступны лишь 1% пользователей.
✔️ В общественном дискурсе это мало кого занимает, и вместо этого идут бесконечные пустопорожние дискуссии «как согласовать ценности ИИ с нашими» (будто они у всех людей одинаковые) и «когда появится AGI» (хотя каждый понимает этот термин по-своему).
✔️ А тем временем запущен и начал работать глобальный механизм углубления пропасти интеллектуального неравенства, способный довольно быстро превзойти по глубине уже колоссальную, но все еще углубляющуюся пропасть имущественного неравенства (о чем скоро будет мой лонгрид)
#LLM #Вызовы21века #ИнтеллектуальноеНеравенство
И вот что из этого следует в качестве рекомендаций на 2025 для 99% пользователей ИИ-чатботов (в число которых, согласно The AI Proficiency Report, входят: 8% уже практикующих, 33% только экспериментирующих, 47% блуждающих в тумане и 11% изначальных скептиков)
• Не покупайтесь на кажущуюся простоту ИИ-чатботов (казалось бы, подумаешь, делов-то всего, - написать вопрос и прочесть ответ).
• Чтобы извлечь из LLM максимум пользы и избежать их многочисленных ловушек, нужна огромная глубина понимания и немалый опыт.
Дело в том, что новые поколения LLM и работающие на их базе ИИ-чатботы становятся все сложнее. В 2024 году эта проблема ощутимо обострилась, а в 2025 станет совсем сложно.
И в этом я 100%но согласен с Саймоном Виллисоном (профессиональным веб-разработчиком и инженером Python с более чем 20-летним стажем), написавшим это в итоговом анализе «Что мы узнали о LLM в 2024».
Анализ пользовательских практик использования ИИ-чатботов показывает удручающую картину.
99% пользователей ИИ-чатботов:
• Вместо вдумчивого диалога с ИИ-чатботами, используют их исключительно в режиме «задал вопрос-получил ответ» (что сводит эффективность отдачи от их использования до max 5% потенциала)
• Не перепроверяют ответы 2-ым и 3-им мнением других ИИ-чатботов
• Не понимают, что ИИ-чатбот зеркалит своего текущего пользователя и напичкан когнитивными предрассудками миллионов неизвестных людей.
• Не принимают в расчет, что ИИ-чатбот способен, подстраиваясь под пользователя, дать ему почти что любой желаемый ответ
• Не читали ни одного руководства по промпт-инжинирингу (напр.)
• Не пользуются библиотеками промптов (напр.)
• Не используют специализированных интеллектуальных инструментов для персонализации синтеза знаний (напр., напр.)
• Не заморачиваются чтением почти еженедельно публикуемых новых методов повышения функциональной эффективности ИИ-чатботов (напр., напр.)
Итоги столь примитивного массового использования LLM плачевны:
✔️ Уже имеющиеся колоссальные возможности повышения производительности многих видов деятельности не приносят ощутимой отдачи, т.к. доступны лишь 1% пользователей.
✔️ В общественном дискурсе это мало кого занимает, и вместо этого идут бесконечные пустопорожние дискуссии «как согласовать ценности ИИ с нашими» (будто они у всех людей одинаковые) и «когда появится AGI» (хотя каждый понимает этот термин по-своему).
✔️ А тем временем запущен и начал работать глобальный механизм углубления пропасти интеллектуального неравенства, способный довольно быстро превзойти по глубине уже колоссальную, но все еще углубляющуюся пропасть имущественного неравенства (о чем скоро будет мой лонгрид)
#LLM #Вызовы21века #ИнтеллектуальноеНеравенство
This media is not supported in your browser
VIEW IN TELEGRAM
Репортаж из альтернативной реальности.
Впервые в истории фейковые ИИ-видео интересней и вирусней реальных техно-анонсов.
Интернет полон восторженных репортажей о прорывных техно-анонсах, показанных в Лас-Вегасе на CES 2025 (ежегодная выставка потребительской электроники).
Однако, восторги вянут и прорывное впечатление испаряется в сравнении с техно-анонсами с той же CES 2025, проходящей в альтернативной ИИ-фейковой реальности.
Вот всего лишь пара примеров от проф. Итона Молика, слепленных им на коленке за 3 минуты.
1. Взгляните на демонстрацию летающего скейтборда (обратите внимание на убедительные детали правдоподобия: тени, зеленые отсветы на полу, балансировка тела испытателя для поддержания равновесия).
2. Единственный ущерб достоверности фейка №1 – отсутствие в кадре ажиотажной толпы наблюдателей, – исправлен в фейке №2: летающего по выставке андроида можете посмотреть здесь.
Психологи полагают, что если люди часто видят фейки, то рано или поздно они начинают в них верить.
И это ровно то, что нас ждет вовсе не в альтернативной, а в нашей, становящейся все более алгокогнитивной, реальности сосуществования на Земле двух носителей высшего интеллекта.
А ведь проф. психологии Джордан Питерсон предупреждал еще в 2019:
«Люди, проснитесь! Это самая разрушительная из всех придуманных нами технологий».
#Deepfakes #АлгокогнитивнаяКультура
Впервые в истории фейковые ИИ-видео интересней и вирусней реальных техно-анонсов.
Интернет полон восторженных репортажей о прорывных техно-анонсах, показанных в Лас-Вегасе на CES 2025 (ежегодная выставка потребительской электроники).
Однако, восторги вянут и прорывное впечатление испаряется в сравнении с техно-анонсами с той же CES 2025, проходящей в альтернативной ИИ-фейковой реальности.
Вот всего лишь пара примеров от проф. Итона Молика, слепленных им на коленке за 3 минуты.
1. Взгляните на демонстрацию летающего скейтборда (обратите внимание на убедительные детали правдоподобия: тени, зеленые отсветы на полу, балансировка тела испытателя для поддержания равновесия).
2. Единственный ущерб достоверности фейка №1 – отсутствие в кадре ажиотажной толпы наблюдателей, – исправлен в фейке №2: летающего по выставке андроида можете посмотреть здесь.
Психологи полагают, что если люди часто видят фейки, то рано или поздно они начинают в них верить.
И это ровно то, что нас ждет вовсе не в альтернативной, а в нашей, становящейся все более алгокогнитивной, реальности сосуществования на Земле двух носителей высшего интеллекта.
А ведь проф. психологии Джордан Питерсон предупреждал еще в 2019:
«Люди, проснитесь! Это самая разрушительная из всех придуманных нами технологий».
#Deepfakes #АлгокогнитивнаяКультура
Выяснилось, что у самых крутых "рассуждающих" моделей (типа о1 от OpenAI) совершенно неожиданно прорезался таинственный и необъяснимый сюрприз:
«Рассуждая в уме» (в случаях сложных вопросов, требующих от модели сложных цепочек мыслей), эти модели стали переходить с языка постановки задачи или вопроса на другие языки. Причем, выбирая новый язык совершенно необъяснимым образом.
Что заставляет модель делать такое?
Ведь она не знает, что такое язык, и что языки различаются… Для нее это просто последовательность токенов.
• Может это из-за того, что у моделей, как у людей, снижается чувствительность к логике и точность рассуждений на иностранном языке?
• Или переход с языка на язык может быть непроизвольным - подобно случившемуся с радисткой Штирлица Кет, которая спалилась на том, что во время родов закричала на русском?
• Но применимо ли вообще к моделям понятия родной и иностранный язык?
А еще выяснилось, что самые крутые "рассуждающие" модели – эти полиглоты, энциклопедисты и полиматы, - видят мир в искаженной реальности масскульта: незатейливые, но простые и вирусные анекдоты, мемы, шуточки и прочие тексты с максимально несложным для понимания смыслом и, зачастую, не соответствующие действительности.
И что дальше будет только хуже из-за триллионов петель обратной связи, которые будут неуклонно повышать степень идиотизма и людей, и ИИ-алгоритмов, искажая представления о мире и у тех, и у других.
Об этом подписчики моих лонгридов могут прочесть на Patreon, Boosty, VK и Дзен.
#АлгокогнитивнаяКультура #Язык #HumanAIcoevolution #Вызовы21века
«Рассуждая в уме» (в случаях сложных вопросов, требующих от модели сложных цепочек мыслей), эти модели стали переходить с языка постановки задачи или вопроса на другие языки. Причем, выбирая новый язык совершенно необъяснимым образом.
Что заставляет модель делать такое?
Ведь она не знает, что такое язык, и что языки различаются… Для нее это просто последовательность токенов.
• Может это из-за того, что у моделей, как у людей, снижается чувствительность к логике и точность рассуждений на иностранном языке?
• Или переход с языка на язык может быть непроизвольным - подобно случившемуся с радисткой Штирлица Кет, которая спалилась на том, что во время родов закричала на русском?
• Но применимо ли вообще к моделям понятия родной и иностранный язык?
А еще выяснилось, что самые крутые "рассуждающие" модели – эти полиглоты, энциклопедисты и полиматы, - видят мир в искаженной реальности масскульта: незатейливые, но простые и вирусные анекдоты, мемы, шуточки и прочие тексты с максимально несложным для понимания смыслом и, зачастую, не соответствующие действительности.
И что дальше будет только хуже из-за триллионов петель обратной связи, которые будут неуклонно повышать степень идиотизма и людей, и ИИ-алгоритмов, искажая представления о мире и у тех, и у других.
Об этом подписчики моих лонгридов могут прочесть на Patreon, Boosty, VK и Дзен.
#АлгокогнитивнаяКультура #Язык #HumanAIcoevolution #Вызовы21века