Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1
Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.
Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:
1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.
2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.
Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.
Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.
Далее объясню, что считаю конструктивной и неконструктивной дискуссией.
Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1
Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.
Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:
1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.
2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.
Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.
Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.
Далее объясню, что считаю конструктивной и неконструктивной дискуссией.
BY Капли ртути
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress. Additionally, investors are often instructed to deposit monies into personal bank accounts of individuals who claim to represent a legitimate entity, and/or into an unrelated corporate account. To lend credence and to lure unsuspecting victims, perpetrators usually claim that their entity and/or the investment schemes are approved by financial authorities. Telegram was co-founded by Pavel and Nikolai Durov, the brothers who had previously created VKontakte. VK is Russia’s equivalent of Facebook, a social network used for public and private messaging, audio and video sharing as well as online gaming. In January, SimpleWeb reported that VK was Russia’s fourth most-visited website, after Yandex, YouTube and Google’s Russian-language homepage. In 2016, Forbes’ Michael Solomon described Pavel Durov (pictured, below) as the “Mark Zuckerberg of Russia.” The Securities and Exchange Board of India (Sebi) had carried out a similar exercise in 2017 in a matter related to circulation of messages through WhatsApp. Apparently upbeat developments in Russia's discussions with Ukraine helped at least temporarily send investors back into risk assets. Russian President Vladimir Putin said during a meeting with his Belarusian counterpart Alexander Lukashenko that there were "certain positive developments" occurring in the talks with Ukraine, according to a transcript of their meeting. Putin added that discussions were happening "almost on a daily basis."
from ye