Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1
Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.
Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:
1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.
2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.
Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.
Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.
Далее объясню, что считаю конструктивной и неконструктивной дискуссией.
Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1
Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.
Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:
1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.
2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.
Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.
Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.
Далее объясню, что считаю конструктивной и неконструктивной дискуссией.
BY Капли ртути
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
The account, "War on Fakes," was created on February 24, the same day Russian President Vladimir Putin announced a "special military operation" and troops began invading Ukraine. The page is rife with disinformation, according to The Atlantic Council's Digital Forensic Research Lab, which studies digital extremism and published a report examining the channel. Artem Kliuchnikov and his family fled Ukraine just days before the Russian invasion. False news often spreads via public groups, or chats, with potentially fatal effects. The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips. He floated the idea of restricting the use of Telegram in Ukraine and Russia, a suggestion that was met with fierce opposition from users. Shortly after, Durov backed off the idea.
from ms