Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1
Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.
Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:
1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.
2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.
Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.
Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.
Далее объясню, что считаю конструктивной и неконструктивной дискуссией.
Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1
Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.
Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:
1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.
2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.
Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.
Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.
Далее объясню, что считаю конструктивной и неконструктивной дискуссией.
BY Капли ртути
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
But because group chats and the channel features are not end-to-end encrypted, Galperin said user privacy is potentially under threat. Friday’s performance was part of a larger shift. For the week, the Dow, S&P 500 and Nasdaq fell 2%, 2.9%, and 3.5%, respectively. To that end, when files are actively downloading, a new icon now appears in the Search bar that users can tap to view and manage downloads, pause and resume all downloads or just individual items, and select one to increase its priority or view it in a chat. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. "The inflation fire was already hot and now with war-driven inflation added to the mix, it will grow even hotter, setting off a scramble by the world’s central banks to pull back their stimulus earlier than expected," Chris Rupkey, chief economist at FWDBONDS, wrote in an email. "A spike in inflation rates has preceded economic recessions historically and this time prices have soared to levels that once again pose a threat to growth."
from ca