Telegram Group & Telegram Channel
Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1

Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.

Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:

1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.

2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.

Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.

Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.

Далее объясню, что считаю конструктивной и неконструктивной дискуссией.



group-telegram.com/mercury_octave/14
Create:
Last Update:

Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1

Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.

Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:

1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.

2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.

Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.

Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.

Далее объясню, что считаю конструктивной и неконструктивной дискуссией.

BY Капли ртути


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/mercury_octave/14

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram was founded in 2013 by two Russian brothers, Nikolai and Pavel Durov. The perpetrators use various names to carry out the investment scams. They may also impersonate or clone licensed capital market intermediaries by using the names, logos, credentials, websites and other details of the legitimate entities to promote the illegal schemes. Since January 2022, the SC has received a total of 47 complaints and enquiries on illegal investment schemes promoted through Telegram. These fraudulent schemes offer non-existent investment opportunities, promising very attractive and risk-free returns within a short span of time. They commonly offer unrealistic returns of as high as 1,000% within 24 hours or even within a few hours. So, uh, whenever I hear about Telegram, it’s always in relation to something bad. What gives? Telegram has gained a reputation as the “secure” communications app in the post-Soviet states, but whenever you make choices about your digital security, it’s important to start by asking yourself, “What exactly am I securing? And who am I securing it from?” These questions should inform your decisions about whether you are using the right tool or platform for your digital security needs. Telegram is certainly not the most secure messaging app on the market right now. Its security model requires users to place a great deal of trust in Telegram’s ability to protect user data. For some users, this may be good enough for now. For others, it may be wiser to move to a different platform for certain kinds of high-risk communications.
from in


Telegram Капли ртути
FROM American