Telegram Group & Telegram Channel
Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.

Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:

• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?

Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.



group-telegram.com/phil_besedin/576
Create:
Last Update:

Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.

Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:

• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?

Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.

BY Беседин





Share with your friend now:
group-telegram.com/phil_besedin/576

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Apparently upbeat developments in Russia's discussions with Ukraine helped at least temporarily send investors back into risk assets. Russian President Vladimir Putin said during a meeting with his Belarusian counterpart Alexander Lukashenko that there were "certain positive developments" occurring in the talks with Ukraine, according to a transcript of their meeting. Putin added that discussions were happening "almost on a daily basis." But Telegram says people want to keep their chat history when they get a new phone, and they like having a data backup that will sync their chats across multiple devices. And that is why they let people choose whether they want their messages to be encrypted or not. When not turned on, though, chats are stored on Telegram's services, which are scattered throughout the world. But it has "disclosed 0 bytes of user data to third parties, including governments," Telegram states on its website. Lastly, the web previews of t.me links have been given a new look, adding chat backgrounds and design elements from the fully-features Telegram Web client. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. Ukrainian forces successfully attacked Russian vehicles in the capital city of Kyiv thanks to a public tip made through the encrypted messaging app Telegram, Ukraine's top law-enforcement agency said on Tuesday.
from us


Telegram Беседин
FROM American