Telegram Group & Telegram Channel
Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.

Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:

• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?

Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.



group-telegram.com/phil_besedin/576
Create:
Last Update:

Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.

Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:

• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?

Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.

BY Беседин





Share with your friend now:
group-telegram.com/phil_besedin/576

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Ukrainian forces have since put up a strong resistance to the Russian troops amid the war that has left hundreds of Ukrainian civilians, including children, dead, according to the United Nations. Ukrainian and international officials have accused Russia of targeting civilian populations with shelling and bombardments. Elsewhere, version 8.6 of Telegram integrates the in-app camera option into the gallery, while a new navigation bar gives quick access to photos, files, location sharing, and more. As a result, the pandemic saw many newcomers to Telegram, including prominent anti-vaccine activists who used the app's hands-off approach to share false information on shots, a study from the Institute for Strategic Dialogue shows. Perpetrators of such fraud use various marketing techniques to attract subscribers on their social media channels. Despite Telegram's origins, its approach to users' security has privacy advocates worried.
from ru


Telegram Беседин
FROM American