Notice: file_put_contents(): Write of 12675 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50
Беседин | Telegram Webview: phil_besedin/576 -
Telegram Group & Telegram Channel
Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.

Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:

• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?

Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.



group-telegram.com/phil_besedin/576
Create:
Last Update:

Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.

Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:

• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?

Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.

BY Беседин





Share with your friend now:
group-telegram.com/phil_besedin/576

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Artem Kliuchnikov and his family fled Ukraine just days before the Russian invasion. Following this, Sebi, in an order passed in January 2022, established that the administrators of a Telegram channel having a large subscriber base enticed the subscribers to act upon recommendations that were circulated by those administrators on the channel, leading to significant price and volume impact in various scrips. Telegram Messenger Blocks Navalny Bot During Russian Election "There is a significant risk of insider threat or hacking of Telegram systems that could expose all of these chats to the Russian government," said Eva Galperin with the Electronic Frontier Foundation, which has called for Telegram to improve its privacy practices. Although some channels have been removed, the curation process is considered opaque and insufficient by analysts.
from us


Telegram Беседин
FROM American