Telegram Group & Telegram Channel
Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.

Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:

• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?

Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.



group-telegram.com/phil_besedin/576
Create:
Last Update:

Начался IV конгресс Русского общества истории и философии науки. Мне наиболее интересной среди докладов первой пленарной сессии показалась презентация Натальи Андреевны Ястреб на тему «Концептуальные подходы к построению этики искусственного интеллекта». Некоторое время назад мы наблюдали всплеск применения подхода, основанного на принципах. Крупные компании-разработчики ИИ принимали всевозможные кодексы, декларировали ценности, закладываемые ими в ИИ. Одна из проблем этого подхода – сомнение в том, насколько технические объекты сами могут быть носителями ценностей. Другой подход основан на анализе кейсов. Его проблема в том, что он не имеет фундаментальных этических оснований. Личностно-ориентированный подход делает акцент на персональной ответственности: кто несет моральную ответственность за конкретные последствия разработки и применение систем ИИ? Проблема – разрыв ответственности. В большинстве случаев установление моральной ответственности практически невозможно.

Наконец, критический подход. Именно его предпочитает Ястреб. Предметом нашего исследования с точки зрения этого подхода должны быть изменения, которые системы ИИ вызывают в людях. Для нас неважно, как устроен ИИ. Нам интересно выяснить, почему мы хотим использовать ИИ. С этической точки зрения для нас важны ответы на следующие вопросы:

• Какие наши слабости использует конкретная система ИИ?
• Какие установки и стереотипы эксплуатирует?
• Какие наши недостатки преодолевает?
• Какие ценности поддерживает?
• Какие ценности нивелирует?

Данный подход рассматривает в качестве моральных субъектов только людей. Почему мы тогда можем говорить о нём как о подходе к этике ИИ? Идея, кажется, в том, что ИИ преломляет обычные моральные темы необычным образом. Например, современные системы ИИ обучаются на больших массивах данных, которые изначально включают примеры неявной предвзятости, неявных установок, свойственных людям и нами самими не распознаваемыми. Системы ИИ эти установки, безусловно, воспроизводят и, наверное, усиливают. В случае ИИ мы сталкиваемся с хорошо знакомыми моральными проблемами, только в новом преломлении. Мне кажется, что этика ИИ не сводится только к этому.

BY Беседин





Share with your friend now:
group-telegram.com/phil_besedin/576

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Just days after Russia invaded Ukraine, Durov wrote that Telegram was "increasingly becoming a source of unverified information," and he worried about the app being used to "incite ethnic hatred." "He has kind of an old-school cyber-libertarian world view where technology is there to set you free," Maréchal said. For tech stocks, “the main thing is yields,” Essaye said. "The inflation fire was already hot and now with war-driven inflation added to the mix, it will grow even hotter, setting off a scramble by the world’s central banks to pull back their stimulus earlier than expected," Chris Rupkey, chief economist at FWDBONDS, wrote in an email. "A spike in inflation rates has preceded economic recessions historically and this time prices have soared to levels that once again pose a threat to growth." That hurt tech stocks. For the past few weeks, the 10-year yield has traded between 1.72% and 2%, as traders moved into the bond for safety when Russia headlines were ugly—and out of it when headlines improved. Now, the yield is touching its pandemic-era high. If the yield breaks above that level, that could signal that it’s on a sustainable path higher. Higher long-dated bond yields make future profits less valuable—and many tech companies are valued on the basis of profits forecast for many years in the future.
from de


Telegram Беседин
FROM American