Telegram Group & Telegram Channel
Станет ли ИИ Големом 21 века?
Как встраивать этику в алгоритмы машинного обучения.

Это самый важный вопрос в симбиозе человека и машины. А такой симбиоз – не в будущем. Он уже вовсю идет. И самый важный и приоритетный среди его вызовов - решение проблемы нечеловеческого поведения алгоритмов, нарушающих права конкретных людей, да и вообще, человеческие принципы.
Что за реклама вам показывается?
Что за цена вам предлагается?
Дадут ли вам ссуду?
Получите ли вы страховку?
Возьмут ли вас на эту работу?
Как вас будут лечить?
Попадете ли вы под наблюдение спецслужб?
Это и многое другое в жизни каждого из нас все больше решают уже не люди, а алгоритмы. И это не преувеличение, а факт.

Как создавать более совершенные алгоритмы, в которые встроены точные определения справедливости, точности, прозрачности и этики?
Не научившись делать это, все достижения машинного обучения, создаваемые во благо человечества, будут обращены против конкретных людей.

После Второй мировой войны многие ученые Манхэттенского проекта переключили свои усилия, чтобы обуздать использование атомного оружия, которое они изобрели. В случае алгоритмов вред является более рассеянным и труднее обнаруживаемым, чем в случае с ядерными бомбами. Но и то, и другое - примеры необратимых технологий, которые можно контролировать, но нельзя отменить или устранить.

Те, кто разрабатывает алгоритмы машинного обучения, могут сыграть решающую роль в выявлении внутренних ограничений алгоритмов и разработке их новых разновидностей, сбалансированных по предсказательной силе с социальными ценностями, такими как справедливость и конфиденциальность.
Но это нужно делать сейчас, а не завтра. Ибо алгоритмы машинного обучения – это новые виды акторов на Земле, от поведения и действий которых теперь зависят судьбы миллиардов людей.

Станут ли эти новые виды акторов Големом 21 века?
Ведь и Голем, созданный праведным раввином Лёвом из глины, задумывался для исполнения разных чёрных работ и трудных поручений. Но по легенде Голем превысил свои «полномочия», проявив свою волю, противоречащую воле его создателя.
Искусственный человек стал делать то, что по закону «неприлично» или даже преступно для человека …
Это ли ни прообраз истории ИИ, алгоритмы которого могут повторить путь Голема?

Но выход есть. Существуют иные методы разработки алгоритмов, способные обуздать их нечеловеческое поведение. Алгоритмы могут быть прозрачными. В них может встраиваться справедливость и этика при принятии решений.

Как это может и должно делаться, рассказывает Бестселлер Ближайшего Будущего – только что вышедшая книга профессоров Майкла Кернса и Аарона Рота «Этический алгоритм: наука о разработке социально-ориентированных алгоритмов».
https://www.amazon.com/Ethical-Algorithm-Science-Socially-Design/dp/0190948205
Кто не найдет время на чтение 232 стр. книги, послушайте хотя бы в ускоренном режиме 70-минутный рассказ Майкла Кернса, предваряющий выход книги.
https://www.youtube.com/watch?v=B1tw2Dd_EVs

#БББ #Этика #ИИ



group-telegram.com/theworldisnoteasy/919
Create:
Last Update:

Станет ли ИИ Големом 21 века?
Как встраивать этику в алгоритмы машинного обучения.

Это самый важный вопрос в симбиозе человека и машины. А такой симбиоз – не в будущем. Он уже вовсю идет. И самый важный и приоритетный среди его вызовов - решение проблемы нечеловеческого поведения алгоритмов, нарушающих права конкретных людей, да и вообще, человеческие принципы.
Что за реклама вам показывается?
Что за цена вам предлагается?
Дадут ли вам ссуду?
Получите ли вы страховку?
Возьмут ли вас на эту работу?
Как вас будут лечить?
Попадете ли вы под наблюдение спецслужб?
Это и многое другое в жизни каждого из нас все больше решают уже не люди, а алгоритмы. И это не преувеличение, а факт.

Как создавать более совершенные алгоритмы, в которые встроены точные определения справедливости, точности, прозрачности и этики?
Не научившись делать это, все достижения машинного обучения, создаваемые во благо человечества, будут обращены против конкретных людей.

После Второй мировой войны многие ученые Манхэттенского проекта переключили свои усилия, чтобы обуздать использование атомного оружия, которое они изобрели. В случае алгоритмов вред является более рассеянным и труднее обнаруживаемым, чем в случае с ядерными бомбами. Но и то, и другое - примеры необратимых технологий, которые можно контролировать, но нельзя отменить или устранить.

Те, кто разрабатывает алгоритмы машинного обучения, могут сыграть решающую роль в выявлении внутренних ограничений алгоритмов и разработке их новых разновидностей, сбалансированных по предсказательной силе с социальными ценностями, такими как справедливость и конфиденциальность.
Но это нужно делать сейчас, а не завтра. Ибо алгоритмы машинного обучения – это новые виды акторов на Земле, от поведения и действий которых теперь зависят судьбы миллиардов людей.

Станут ли эти новые виды акторов Големом 21 века?
Ведь и Голем, созданный праведным раввином Лёвом из глины, задумывался для исполнения разных чёрных работ и трудных поручений. Но по легенде Голем превысил свои «полномочия», проявив свою волю, противоречащую воле его создателя.
Искусственный человек стал делать то, что по закону «неприлично» или даже преступно для человека …
Это ли ни прообраз истории ИИ, алгоритмы которого могут повторить путь Голема?

Но выход есть. Существуют иные методы разработки алгоритмов, способные обуздать их нечеловеческое поведение. Алгоритмы могут быть прозрачными. В них может встраиваться справедливость и этика при принятии решений.

Как это может и должно делаться, рассказывает Бестселлер Ближайшего Будущего – только что вышедшая книга профессоров Майкла Кернса и Аарона Рота «Этический алгоритм: наука о разработке социально-ориентированных алгоритмов».
https://www.amazon.com/Ethical-Algorithm-Science-Socially-Design/dp/0190948205
Кто не найдет время на чтение 232 стр. книги, послушайте хотя бы в ускоренном режиме 70-минутный рассказ Майкла Кернса, предваряющий выход книги.
https://www.youtube.com/watch?v=B1tw2Dd_EVs

#БББ #Этика #ИИ

BY Малоизвестное интересное


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/theworldisnoteasy/919

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

In addition, Telegram now supports the use of third-party streaming tools like OBS Studio and XSplit to broadcast live video, allowing users to add overlays and multi-screen layouts for a more professional look. Emerson Brooking, a disinformation expert at the Atlantic Council's Digital Forensic Research Lab, said: "Back in the Wild West period of content moderation, like 2014 or 2015, maybe they could have gotten away with it, but it stands in marked contrast with how other companies run themselves today." For tech stocks, “the main thing is yields,” Essaye said. Crude oil prices edged higher after tumbling on Thursday, when U.S. West Texas intermediate slid back below $110 per barrel after topping as much as $130 a barrel in recent sessions. Still, gas prices at the pump rose to fresh highs. In this regard, Sebi collaborated with the Telecom Regulatory Authority of India (TRAI) to reduce the vulnerability of the securities market to manipulation through misuse of mass communication medium like bulk SMS.
from jp


Telegram Малоизвестное интересное
FROM American