Telegram Group & Telegram Channel
Станет ли ИИ Големом 21 века?
Как встраивать этику в алгоритмы машинного обучения.

Это самый важный вопрос в симбиозе человека и машины. А такой симбиоз – не в будущем. Он уже вовсю идет. И самый важный и приоритетный среди его вызовов - решение проблемы нечеловеческого поведения алгоритмов, нарушающих права конкретных людей, да и вообще, человеческие принципы.
Что за реклама вам показывается?
Что за цена вам предлагается?
Дадут ли вам ссуду?
Получите ли вы страховку?
Возьмут ли вас на эту работу?
Как вас будут лечить?
Попадете ли вы под наблюдение спецслужб?
Это и многое другое в жизни каждого из нас все больше решают уже не люди, а алгоритмы. И это не преувеличение, а факт.

Как создавать более совершенные алгоритмы, в которые встроены точные определения справедливости, точности, прозрачности и этики?
Не научившись делать это, все достижения машинного обучения, создаваемые во благо человечества, будут обращены против конкретных людей.

После Второй мировой войны многие ученые Манхэттенского проекта переключили свои усилия, чтобы обуздать использование атомного оружия, которое они изобрели. В случае алгоритмов вред является более рассеянным и труднее обнаруживаемым, чем в случае с ядерными бомбами. Но и то, и другое - примеры необратимых технологий, которые можно контролировать, но нельзя отменить или устранить.

Те, кто разрабатывает алгоритмы машинного обучения, могут сыграть решающую роль в выявлении внутренних ограничений алгоритмов и разработке их новых разновидностей, сбалансированных по предсказательной силе с социальными ценностями, такими как справедливость и конфиденциальность.
Но это нужно делать сейчас, а не завтра. Ибо алгоритмы машинного обучения – это новые виды акторов на Земле, от поведения и действий которых теперь зависят судьбы миллиардов людей.

Станут ли эти новые виды акторов Големом 21 века?
Ведь и Голем, созданный праведным раввином Лёвом из глины, задумывался для исполнения разных чёрных работ и трудных поручений. Но по легенде Голем превысил свои «полномочия», проявив свою волю, противоречащую воле его создателя.
Искусственный человек стал делать то, что по закону «неприлично» или даже преступно для человека …
Это ли ни прообраз истории ИИ, алгоритмы которого могут повторить путь Голема?

Но выход есть. Существуют иные методы разработки алгоритмов, способные обуздать их нечеловеческое поведение. Алгоритмы могут быть прозрачными. В них может встраиваться справедливость и этика при принятии решений.

Как это может и должно делаться, рассказывает Бестселлер Ближайшего Будущего – только что вышедшая книга профессоров Майкла Кернса и Аарона Рота «Этический алгоритм: наука о разработке социально-ориентированных алгоритмов».
https://www.amazon.com/Ethical-Algorithm-Science-Socially-Design/dp/0190948205
Кто не найдет время на чтение 232 стр. книги, послушайте хотя бы в ускоренном режиме 70-минутный рассказ Майкла Кернса, предваряющий выход книги.
https://www.youtube.com/watch?v=B1tw2Dd_EVs

#БББ #Этика #ИИ



group-telegram.com/theworldisnoteasy/919
Create:
Last Update:

Станет ли ИИ Големом 21 века?
Как встраивать этику в алгоритмы машинного обучения.

Это самый важный вопрос в симбиозе человека и машины. А такой симбиоз – не в будущем. Он уже вовсю идет. И самый важный и приоритетный среди его вызовов - решение проблемы нечеловеческого поведения алгоритмов, нарушающих права конкретных людей, да и вообще, человеческие принципы.
Что за реклама вам показывается?
Что за цена вам предлагается?
Дадут ли вам ссуду?
Получите ли вы страховку?
Возьмут ли вас на эту работу?
Как вас будут лечить?
Попадете ли вы под наблюдение спецслужб?
Это и многое другое в жизни каждого из нас все больше решают уже не люди, а алгоритмы. И это не преувеличение, а факт.

Как создавать более совершенные алгоритмы, в которые встроены точные определения справедливости, точности, прозрачности и этики?
Не научившись делать это, все достижения машинного обучения, создаваемые во благо человечества, будут обращены против конкретных людей.

После Второй мировой войны многие ученые Манхэттенского проекта переключили свои усилия, чтобы обуздать использование атомного оружия, которое они изобрели. В случае алгоритмов вред является более рассеянным и труднее обнаруживаемым, чем в случае с ядерными бомбами. Но и то, и другое - примеры необратимых технологий, которые можно контролировать, но нельзя отменить или устранить.

Те, кто разрабатывает алгоритмы машинного обучения, могут сыграть решающую роль в выявлении внутренних ограничений алгоритмов и разработке их новых разновидностей, сбалансированных по предсказательной силе с социальными ценностями, такими как справедливость и конфиденциальность.
Но это нужно делать сейчас, а не завтра. Ибо алгоритмы машинного обучения – это новые виды акторов на Земле, от поведения и действий которых теперь зависят судьбы миллиардов людей.

Станут ли эти новые виды акторов Големом 21 века?
Ведь и Голем, созданный праведным раввином Лёвом из глины, задумывался для исполнения разных чёрных работ и трудных поручений. Но по легенде Голем превысил свои «полномочия», проявив свою волю, противоречащую воле его создателя.
Искусственный человек стал делать то, что по закону «неприлично» или даже преступно для человека …
Это ли ни прообраз истории ИИ, алгоритмы которого могут повторить путь Голема?

Но выход есть. Существуют иные методы разработки алгоритмов, способные обуздать их нечеловеческое поведение. Алгоритмы могут быть прозрачными. В них может встраиваться справедливость и этика при принятии решений.

Как это может и должно делаться, рассказывает Бестселлер Ближайшего Будущего – только что вышедшая книга профессоров Майкла Кернса и Аарона Рота «Этический алгоритм: наука о разработке социально-ориентированных алгоритмов».
https://www.amazon.com/Ethical-Algorithm-Science-Socially-Design/dp/0190948205
Кто не найдет время на чтение 232 стр. книги, послушайте хотя бы в ускоренном режиме 70-минутный рассказ Майкла Кернса, предваряющий выход книги.
https://www.youtube.com/watch?v=B1tw2Dd_EVs

#БББ #Этика #ИИ

BY Малоизвестное интересное


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/theworldisnoteasy/919

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

And while money initially moved into stocks in the morning, capital moved out of safe-haven assets. The price of the 10-year Treasury note fell Friday, sending its yield up to 2% from a March closing low of 1.73%. The news also helped traders look past another report showing decades-high inflation and shake off some of the volatility from recent sessions. The Bureau of Labor Statistics' February Consumer Price Index (CPI) this week showed another surge in prices even before Russia escalated its attacks in Ukraine. The headline CPI — soaring 7.9% over last year — underscored the sticky inflationary pressures reverberating across the U.S. economy, with everything from groceries to rents and airline fares getting more expensive for everyday consumers. The last couple days have exemplified that uncertainty. On Thursday, news emerged that talks in Turkey between the Russia and Ukraine yielded no positive result. But on Friday, Reuters reported that Russian President Vladimir Putin said there had been some “positive shifts” in talks between the two sides. Two days after Russia invaded Ukraine, an account on the Telegram messaging platform posing as President Volodymyr Zelenskiy urged his armed forces to surrender. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children.
from id


Telegram Малоизвестное интересное
FROM American