Telegram Group & Telegram Channel
#nlp #про_nlp #agi_russia #длиннопост
🌸 10 причин, почему не нужно заниматься AI Alignment 🌸

Постепенно изучаю вместе с вами тему AI Alignment. AI Alignment – проблема контроля ИИ и передачи ему общечеловеческих ценностей.

Тема поднималась уже много раз, например, Gonzo ML собрал частые аргументы противников приостановки исследований на 6 месяцев. Ян Лекун, опять же, ничего не боится и нам не советует.
Я письмо тогда подписала, и аргументы мне показались важными, поэтому, публикую для вас мой вольный пересказ списка контраргументов из книги Стюарта Рассела “Human Compatible”.

Причина 1. Мы никогда не сделаем AGI, чего беспокоиться. Аргумент достаточно странный, учитывая, как активно в этом направлении ведется работа. Там мы делаем или нет? Обычно, когда дата-саентистов атакуют специалисты другого профиля, то мы говорим, что челоыеческий и сверхчеловеческий интеллект возможен и вообще все о-го-го.

Причина 2. Ну...Может, мы все-таки когда-нибудь сделаем AGI, но говорить про это пока рано. А когда надо вообще беспокоиться? Если бы было известно, что через 50 лет прилетит астероид, то когда бы надо начинать готовиться? Вопрос на самом деле не в том, когда это произойдет, а сколько времени нам вообще нужно для подготовки.

Причина 3. Беспокоиться о ценностях AGI = беспокоиться о перенаселении на Марсе. Похоже на предыдущий аргумент, илшь с тем отличием, что мы как бы пилотируем целую миссию на Марс, но при этом совсем не думаем о том, что будет, когда мы прилетим. Будет сюрприз!

Причина 4. Если есть беспокойство по поводу плохих целей, так и не надо закладывать в модель такие цели. Множество целей, эксплицитно не заложенных в агенты, появляются в ходе обучения сами, так как они позволяют достигнуть более высокиз результатов по широкому ряду эксплицитно выраженных задач, например, цель самосохранения.

Причина 5. Давайте вообще цели ИИ не задавать, и нет проблем. Давайте строить машину без тормозов сразу! так точно безопаснее.

Причина 6. Беспокоиться не нужно, потому что люди все равно не уйдут из цепочки принятия решений. ИИ и люди будут работать в команде. И многие подходы к безопасности действительно включают такой пункт. Однако, это не является решением проблемы. Представим, что вместо проработки безопасности атомного реактора мы просто говорим, что люди все время будут следить из комнаты управления. Безопасно? Коллаборация машин и людей возможна, если их цели совпадают.

Причина 7. Это же наука, прогресс неостановим. Работать все равно ничего не будет. Исследования в целом вполне возможно остановить, и мы даже много раз делали это. Исследования клонирования человека, химическое оружие, ослепляющие лазеры и т.д. — согласие в сообществе останавливает разработки.

Причина 8. Луддиты! Кто против ИИ, просто ничего в нем не смыслит. Если список подписавших письмо можно и оспорить, то вот список ученых, которые в свое время высказывали опасения, что с целями и безопасностью ИИ надо работать: Алан Тьюринг, Ирвинг Джон Гуд, Норберт Винер, Марвин Мински. А аргументы ad hominem вообще так себе.

Причина 9. Если будет проблема, то просто выключим. Ну ок. А если AGI это предвидит?

Причина 10. О рисках лучше не говорить, иначе не дадут инвестиций. О рисках все равно нужно говорить, не обязательно делать из этого пиар-компанию. Излишний упор на создание имиджа безпасности вокруг проблемы как раз обычно и приводит к промышленным инцидентам.



group-telegram.com/rybolos_channel/629
Create:
Last Update:

#nlp #про_nlp #agi_russia #длиннопост
🌸 10 причин, почему не нужно заниматься AI Alignment 🌸

Постепенно изучаю вместе с вами тему AI Alignment. AI Alignment – проблема контроля ИИ и передачи ему общечеловеческих ценностей.

Тема поднималась уже много раз, например, Gonzo ML собрал частые аргументы противников приостановки исследований на 6 месяцев. Ян Лекун, опять же, ничего не боится и нам не советует.
Я письмо тогда подписала, и аргументы мне показались важными, поэтому, публикую для вас мой вольный пересказ списка контраргументов из книги Стюарта Рассела “Human Compatible”.

Причина 1. Мы никогда не сделаем AGI, чего беспокоиться. Аргумент достаточно странный, учитывая, как активно в этом направлении ведется работа. Там мы делаем или нет? Обычно, когда дата-саентистов атакуют специалисты другого профиля, то мы говорим, что челоыеческий и сверхчеловеческий интеллект возможен и вообще все о-го-го.

Причина 2. Ну...Может, мы все-таки когда-нибудь сделаем AGI, но говорить про это пока рано. А когда надо вообще беспокоиться? Если бы было известно, что через 50 лет прилетит астероид, то когда бы надо начинать готовиться? Вопрос на самом деле не в том, когда это произойдет, а сколько времени нам вообще нужно для подготовки.

Причина 3. Беспокоиться о ценностях AGI = беспокоиться о перенаселении на Марсе. Похоже на предыдущий аргумент, илшь с тем отличием, что мы как бы пилотируем целую миссию на Марс, но при этом совсем не думаем о том, что будет, когда мы прилетим. Будет сюрприз!

Причина 4. Если есть беспокойство по поводу плохих целей, так и не надо закладывать в модель такие цели. Множество целей, эксплицитно не заложенных в агенты, появляются в ходе обучения сами, так как они позволяют достигнуть более высокиз результатов по широкому ряду эксплицитно выраженных задач, например, цель самосохранения.

Причина 5. Давайте вообще цели ИИ не задавать, и нет проблем. Давайте строить машину без тормозов сразу! так точно безопаснее.

Причина 6. Беспокоиться не нужно, потому что люди все равно не уйдут из цепочки принятия решений. ИИ и люди будут работать в команде. И многие подходы к безопасности действительно включают такой пункт. Однако, это не является решением проблемы. Представим, что вместо проработки безопасности атомного реактора мы просто говорим, что люди все время будут следить из комнаты управления. Безопасно? Коллаборация машин и людей возможна, если их цели совпадают.

Причина 7. Это же наука, прогресс неостановим. Работать все равно ничего не будет. Исследования в целом вполне возможно остановить, и мы даже много раз делали это. Исследования клонирования человека, химическое оружие, ослепляющие лазеры и т.д. — согласие в сообществе останавливает разработки.

Причина 8. Луддиты! Кто против ИИ, просто ничего в нем не смыслит. Если список подписавших письмо можно и оспорить, то вот список ученых, которые в свое время высказывали опасения, что с целями и безопасностью ИИ надо работать: Алан Тьюринг, Ирвинг Джон Гуд, Норберт Винер, Марвин Мински. А аргументы ad hominem вообще так себе.

Причина 9. Если будет проблема, то просто выключим. Ну ок. А если AGI это предвидит?

Причина 10. О рисках лучше не говорить, иначе не дадут инвестиций. О рисках все равно нужно говорить, не обязательно делать из этого пиар-компанию. Излишний упор на создание имиджа безпасности вокруг проблемы как раз обычно и приводит к промышленным инцидентам.

BY Kali Novskaya


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/rybolos_channel/629

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Since January 2022, the SC has received a total of 47 complaints and enquiries on illegal investment schemes promoted through Telegram. These fraudulent schemes offer non-existent investment opportunities, promising very attractive and risk-free returns within a short span of time. They commonly offer unrealistic returns of as high as 1,000% within 24 hours or even within a few hours. Founder Pavel Durov says tech is meant to set you free The perpetrators use various names to carry out the investment scams. They may also impersonate or clone licensed capital market intermediaries by using the names, logos, credentials, websites and other details of the legitimate entities to promote the illegal schemes. The picture was mixed overseas. Hong Kong’s Hang Seng Index fell 1.6%, under pressure from U.S. regulatory scrutiny on New York-listed Chinese companies. Stocks were more buoyant in Europe, where Frankfurt’s DAX surged 1.4%. "He has kind of an old-school cyber-libertarian world view where technology is there to set you free," Maréchal said.
from sg


Telegram Kali Novskaya
FROM American