Telegram Group & Telegram Channel
#nlp #про_nlp #agi_russia #длиннопост
🌸 10 причин, почему не нужно заниматься AI Alignment 🌸

Постепенно изучаю вместе с вами тему AI Alignment. AI Alignment – проблема контроля ИИ и передачи ему общечеловеческих ценностей.

Тема поднималась уже много раз, например, Gonzo ML собрал частые аргументы противников приостановки исследований на 6 месяцев. Ян Лекун, опять же, ничего не боится и нам не советует.
Я письмо тогда подписала, и аргументы мне показались важными, поэтому, публикую для вас мой вольный пересказ списка контраргументов из книги Стюарта Рассела “Human Compatible”.

Причина 1. Мы никогда не сделаем AGI, чего беспокоиться. Аргумент достаточно странный, учитывая, как активно в этом направлении ведется работа. Там мы делаем или нет? Обычно, когда дата-саентистов атакуют специалисты другого профиля, то мы говорим, что челоыеческий и сверхчеловеческий интеллект возможен и вообще все о-го-го.

Причина 2. Ну...Может, мы все-таки когда-нибудь сделаем AGI, но говорить про это пока рано. А когда надо вообще беспокоиться? Если бы было известно, что через 50 лет прилетит астероид, то когда бы надо начинать готовиться? Вопрос на самом деле не в том, когда это произойдет, а сколько времени нам вообще нужно для подготовки.

Причина 3. Беспокоиться о ценностях AGI = беспокоиться о перенаселении на Марсе. Похоже на предыдущий аргумент, илшь с тем отличием, что мы как бы пилотируем целую миссию на Марс, но при этом совсем не думаем о том, что будет, когда мы прилетим. Будет сюрприз!

Причина 4. Если есть беспокойство по поводу плохих целей, так и не надо закладывать в модель такие цели. Множество целей, эксплицитно не заложенных в агенты, появляются в ходе обучения сами, так как они позволяют достигнуть более высокиз результатов по широкому ряду эксплицитно выраженных задач, например, цель самосохранения.

Причина 5. Давайте вообще цели ИИ не задавать, и нет проблем. Давайте строить машину без тормозов сразу! так точно безопаснее.

Причина 6. Беспокоиться не нужно, потому что люди все равно не уйдут из цепочки принятия решений. ИИ и люди будут работать в команде. И многие подходы к безопасности действительно включают такой пункт. Однако, это не является решением проблемы. Представим, что вместо проработки безопасности атомного реактора мы просто говорим, что люди все время будут следить из комнаты управления. Безопасно? Коллаборация машин и людей возможна, если их цели совпадают.

Причина 7. Это же наука, прогресс неостановим. Работать все равно ничего не будет. Исследования в целом вполне возможно остановить, и мы даже много раз делали это. Исследования клонирования человека, химическое оружие, ослепляющие лазеры и т.д. — согласие в сообществе останавливает разработки.

Причина 8. Луддиты! Кто против ИИ, просто ничего в нем не смыслит. Если список подписавших письмо можно и оспорить, то вот список ученых, которые в свое время высказывали опасения, что с целями и безопасностью ИИ надо работать: Алан Тьюринг, Ирвинг Джон Гуд, Норберт Винер, Марвин Мински. А аргументы ad hominem вообще так себе.

Причина 9. Если будет проблема, то просто выключим. Ну ок. А если AGI это предвидит?

Причина 10. О рисках лучше не говорить, иначе не дадут инвестиций. О рисках все равно нужно говорить, не обязательно делать из этого пиар-компанию. Излишний упор на создание имиджа безпасности вокруг проблемы как раз обычно и приводит к промышленным инцидентам.



group-telegram.com/rybolos_channel/629
Create:
Last Update:

#nlp #про_nlp #agi_russia #длиннопост
🌸 10 причин, почему не нужно заниматься AI Alignment 🌸

Постепенно изучаю вместе с вами тему AI Alignment. AI Alignment – проблема контроля ИИ и передачи ему общечеловеческих ценностей.

Тема поднималась уже много раз, например, Gonzo ML собрал частые аргументы противников приостановки исследований на 6 месяцев. Ян Лекун, опять же, ничего не боится и нам не советует.
Я письмо тогда подписала, и аргументы мне показались важными, поэтому, публикую для вас мой вольный пересказ списка контраргументов из книги Стюарта Рассела “Human Compatible”.

Причина 1. Мы никогда не сделаем AGI, чего беспокоиться. Аргумент достаточно странный, учитывая, как активно в этом направлении ведется работа. Там мы делаем или нет? Обычно, когда дата-саентистов атакуют специалисты другого профиля, то мы говорим, что челоыеческий и сверхчеловеческий интеллект возможен и вообще все о-го-го.

Причина 2. Ну...Может, мы все-таки когда-нибудь сделаем AGI, но говорить про это пока рано. А когда надо вообще беспокоиться? Если бы было известно, что через 50 лет прилетит астероид, то когда бы надо начинать готовиться? Вопрос на самом деле не в том, когда это произойдет, а сколько времени нам вообще нужно для подготовки.

Причина 3. Беспокоиться о ценностях AGI = беспокоиться о перенаселении на Марсе. Похоже на предыдущий аргумент, илшь с тем отличием, что мы как бы пилотируем целую миссию на Марс, но при этом совсем не думаем о том, что будет, когда мы прилетим. Будет сюрприз!

Причина 4. Если есть беспокойство по поводу плохих целей, так и не надо закладывать в модель такие цели. Множество целей, эксплицитно не заложенных в агенты, появляются в ходе обучения сами, так как они позволяют достигнуть более высокиз результатов по широкому ряду эксплицитно выраженных задач, например, цель самосохранения.

Причина 5. Давайте вообще цели ИИ не задавать, и нет проблем. Давайте строить машину без тормозов сразу! так точно безопаснее.

Причина 6. Беспокоиться не нужно, потому что люди все равно не уйдут из цепочки принятия решений. ИИ и люди будут работать в команде. И многие подходы к безопасности действительно включают такой пункт. Однако, это не является решением проблемы. Представим, что вместо проработки безопасности атомного реактора мы просто говорим, что люди все время будут следить из комнаты управления. Безопасно? Коллаборация машин и людей возможна, если их цели совпадают.

Причина 7. Это же наука, прогресс неостановим. Работать все равно ничего не будет. Исследования в целом вполне возможно остановить, и мы даже много раз делали это. Исследования клонирования человека, химическое оружие, ослепляющие лазеры и т.д. — согласие в сообществе останавливает разработки.

Причина 8. Луддиты! Кто против ИИ, просто ничего в нем не смыслит. Если список подписавших письмо можно и оспорить, то вот список ученых, которые в свое время высказывали опасения, что с целями и безопасностью ИИ надо работать: Алан Тьюринг, Ирвинг Джон Гуд, Норберт Винер, Марвин Мински. А аргументы ad hominem вообще так себе.

Причина 9. Если будет проблема, то просто выключим. Ну ок. А если AGI это предвидит?

Причина 10. О рисках лучше не говорить, иначе не дадут инвестиций. О рисках все равно нужно говорить, не обязательно делать из этого пиар-компанию. Излишний упор на создание имиджа безпасности вокруг проблемы как раз обычно и приводит к промышленным инцидентам.

BY Kali Novskaya


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/rybolos_channel/629

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Either way, Durov says that he withdrew his resignation but that he was ousted from his company anyway. Subsequently, control of the company was reportedly handed to oligarchs Alisher Usmanov and Igor Sechin, both allegedly close associates of Russian leader Vladimir Putin. Markets continued to grapple with the economic and corporate earnings implications relating to the Russia-Ukraine conflict. “We have a ton of uncertainty right now,” said Stephanie Link, chief investment strategist and portfolio manager at Hightower Advisors. “We’re dealing with a war, we’re dealing with inflation. We don’t know what it means to earnings.” The news also helped traders look past another report showing decades-high inflation and shake off some of the volatility from recent sessions. The Bureau of Labor Statistics' February Consumer Price Index (CPI) this week showed another surge in prices even before Russia escalated its attacks in Ukraine. The headline CPI — soaring 7.9% over last year — underscored the sticky inflationary pressures reverberating across the U.S. economy, with everything from groceries to rents and airline fares getting more expensive for everyday consumers. Since its launch in 2013, Telegram has grown from a simple messaging app to a broadcast network. Its user base isn’t as vast as WhatsApp’s, and its broadcast platform is a fraction the size of Twitter, but it’s nonetheless showing its use. While Telegram has been embroiled in controversy for much of its life, it has become a vital source of communication during the invasion of Ukraine. But, if all of this is new to you, let us explain, dear friends, what on Earth a Telegram is meant to be, and why you should, or should not, need to care. In the United States, Telegram's lower public profile has helped it mostly avoid high level scrutiny from Congress, but it has not gone unnoticed.
from ua


Telegram Kali Novskaya
FROM American