Telegram Group & Telegram Channel
#nlp #про_nlp #agi_russia #длиннопост
🌸 10 причин, почему не нужно заниматься AI Alignment 🌸

Постепенно изучаю вместе с вами тему AI Alignment. AI Alignment – проблема контроля ИИ и передачи ему общечеловеческих ценностей.

Тема поднималась уже много раз, например, Gonzo ML собрал частые аргументы противников приостановки исследований на 6 месяцев. Ян Лекун, опять же, ничего не боится и нам не советует.
Я письмо тогда подписала, и аргументы мне показались важными, поэтому, публикую для вас мой вольный пересказ списка контраргументов из книги Стюарта Рассела “Human Compatible”.

Причина 1. Мы никогда не сделаем AGI, чего беспокоиться. Аргумент достаточно странный, учитывая, как активно в этом направлении ведется работа. Там мы делаем или нет? Обычно, когда дата-саентистов атакуют специалисты другого профиля, то мы говорим, что челоыеческий и сверхчеловеческий интеллект возможен и вообще все о-го-го.

Причина 2. Ну...Может, мы все-таки когда-нибудь сделаем AGI, но говорить про это пока рано. А когда надо вообще беспокоиться? Если бы было известно, что через 50 лет прилетит астероид, то когда бы надо начинать готовиться? Вопрос на самом деле не в том, когда это произойдет, а сколько времени нам вообще нужно для подготовки.

Причина 3. Беспокоиться о ценностях AGI = беспокоиться о перенаселении на Марсе. Похоже на предыдущий аргумент, илшь с тем отличием, что мы как бы пилотируем целую миссию на Марс, но при этом совсем не думаем о том, что будет, когда мы прилетим. Будет сюрприз!

Причина 4. Если есть беспокойство по поводу плохих целей, так и не надо закладывать в модель такие цели. Множество целей, эксплицитно не заложенных в агенты, появляются в ходе обучения сами, так как они позволяют достигнуть более высокиз результатов по широкому ряду эксплицитно выраженных задач, например, цель самосохранения.

Причина 5. Давайте вообще цели ИИ не задавать, и нет проблем. Давайте строить машину без тормозов сразу! так точно безопаснее.

Причина 6. Беспокоиться не нужно, потому что люди все равно не уйдут из цепочки принятия решений. ИИ и люди будут работать в команде. И многие подходы к безопасности действительно включают такой пункт. Однако, это не является решением проблемы. Представим, что вместо проработки безопасности атомного реактора мы просто говорим, что люди все время будут следить из комнаты управления. Безопасно? Коллаборация машин и людей возможна, если их цели совпадают.

Причина 7. Это же наука, прогресс неостановим. Работать все равно ничего не будет. Исследования в целом вполне возможно остановить, и мы даже много раз делали это. Исследования клонирования человека, химическое оружие, ослепляющие лазеры и т.д. — согласие в сообществе останавливает разработки.

Причина 8. Луддиты! Кто против ИИ, просто ничего в нем не смыслит. Если список подписавших письмо можно и оспорить, то вот список ученых, которые в свое время высказывали опасения, что с целями и безопасностью ИИ надо работать: Алан Тьюринг, Ирвинг Джон Гуд, Норберт Винер, Марвин Мински. А аргументы ad hominem вообще так себе.

Причина 9. Если будет проблема, то просто выключим. Ну ок. А если AGI это предвидит?

Причина 10. О рисках лучше не говорить, иначе не дадут инвестиций. О рисках все равно нужно говорить, не обязательно делать из этого пиар-компанию. Излишний упор на создание имиджа безпасности вокруг проблемы как раз обычно и приводит к промышленным инцидентам.



group-telegram.com/rybolos_channel/629
Create:
Last Update:

#nlp #про_nlp #agi_russia #длиннопост
🌸 10 причин, почему не нужно заниматься AI Alignment 🌸

Постепенно изучаю вместе с вами тему AI Alignment. AI Alignment – проблема контроля ИИ и передачи ему общечеловеческих ценностей.

Тема поднималась уже много раз, например, Gonzo ML собрал частые аргументы противников приостановки исследований на 6 месяцев. Ян Лекун, опять же, ничего не боится и нам не советует.
Я письмо тогда подписала, и аргументы мне показались важными, поэтому, публикую для вас мой вольный пересказ списка контраргументов из книги Стюарта Рассела “Human Compatible”.

Причина 1. Мы никогда не сделаем AGI, чего беспокоиться. Аргумент достаточно странный, учитывая, как активно в этом направлении ведется работа. Там мы делаем или нет? Обычно, когда дата-саентистов атакуют специалисты другого профиля, то мы говорим, что челоыеческий и сверхчеловеческий интеллект возможен и вообще все о-го-го.

Причина 2. Ну...Может, мы все-таки когда-нибудь сделаем AGI, но говорить про это пока рано. А когда надо вообще беспокоиться? Если бы было известно, что через 50 лет прилетит астероид, то когда бы надо начинать готовиться? Вопрос на самом деле не в том, когда это произойдет, а сколько времени нам вообще нужно для подготовки.

Причина 3. Беспокоиться о ценностях AGI = беспокоиться о перенаселении на Марсе. Похоже на предыдущий аргумент, илшь с тем отличием, что мы как бы пилотируем целую миссию на Марс, но при этом совсем не думаем о том, что будет, когда мы прилетим. Будет сюрприз!

Причина 4. Если есть беспокойство по поводу плохих целей, так и не надо закладывать в модель такие цели. Множество целей, эксплицитно не заложенных в агенты, появляются в ходе обучения сами, так как они позволяют достигнуть более высокиз результатов по широкому ряду эксплицитно выраженных задач, например, цель самосохранения.

Причина 5. Давайте вообще цели ИИ не задавать, и нет проблем. Давайте строить машину без тормозов сразу! так точно безопаснее.

Причина 6. Беспокоиться не нужно, потому что люди все равно не уйдут из цепочки принятия решений. ИИ и люди будут работать в команде. И многие подходы к безопасности действительно включают такой пункт. Однако, это не является решением проблемы. Представим, что вместо проработки безопасности атомного реактора мы просто говорим, что люди все время будут следить из комнаты управления. Безопасно? Коллаборация машин и людей возможна, если их цели совпадают.

Причина 7. Это же наука, прогресс неостановим. Работать все равно ничего не будет. Исследования в целом вполне возможно остановить, и мы даже много раз делали это. Исследования клонирования человека, химическое оружие, ослепляющие лазеры и т.д. — согласие в сообществе останавливает разработки.

Причина 8. Луддиты! Кто против ИИ, просто ничего в нем не смыслит. Если список подписавших письмо можно и оспорить, то вот список ученых, которые в свое время высказывали опасения, что с целями и безопасностью ИИ надо работать: Алан Тьюринг, Ирвинг Джон Гуд, Норберт Винер, Марвин Мински. А аргументы ad hominem вообще так себе.

Причина 9. Если будет проблема, то просто выключим. Ну ок. А если AGI это предвидит?

Причина 10. О рисках лучше не говорить, иначе не дадут инвестиций. О рисках все равно нужно говорить, не обязательно делать из этого пиар-компанию. Излишний упор на создание имиджа безпасности вокруг проблемы как раз обычно и приводит к промышленным инцидентам.

BY Kali Novskaya


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/rybolos_channel/629

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The original Telegram channel has expanded into a web of accounts for different locations, including specific pages made for individual Russian cities. There's also an English-language website, which states it is owned by the people who run the Telegram channels. But the Ukraine Crisis Media Center's Tsekhanovska points out that communications are often down in zones most affected by the war, making this sort of cross-referencing a luxury many cannot afford. On February 27th, Durov posted that Channels were becoming a source of unverified information and that the company lacks the ability to check on their veracity. He urged users to be mistrustful of the things shared on Channels, and initially threatened to block the feature in the countries involved for the length of the war, saying that he didn’t want Telegram to be used to aggravate conflict or incite ethnic hatred. He did, however, walk back this plan when it became clear that they had also become a vital communications tool for Ukrainian officials and citizens to help coordinate their resistance and evacuations. Pavel Durov, a billionaire who embraces an all-black wardrobe and is often compared to the character Neo from "the Matrix," funds Telegram through his personal wealth and debt financing. And despite being one of the world's most popular tech companies, Telegram reportedly has only about 30 employees who defer to Durov for most major decisions about the platform. Again, in contrast to Facebook, Google and Twitter, Telegram's founder Pavel Durov runs his company in relative secrecy from Dubai.
from fr


Telegram Kali Novskaya
FROM American