Telegram Group & Telegram Channel
Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.

Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.


При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".

А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:

🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);

🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);

🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;

Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.

На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.

Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".

❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."

Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и  средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".

Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого,  надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.

✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.



group-telegram.com/F_S_C_P/111703
Create:
Last Update:

Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.

Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.


При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".

А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:

🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);

🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);

🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;

Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.

На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.

Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".

❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."

Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и  средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".

Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого,  надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.

✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.

BY FSCP


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/F_S_C_P/111703

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

In December 2021, Sebi officials had conducted a search and seizure operation at the premises of certain persons carrying out similar manipulative activities through Telegram channels. "And that set off kind of a battle royale for control of the platform that Durov eventually lost," said Nathalie Maréchal of the Washington advocacy group Ranking Digital Rights. Just days after Russia invaded Ukraine, Durov wrote that Telegram was "increasingly becoming a source of unverified information," and he worried about the app being used to "incite ethnic hatred." But because group chats and the channel features are not end-to-end encrypted, Galperin said user privacy is potentially under threat. Either way, Durov says that he withdrew his resignation but that he was ousted from his company anyway. Subsequently, control of the company was reportedly handed to oligarchs Alisher Usmanov and Igor Sechin, both allegedly close associates of Russian leader Vladimir Putin.
from pl


Telegram FSCP
FROM American