Telegram Group & Telegram Channel
Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.

Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.


При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".

А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:

🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);

🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);

🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;

Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.

На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.

Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".

❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."

Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и  средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".

Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого,  надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.

✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.



group-telegram.com/F_S_C_P/111703
Create:
Last Update:

Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.

Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.


При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".

А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:

🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);

🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);

🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;

Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.

На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.

Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".

❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."

Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и  средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".

Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого,  надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.

✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.

BY FSCP


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/F_S_C_P/111703

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Oleksandra Matviichuk, a Kyiv-based lawyer and head of the Center for Civil Liberties, called Durov’s position "very weak," and urged concrete improvements. Continuing its crackdown against entities allegedly involved in a front-running scam using messaging app Telegram, Sebi on Thursday carried out search and seizure operations at the premises of eight entities in multiple locations across the country. I want a secure messaging app, should I use Telegram? As a result, the pandemic saw many newcomers to Telegram, including prominent anti-vaccine activists who used the app's hands-off approach to share false information on shots, a study from the Institute for Strategic Dialogue shows. Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy."
from ye


Telegram FSCP
FROM American