Telegram Group & Telegram Channel
Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.

Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.


При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".

А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:

🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);

🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);

🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;

Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.

На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.

Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".

❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."

Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и  средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".

Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого,  надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.

✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.



group-telegram.com/F_S_C_P/111703
Create:
Last Update:

Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.

Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.


При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".

А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:

🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);

🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);

🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;

Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.

На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.

Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".

❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."

Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и  средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".

Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого,  надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.

✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.

BY FSCP


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/F_S_C_P/111703

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

But Kliuchnikov, the Ukranian now in France, said he will use Signal or WhatsApp for sensitive conversations, but questions around privacy on Telegram do not give him pause when it comes to sharing information about the war. Stocks dropped on Friday afternoon, as gains made earlier in the day on hopes for diplomatic progress between Russia and Ukraine turned to losses. Technology stocks were hit particularly hard by higher bond yields. Elsewhere, version 8.6 of Telegram integrates the in-app camera option into the gallery, while a new navigation bar gives quick access to photos, files, location sharing, and more. Telegram users are able to send files of any type up to 2GB each and access them from any device, with no limit on cloud storage, which has made downloading files more popular on the platform. The last couple days have exemplified that uncertainty. On Thursday, news emerged that talks in Turkey between the Russia and Ukraine yielded no positive result. But on Friday, Reuters reported that Russian President Vladimir Putin said there had been some “positive shifts” in talks between the two sides.
from us


Telegram FSCP
FROM American