Telegram Group & Telegram Channel
Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.

Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.


При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".

А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:

🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);

🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);

🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;

Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.

На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.

Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".

❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."

Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и  средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".

Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого,  надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.

✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.



group-telegram.com/F_S_C_P/111703
Create:
Last Update:

Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.

Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.


При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".

А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:

🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);

🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);

🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;

Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.

На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.

Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".

❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."

Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и  средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".

Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого,  надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.

✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.

BY FSCP


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/F_S_C_P/111703

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy." But Telegram says people want to keep their chat history when they get a new phone, and they like having a data backup that will sync their chats across multiple devices. And that is why they let people choose whether they want their messages to be encrypted or not. When not turned on, though, chats are stored on Telegram's services, which are scattered throughout the world. But it has "disclosed 0 bytes of user data to third parties, including governments," Telegram states on its website. Since January 2022, the SC has received a total of 47 complaints and enquiries on illegal investment schemes promoted through Telegram. These fraudulent schemes offer non-existent investment opportunities, promising very attractive and risk-free returns within a short span of time. They commonly offer unrealistic returns of as high as 1,000% within 24 hours or even within a few hours. Groups are also not fully encrypted, end-to-end. This includes private groups. Private groups cannot be seen by other Telegram users, but Telegram itself can see the groups and all of the communications that you have in them. All of the same risks and warnings about channels can be applied to groups. "Russians are really disconnected from the reality of what happening to their country," Andrey said. "So Telegram has become essential for understanding what's going on to the Russian-speaking world."
from us


Telegram FSCP
FROM American