group-telegram.com/F_S_C_P/111703
Last Update:
Бывший гуглоначальник Шмидт выкатил доклад про движение к суперИИ (AGI), который в менее бурное время заслужил бы куда больше внимания в силу освежающей бодрости инициатив.
Доклад "Стратегия суперинтеллекта" – трехчастная стратегия фиксации американского стратегического преимущества:
1⃣ Сдерживание;
2⃣ Нераспространение;
3⃣ Конкурентоспособность.
При этом "сдерживать" и "нераспространять" предлагается инструментами "международного сотрудничества", подчеркивается необходимость "общих правил" и "глобальных соглашений" для предотвращения катастрофических рисков от ИИ. Это в "объяснительной части".
А в части инструментальной – взгляд на международное сотрудничество крайне своеобразный:
🤔 Жесткий контроль экспорта чипов для ИИ без равноправного участия других стран в определении правил (буквально, американский регулятор должен знать, где каждый чип, способный работать с ИИ в режиме он-лайн и иметь возможность дистанционно его сломать);
🤔 Особые иммиграционные режимы для привлечения мировых талантов в США (буквально, каждый человек, имеющий хоть какие-то способности в области ИИ должен быть нанят и перевезен в США);
🫣 Наращивание военного применения ИИ и ИИ "двойного назначения" с идеей в т.ч. чтобы любое использование ИИ продвинутых моделей так или иначе оказалось связанным с оборонкой и госбезопасностью и соответственно регулировалось;
Объяснение: AGI потенциально опасная технология, поэтому ее нужно "беречь". Лучший способ же сбережения – это контролировать ее в рамках США. Но – признает Шмидт – шила в мешке не утаишь. Возможны ситуации, что кто-то сделает себе чипов или выйдет из положения с AGI другим способом.
На помощь должна прийти стратегия обозначенная как "Взаимно гарантированная неисправность ИИ" (MAIM), аналог ядерного взаимного гарантированного уничтожения. Согласно этой идее, если некая страна будет стремиться к одностороннему превосходству в "сверхИИ", другие страны не останутся пассивными наблюдателями, а активно саботируют такие проекты. Позвольте, спросит читатель, а разве весь доклад не про то, как "некой стране" достичь превосходства в этой области? 🧐 И будет прав. Видимо имеется ввиду любая другая страна, кроме США.
Так вот. Если некая "страна #2" внезапно окажется на пороге превосходства над США, то должна включиться лестница эскалации по предотвращению попадания столь опасного инструмента в чужие руки:
▪️ Кибератаки на инфраструктуру ИИ "некой страны";
▪️ Компрометация данных и весов моделей;
▪️Внедрение вредоносного ПО в процессы обучения ИИ,
💣 И, наконец, "кинетические атаки" — физический саботаж датацентров, энергетической инфраструктуры и инфраструктуры связи вокруг них любыми средствами включая "гиперзвук".
❗️Это не шутка.
"Since above-ground datacenters cannot currently be defended from hypersonic missiles, a state seeking to protect its AI-enabled strategic monopoly project might attempt to bury datacenters deep underground to shield them."
Это задает фундаментальное противоречие между декларируемой целью "стабильности технологий" и средствами её достижения. Ракетная атака на стратегически важный объект на территории ядерной державы (а кто еще может конкурировать со Штатами в области ИИ) - так себе "элемент сдерживания".
Еще в докладе много хороших слов, что т.к. ИИ способен производить много политически чувствительного контента, чтобы спасти общество от этого, надо чтобы другой ИИ – консенсусно "правильный" - это отслеживал на предмет достоверности\реферировал для потребителей информации. То есть идея владельца LA Times Суна, что никакая информация не должна поступать потребителю без специальных фильтров и цензурных комментариев - это не "баг", это мэйнстрим.
✔️В сухом остатке: Американская стратегическая мысль признала неизбежность конкуренции за лидерство в сфере ИИ. Что неплохо. Но переход от академических дискуссий о возможностях прямо к обсуждению механизмов удержания превосходства ударами гиперзвуковым оружием или кибератаками поражает воображение.
Вдохновленных Трампом техноолигархов все-таки заносит. Надеюсь без больших последствий для человечества.
BY FSCP
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Share with your friend now:
group-telegram.com/F_S_C_P/111703