Telegram Group & Telegram Channel
Манхэттенский проект - 2.0

Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.

Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).

Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:

При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.

И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.


Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.

По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.

«До встречи в пустыне», — так заканчивается документ.
🔥9👎32👍2



group-telegram.com/antidigital/7915
Create:
Last Update:

Манхэттенский проект - 2.0

Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.

Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).

Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:

При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.

И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.


Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.

По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.

«До встречи в пустыне», — так заканчивается документ.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/7915

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

But because group chats and the channel features are not end-to-end encrypted, Galperin said user privacy is potentially under threat. Following this, Sebi, in an order passed in January 2022, established that the administrators of a Telegram channel having a large subscriber base enticed the subscribers to act upon recommendations that were circulated by those administrators on the channel, leading to significant price and volume impact in various scrips. Artem Kliuchnikov and his family fled Ukraine just days before the Russian invasion. Groups are also not fully encrypted, end-to-end. This includes private groups. Private groups cannot be seen by other Telegram users, but Telegram itself can see the groups and all of the communications that you have in them. All of the same risks and warnings about channels can be applied to groups. Lastly, the web previews of t.me links have been given a new look, adding chat backgrounds and design elements from the fully-features Telegram Web client.
from us


Telegram Нецифровая экономика
FROM American