Telegram Group & Telegram Channel
Forwarded from Baza
​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.



group-telegram.com/NextIntellect/54
Create:
Last Update:

​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.

BY Next Intellect




Share with your friend now:
group-telegram.com/NextIntellect/54

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"Markets were cheering this economic recovery and return to strong economic growth, but the cheers will turn to tears if the inflation outbreak pushes businesses and consumers to the brink of recession," he added. Some privacy experts say Telegram is not secure enough Since January 2022, the SC has received a total of 47 complaints and enquiries on illegal investment schemes promoted through Telegram. These fraudulent schemes offer non-existent investment opportunities, promising very attractive and risk-free returns within a short span of time. They commonly offer unrealistic returns of as high as 1,000% within 24 hours or even within a few hours. Meanwhile, a completely redesigned attachment menu appears when sending multiple photos or vides. Users can tap "X selected" (X being the number of items) at the top of the panel to preview how the album will look in the chat when it's sent, as well as rearrange or remove selected media. At this point, however, Durov had already been working on Telegram with his brother, and further planned a mobile-first social network with an explicit focus on anti-censorship. Later in April, he told TechCrunch that he had left Russia and had “no plans to go back,” saying that the nation was currently “incompatible with internet business at the moment.” He added later that he was looking for a country that matched his libertarian ideals to base his next startup.
from us


Telegram Next Intellect
FROM American