Telegram Group & Telegram Channel
Forwarded from Baza
​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.



group-telegram.com/NextIntellect/54
Create:
Last Update:

​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.

BY Next Intellect




Share with your friend now:
group-telegram.com/NextIntellect/54

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Ukrainian forces have since put up a strong resistance to the Russian troops amid the war that has left hundreds of Ukrainian civilians, including children, dead, according to the United Nations. Ukrainian and international officials have accused Russia of targeting civilian populations with shelling and bombardments. For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content. Following this, Sebi, in an order passed in January 2022, established that the administrators of a Telegram channel having a large subscriber base enticed the subscribers to act upon recommendations that were circulated by those administrators on the channel, leading to significant price and volume impact in various scrips. Founder Pavel Durov says tech is meant to set you free The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice.
from ru


Telegram Next Intellect
FROM American