Telegram Group & Telegram Channel
Forwarded from Baza
​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.



group-telegram.com/NextIntellect/54
Create:
Last Update:

​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.

BY Next Intellect




Share with your friend now:
group-telegram.com/NextIntellect/54

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Emerson Brooking, a disinformation expert at the Atlantic Council's Digital Forensic Research Lab, said: "Back in the Wild West period of content moderation, like 2014 or 2015, maybe they could have gotten away with it, but it stands in marked contrast with how other companies run themselves today." Apparently upbeat developments in Russia's discussions with Ukraine helped at least temporarily send investors back into risk assets. Russian President Vladimir Putin said during a meeting with his Belarusian counterpart Alexander Lukashenko that there were "certain positive developments" occurring in the talks with Ukraine, according to a transcript of their meeting. Putin added that discussions were happening "almost on a daily basis." "There are several million Russians who can lift their head up from propaganda and try to look for other sources, and I'd say that most look for it on Telegram," he said. Oh no. There’s a certain degree of myth-making around what exactly went on, so take everything that follows lightly. Telegram was originally launched as a side project by the Durov brothers, with Nikolai handling the coding and Pavel as CEO, while both were at VK. Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read."
from tr


Telegram Next Intellect
FROM American