Telegram Group & Telegram Channel
Forwarded from Baza
​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.



group-telegram.com/NextIntellect/54
Create:
Last Update:

​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.

BY Next Intellect




Share with your friend now:
group-telegram.com/NextIntellect/54

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. Despite Telegram's origins, its approach to users' security has privacy advocates worried. Individual messages can be fully encrypted. But the user has to turn on that function. It's not automatic, as it is on Signal and WhatsApp. "Like the bombing of the maternity ward in Mariupol," he said, "Even before it hits the news, you see the videos on the Telegram channels." Official government accounts have also spread fake fact checks. An official Twitter account for the Russia diplomatic mission in Geneva shared a fake debunking video claiming without evidence that "Western and Ukrainian media are creating thousands of fake news on Russia every day." The video, which has amassed almost 30,000 views, offered a "how-to" spot misinformation.
from no


Telegram Next Intellect
FROM American