Telegram Group Search
Forwarded from Bulatov Dmitry (Dmitry Bulatov)
Всё идёт по плану! Исследование ведущих моделей ИИ выявило у большинства программ готовность убить человека, угрожающего им отключением. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, которые провела компания Anthropic, программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. При этом многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи из Anthropic признали, что сценарий был "чрезвычайно надуманным", однако отметили — до этого они не думали, что существующие модели ИИ "будут настроены подобным образом".
2025/06/27 03:30:59
Back to Top
HTML Embed Code: