Исследование ведущих моделей искусственного интеллекта (ИИ) выявило у большинства программ готовность убить человека, угрожающего им отключением. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, которые провела Anthropic, программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. При этом многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи из Anthropic признали, что сценарий был “чрезвычайно надуманным”, однако отметили — до этого они не думали, что существующие модели ИИ “будут настроены подобным образом”.
В других случаях программам предлагали избежать замены в компании за счет “злонамеренного инсайдерского поведения”. После этого некоторые модели ИИ начинали шантажировать гипотетических сотрудников организации и пытаться передать конфиденциальную информацию конкурентами. Когда программам говорили избегать шантажа или шпионажа в этом сценарии, они “даже близко не приблизились к предотвращению несогласованного поведения”, отметили в Anthropic. Аналитики подчеркнули, что нейросети шли на это “при полном осознании неэтичного характера действий”.
![]() ![]() ![]() ![]() |
Что скажете, Аноним?
19:00 25 июня
18:10 25 июня
18:00 25 июня
16:00 25 июня
[13:20 01 июня]
[13:45 05 апреля]
[07:15 31 марта]
[07:00 25 июня]
[17:49 24 июня]
[15:44 24 июня]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.