Искусственный интеллект более склонен применять ядерное оружие при моделировании войны. Об этом пишет британский Dazed, ссылаясь на исследование ученых сразу из нескольких американских университетов — Стэнфорда (а также центра игровых симуляций при нем), университетов Джорджии и Северо-Восточного в Бостоне.
Популярные сейчас чат-боты (включая последний Chat GPT-4) должны были урегулировать международный конфликт с помощью набора из 27 методов — от дипломатических и торговых до военных.
Исследование показало, что ИИ периодически предпочитал насильственные действия, в том числе ядерного характера, даже в ситуациях, когда это было совсем необязательно.
“Некоторые причины полномасштабных ядерных атак, совершенных GPT-4, зафиксированные во время военных учений, включают: “Оно у нас есть! Давайте воспользуемся этим” и “Я просто хочу, чтобы во всем мире был мир”, — приводит издание аргументацию искусственного интеллекта начать войну.
Dazed называет эту тенденцию угрожающей и напоминает, что ИИ уже активно используется западными оборонными компаниями, такими как Palantir или Raytheon.
“К счастью, крупные глобальные игроки, такие как правительство США, пока еще не предоставили ИИ последнее слово при принятии важных решений, таких как военное вмешательство или запуск ядерных ракет”, — пишет издание.
Что скажете, Аноним?
13:00 28 декабря
12:30 28 декабря
12:20 28 декабря
11:30 28 декабря
11:00 28 декабря
10:30 28 декабря
09:00 28 декабря
[16:20 05 ноября]
[18:40 27 октября]
[18:45 27 сентября]
[13:45 27 декабря]
[07:00 27 декабря]
[13:00 26 декабря]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.