В США предсказали появление позволяющего выигрывать ядерные войны суперинтеллекта

В США предсказали появление позволяющего выигрывать ядерные войны суперинтеллекта
20:00, 22 Мар.

Развитие суперинтеллектуального искусственного интеллекта может привести к появлению систем, которые делают невозможным ответный ракетный удар противника или дают ему возможность видеть все подводные лодки с ядерным оружием в мировом океане, предупреждает ведущий исследователь в области ИИ, директор Центра безопасности ИИ Дэн Хендрикс.

По его мнению, ИИ способен изменить баланс военной мощи между США и их конкурентами.

Как пишет The New York Times, Хендрикс считает, что суперинтеллектуальные системы несут в себе риски дестабилизации мировой политики. Он определяет суперинтеллектуальный ИИ как систему, которая превосходит человека во всех аспектах мышления и решения задач.

Вместе с другими исследователями он опубликовал статью «Стратегия суперинтеллекта», в которой предложил механизм сдерживания подобных систем, аналогичный тому, что применялся во время ядерного противостояния в холодной войне.

«В эпоху холодной войны существовала доктрина взаимного уничтожения, контроль над распространением ядерных материалов и стратегия сдерживания СССР.

В случае с Китаем это проявляется в виде стратегического соперничества. Таким образом, и в вопросе ИИ необходимы меры сдерживания и предотвращения распространения», – отметил Хендрикс.

При этом он подчеркнул, что технологии ИИ имеют двойственное применение: они могут как приносить пользу гражданскому населению, так и становиться инструментом дестабилизации в оборонной сфере.

«Поскольку у ИИ есть как положительные, так и отрицательные стороны, нельзя сказать, что он исключительно хорош или плох. Важно минимизировать факторы нестабильности и не допустить попадания технологий в руки злоумышленников», – пояснил он.

По его мнению, если суперинтеллектуальный ИИ окажется в распоряжении недружественных государств или террористических организаций, это может привести к глобальной нестабильности.

Также, если в будущем некоторые страны получат доступ к суперинтеллекту, это приведет к резкому изменению баланса сил.«Представьте, что они разработают новую систему противоракетной обороны, устраняющую возможность ответного удара, или получат возможность делать океаны «прозрачными» для обнаружения подводных лодок с ядерным оружием.

Такие изменения в технологиях приведут к серьезным последствиям для стратегической стабильности», – подчеркнул исследователь.

Хендрикс назвал и еще одну проблему ИИ-систем: по мере увеличения мощности они становятся более устойчивыми к модификациям.

Это значит, что изменить или скорректировать их поведение становится сложнее.«Например, можно создать систему, которая учитывает мнение случайно отобранных граждан о том, что хорошо, а что плохо.

Однако с ростом мощности моделей они демонстрируют все большую сопротивляемость изменениям и корректировке их ценностей. Это может стать серьезной проблемой в будущем», – предупредил Хендрикс.Ранее министр обороны США приказал расформировать и реорганизовать Управление общих оценок Пентагона в целях усиления национальной обороны и концентрации на ключевых проблемах безопасности.

Рубрика: Новости. Читать весь текст на vz.ru.