Развитие суперинтеллектуального искусственного интеллекта может привести к появлению систем, которые делают невозможным ответный ракетный удар противника или дают ему возможность видеть все подводные лодки с ядерным оружием в мировом океане, предупреждает ведущий исследователь в области ИИ, директор Центра безопасности ИИ Дэн Хендрикс.
По его мнению, ИИ способен изменить баланс военной мощи между США и их конкурентами.
Как пишет The New York Times, Хендрикс считает, что суперинтеллектуальные системы несут в себе риски дестабилизации мировой политики. Он определяет суперинтеллектуальный ИИ как систему, которая превосходит человека во всех аспектах мышления и решения задач.
Вместе с другими исследователями он опубликовал статью «Стратегия суперинтеллекта», в которой предложил механизм сдерживания подобных систем, аналогичный тому, что применялся во время ядерного противостояния в холодной войне.
«В эпоху холодной войны существовала доктрина взаимного уничтожения, контроль над распространением ядерных материалов и стратегия сдерживания СССР.
В случае с Китаем это проявляется в виде стратегического соперничества. Таким образом, и в вопросе ИИ необходимы меры сдерживания и предотвращения распространения», – отметил Хендрикс.
При этом он подчеркнул, что технологии ИИ имеют двойственное применение: они могут как приносить пользу гражданскому населению, так и становиться инструментом дестабилизации в оборонной сфере.
«Поскольку у ИИ есть как положительные, так и отрицательные стороны, нельзя сказать, что он исключительно хорош или плох. Важно минимизировать факторы нестабильности и не допустить попадания технологий в руки злоумышленников», – пояснил он.
По его мнению, если суперинтеллектуальный ИИ окажется в распоряжении недружественных государств или террористических организаций, это может привести к глобальной нестабильности.
Также, если в будущем некоторые страны получат доступ к суперинтеллекту, это приведет к резкому изменению баланса сил.«Представьте, что они разработают новую систему противоракетной обороны, устраняющую возможность ответного удара, или получат возможность делать океаны «прозрачными» для обнаружения подводных лодок с ядерным оружием.
Такие изменения в технологиях приведут к серьезным последствиям для стратегической стабильности», – подчеркнул исследователь.
Хендрикс назвал и еще одну проблему ИИ-систем: по мере увеличения мощности они становятся более устойчивыми к модификациям.
Это значит, что изменить или скорректировать их поведение становится сложнее.«Например, можно создать систему, которая учитывает мнение случайно отобранных граждан о том, что хорошо, а что плохо.
Однако с ростом мощности моделей они демонстрируют все большую сопротивляемость изменениям и корректировке их ценностей. Это может стать серьезной проблемой в будущем», – предупредил Хендрикс.Ранее министр обороны США приказал расформировать и реорганизовать Управление общих оценок Пентагона в целях усиления национальной обороны и концентрации на ключевых проблемах безопасности.