Искусственный интеллект может помогать в обработке информации и анализе целей, однако окончательное решение о применении силы должно оставаться за человеком.
Как сообщает в субботу Trend, об этом заявил бывший генеральный секретарь Шанхайской организации сотрудничества (ШОС), член Международного центра Низами Гянджеви Владимир Норов в ходе XIII Глобального Бакинского форума на тему «Преодоление разногласий в мире в переходный период».
«Машины не способны принимать моральные и контекстуальные решения, которые требуются международным гуманитарным правом», — отметил В. Норов.
По его словам, вооружения с использованием искусственного интеллекта должны полностью соответствовать нормам международного гуманитарного права, включая принципы различения, соразмерности и военной необходимости.
«В реальных условиях боевых действий различение между комбатантами и гражданским населением часто требует сложной человеческой оценки, которую современные системы искусственного интеллекта не способны надёжно воспроизвести», — подчеркнул В. Норов.
Он также отметил необходимость строгих мер операционной безопасности. По его словам, автономные системы должны иметь надёжные механизмы, позволяющие оператору вмешаться, отменить действие или полностью остановить систему в любой момент.
«Обязательными должны быть функции аварийного отключения, безопасного режима ожидания и другие защитные механизмы, предотвращающие непреднамеренную эскалацию или потерю контроля», — добавил В. Норов.