Передача системе искусственного интеллекта боевых решений вместо человека создаёт проблему с определением ответственности за применение силы. Об этом заявил РИА Новости замдиректора Института информационной и медиабезопасности Университета имени Кутафина (МГЮА) Руслан Рашитханов.

Как сообщает Reuters, Пентагон планирует на постоянной основе внедрить в вооружённые силы США систему искусственного интеллекта Maven, которая уже применяется при нанесении ударов по Ирану.

Рашитханов отметил, что в действующей правовой модели ИИ рассматривается как средство информационно-аналитической поддержки, при этом окончательное юридически значимое решение о применении силы должно оставаться за человеком. По его словам, в ситуации, когда система ИИ фактически подменяет волевое решение человека, возникает правовой «пробел», поскольку исчезает чётко определённый субъект принятия решения и затрудняется распределение ответственности.

Он подчеркнул, что именно поэтому российское законодательство и военная доктрина исходят из принципа, согласно которому финальное решение о применении силы принимает человек, а технические средства не могут его заменить.

По его словам, когда выводы системы ИИ начинают напрямую влиять на параметры боевого решения, ситуация выходит за рамки внутреннего регулирования информационных систем и подпадает под нормы международного права, регулирующие средства и методы ведения войны, включая положения Дополнительного протокола от 8 июня 1977 года к Женевским конвенциям.

Эксперт пояснил, что в рамках этих норм юридической оценке подлежит не сам алгоритм, а конкретная конфигурация его применения в контуре использования силы. При этом закреплена обязанность принимать все практически возможные меры предосторожности при нападении, а также соблюдать принципы различения и соразмерности.

Он также отметил, что ни российское законодательство, ни действующее международное право не признают системы искусственного интеллекта самостоятельным субъектом, уполномоченным принимать боевые решения.