В Евросоюзе рассматриваются вопросы использования искусственного интеллекта в случае возникновения войны. В частности, предметом изучения законодателей стало право на убийство человека системами, которые управляются интеллектуальными модулями. Парламентарии полагают, что искусственный интеллект не должен самостоятельно принимать решение о применении оружия против людей.
Судя по сообщениям европейских СМИ, новый доклад Комитета по юридическим вопросам Европейского парламента разработан после изучения возможностей уже имеющихся технологий. Большую надежду на усиления обороны питает Пентагон, которые выделяет миллиарды на оснащение боевых самолетов системами, которые способны автоматически наводить на цель "умные" бомбы, ракеты и торпеды. Как отмечается в документах Европарламента, активные разработки в области создания систем искусственного интеллекта (ИИ) привели к тому, что разработчики начинают постепенно внедрять такие системы на вооружение и военную технику.
В частности, разрабатываются системы, позволяющие беспилотникам автоматически обнаруживать и выделять приоритетные цели, или дронам выполнять роль ведомых для пилотируемых летательных аппаратов. Ведутся и разработки систем ИИ, способных расшифровывать радиопередачи. В будущих военных разработках искусственный интеллект будет иметь все большее значение.
Активное внедрение систем искусственного интеллекта на вооружение и военную технику вызывает множество вопросов этического характера. В частности, не ясно, насколько правомерно применять в войне автономные системы вооружения и какую угрозу они представляют для мирного населения. По оценке Комитета по юридическим вопросам Европарламента, автономные системы вооружения можно использовать в вооруженных конфликтах только в том случае, если решение об открытии огня принимает человек.
«Автономные боевые системы следует использовать в качестве крайней меры, и этот шаг можно признать законным, только если ими руководит человек, поскольку именно человек должен делать выбор между жизнью и смертью», - говорится в докладе комиссии. Человек всегда должен иметь возможность внести корректировки в действия автономных боевых систем, остановить их работу или совсем отключить такие системы в случае непредвиденных обстоятельств.
При этом должны соблюдаться условия, при которых, в случае необходимости, можно будет точно идентифицировать человека, управлявшего автономными боевыми системами. Это необходимо, например, в случае поиска виновных в незаконном применении оружия.
В январе 2020 году американское министерство обороны сформулировало пять этических принципов использования систем искусственного интеллекта в военных целях:
- Ответственность. Военный персонал должен с должным вниманием оценивать действия ИИ, оставаясь полностью ответственным за разработку, развертывание и использование систем искусственного интеллекта;
- Беспристрастность. Министерство обороны США предпринимать шаги для минимизации нежелательных отклонений в возможностях систем ИИ;
- Отслеживание. Военные системы ИИ и их возможности должны разрабатываться и развиваться таким образом, чтобы персонал имел надлежащий уровень понимания технологии, процессов разработки и методов применения. Для военного персонала должны быть доступны методологии, данные и документация, относится к используемых систем искусственного интеллекта;
- Надежность. Возможности военных систем ИИ должны быть однозначными, четко сформулированными. Безопасность и эффективность таких возможностей должны проверяться и подтверждаться в течение всего срока службы;
- Подчинение. Военные системы искусственного интеллекта должны полностью выполнять предназначенные для них задачи, но военные должны иметь возможность выявлять и предотвращать нежелательные последствия использования искусственного интеллекта. Военные также должны иметь возможность выводить из боя или выключать системы ИИ в которых были замечены отклонения в работе.
Незадолго до обнародования этических принципов использования систем искусственного интеллекта начальник Объединенного центра ИИ США генерал-лейтенант Джек Шенехен заявил, что военные не станут оснащать системами ИИ центры управления стратегическим вооружением.
По его словам, за запуски баллистических ракет всегда отвечать люди, потому что решение о применении оружия массового поражения должно быть прерогативой исключительно человека.