Роботы-убийцы уже здесь или совсем близко - в зависимости от того, какими вы их представляете. Но пока они, по крайней мере, не похожи на солдат-роботов из фильмов о Терминаторе.
Влиятельный американский бизнесмен Илон Маск в очередной раз пытается убедить власти прекратить создание роботов-убийц. Он и 116 его единомышленников подписали письмо, направленное Организации Объединенных Наций от компаний, «создающих технологии в области искусственного интеллекта и робототехники, которые могут быть преобразованы в целях создания автономного оружия».
В письме он просит ООН «заняться поиском средств для предотвращения гонки вооружений в этих видах оружия, чтобы защитить мирных жителей от их неправильного использования и избежать дестабилизирующих последствий этих технологий».
«Смертоносные автономные вооружения грозят стать третьей революцией. Как только они будут разработаны, вооруженные конфликты приобретут невиданные ранее масштабы, причем в разы быстрее, чем люди смогут это осознать, - говорится в письме. - Они могут стать орудием террора, которое деспоты и террористы будут использовать против невинного населения. К тому же, его можно взломать и применять не по назначению».
Технически, роботы-убийцы называются смертоносными системами автономного оружия (LAWS). Наибольшее внимание получили «часовые», используемые Южной Кореей на границе с КНДР. На границе плотной полосой выстроились роботы SGR-A1, которые могут автоматически засечь проходящих через границу северокорейских солдат.
Сообщается, что они в принципе могут стрелять без помощи человека, но чиновники говорят, что оператор решает, следует ли нажать спусковой крючок.
У американских военных есть экспериментальный самоходный корабль под названием «Морской охотник», предназначенный для охоты на подводные лодки противника. Пока он все еще находится на стадии испытаний и не оснащен оружием, и правительство США говорит, что даже если он в конечном итоге будет вооружен, любое решение об использовании наступательной смертоносной силы будет принято людьми.
По-видимому, и США, и Россия усердно работают над созданием различных беспилотных танков и других наземных транспортных средств. В России есть беспилотный наземный аппарат «Уран-9», вооруженный пулеметом, 30-мм пушкой и ракетами, но он управляется дистанционно. Продолжается работа и над другими автономными транспортными средствами.
Согласно Fast Company, после терактов 11 сентября 2001 года американские военные ввели в строй десятки тысяч роботов с дистанционным управлением.
«Летающие беспилотники стали обычным явлением в операциях на Ближнем Востоке. Беспилотные наземные транспортные средства помогли войскам США уничтожить дорожные бомбы в Ираке и Афганистане. Подводные дроны оказались полезными при сборе данных для науки и разведки и обезвреживания морских мин», - говорится в статье.
Американские военные и силы за границей до сих пор проявляли консервативность в отношении того, какими должны быть автономные военные роботы, а военные чиновники не решаются пройти по пути к полностью автономному оружию - роботам, которые могли бы выбирать цели и стрелять без вмешательства человека. Такие системы уже возможны.
Россияне показали, как робот-гуманоид стреляет по мишеням из автомата. Робот называется ФЕДОР и, как ожидается, его отправят в космос.
Заместитель премьер-министра России Дмитрий Рогозин в своем Твиттере заявил, что «не создавал Терминатора», но, возможно, сам себе противореча, разместил короткий клип со стреляющим ФЕДОРом, подписав его: «Российские боевые роботы - парни с железными нервами».
Авторы статьи в Wired год назад заявили, что знают по меньшей мере о 21 проекте, над которыми работают военные США для увеличения автономных возможностей систем вооружения на войне. Американские инициативы идут в ногу с международными исследованиями.
Правила для роботов-убийц
В 2012 году администрация тогдашнего президента США Барака Обамы издала директиву Министерства обороны под номером 3000.09, в которой изложена политика в отношении автономных систем вооружений.
Согласно статье, опубликованной в прошлом году, директива не позволяет в достаточной мере определить, какие действия допустимы для различных систем оружия - например, применение смертельной силы. Настоящая политика позволяет полуавтономному оружию использовать смертоносную силу, но направлена на ограничение этой возможности.
Однако срок действия этой директивы ограничен пятью годами, а это значит, что время ее окончания уже близко. Поэтому президенту Дональду Трампу придется определиться с политикой США в отношении роботов-убийц. Эта политика должна быть обновлена, изменена или разрешена.
В марте армия США опубликовала «Стратегию робототехники и автономных систем». В ней говорится, что армия будет стремиться поддерживать человеческий контроль над всеми автономными системами.
Письмо Маска
Можно сказать, что результатов письмо не дало. Оно было составлено для первого совещания группы правительственных экспертов по смертоносным автономным системам оружия, учрежденного Конференцией ООН по Конвенции о конкретных видах обычного оружия.
К сожалению, эта встреча была отменена, потому что у ООН не хватило денег. По-видимому, некоторые страны запоздали со своими взносами. Следующая встреча состоится в ноябре.
Это не первое такое письмо. Под посланием 2015 года оставили свои имена многие высокопоставленные эксперты в области искусственного интеллекта (AI) и ведущие исследователи. Оно было представлено на Международной совместной конференции по искусственному интеллекту (IJCAI). Среди подписчиков - Маск, соучредитель Apple Стив Возняк, исполнительный директор Google DeepMind Демис Хасабис и профессор Стивен Хокинг.
Новое письмо было опубликовано на собрании IJCAI в 2017 году, которое проходит в Мельбурне.
Каковы шансы на запрет?
В статье, опубликованной в US Army's Military Review, говорится, что развитие искусственного интеллекта предполагает, что все больше машин и приборов станут автономными. «Хотя любой уровень автономии по определению влечет за собой потерю человеческого контроля, джинн вылетел из этой лампы, и мы не видим возможности вернуть его обратно», - гласит статья.
Ее авторы предложили, что в идеале нужно получить запрет на «применение полностью автономного оружия в операциях, которые нельзя прервать и которые нельзя отозвать после их запуска». Их можно назвать оптимистами, поскольку «ни один рациональный политик не дал бы такого разрешения».
Несмотря на все преимущества роботов-убийц, страны, вероятно, будут готовы отказаться от них, чтобы избежать риска того, что после прекращения боев могут начаться новые боевые действия, поскольку дроны продолжат атаковать.
Если бы можно было ввести запрет на полностью автономное оружие, следующим шагом станет ограничение использования оружия с высокой, но не полной степенью автономии.
С другой стороны, уже существуют международные соглашения в таких областях, как химическое и биологическое оружие.
И опять же, в июле подавляющее большинство 192 членов ООН завершили составление договора о запрещении ядерного оружия. Тем не менее, произошла заминка. Нидерланды были единственным членом НАТО, принявшим участие в конференции, и они проголосовали против.
Ни одна из девяти стран, обладающих ядерным оружием, не принимала участия, а США, Великобритания и Франция заявили, что не намерены подписывать договор.
Аргументы «за»
Один из сторонников смертоносных систем автономного оружия - Стивен Гроувз, состоявший в консервативном американском аналитическом центре «Наследие» и неделю назад ушедший с должности старшего помощника посла США в ООН Никки Хейли.
Он утверждает, что около 40 стран занимаются созданием военных роботов, а некоторые уже используемые средства могут считаться автономными или легко модифицироваться под таковые.
К ним относятся южнокорейские «часовые» и система ближнего боя «Фаланкс», «управляемая компьютером пусковая система с радиолокационным управлением», предназначенная для уничтожения противокорабельных ракет и используемая военно-морскими силами многих стран, в том числе американскими.
По словам Гроувза, США должны выступать против попыток запрета, прежде всего потому, что у США больше возможностей для разработки системы вооружений, которые могут укрепить национальную безопасность.
Но кто будет отвечать, если что-то пойдет не так?