Мечты о сверхоружии: США делают ставку на военный искусственный интеллект
В связи с резкой активностью министерства обороны США по внедрению искусственного интеллекта в свои военные разработки, критики на Западе опасаются, что это приведет к гонке вооружений, которая уже имела место во второй половине 20-го века. Это резко увеличивает риск применения оружия массового поражения, ядерной войны и жертв среди гражданского населения.
В августе этого года Пентагон объявил о новой инициативе, получившей название «Replicator». Целью программы является создание «нескольких тысяч» «автономных систем» в течении двух лет. Программа распространяется на летающие дроны, самолеты, водные суда и системы обороны, которые будут соединены через компьютеризированный единый центр для синхронизации действий подразделений и управления ими.
Заместитель министра обороны Кэтлин Хикс в Национальной ассоциации оборонно-промышленного комплекса заявила: «Чтобы было ясно, Америка по-прежнему выигрывает от больших, изысканных, дорогих и немногочисленных платформ. Но Replicator ускорит прогресс в слишком медленном переходе от военных инноваций США к использованию небольших, умных, дешевых и многочисленных платформ». «Так что сейчас, самое время вывести универсальную автономию на следующий уровень: производить и предоставлять средства поражения бойцам с объемом и скоростью, необходимыми для сдерживания агрессии, для победы, если нас заставят сражаться».
По словам Кэтлин Хикс, запуск проекта Replicator был стимулирован нынешним «самым большим преимуществом», имеющимся сегодня у Китая в военном отношении. Преимущество «которым является количество. Больше кораблей. Больше ракет. Больше людей» — пояснила она. «Мы противопоставим массе (народно-освободительной армии Китая) нашу собственную массу, но нашу будет сложнее предвосхитить, труднее поражать, ее труднее победить.» — сказала заместитель министра обороны США.
В своей речи Хикс сказала аудитории: «Мы должны обеспечить, чтобы руководство Китая просыпалось каждый день, рассматривало риски агрессии и делало вывод: сегодня не тот день и не только сегодня, но и каждый день, с сегодняшнего дня и до 2027, 2035, 2049 годов и далее.» Она пояснила, что Replicator будет использовать уже существующие возможности и персонал для разработки тысяч автономных систем в течении следующих 18-24 месяцев.
В 2022 году Пентагон создал целевую группу, получившую название «Task Force Lima», которая «занимается оценкой и применением генеративного ИИ во всем министерстве». Генеративный ИИ относится к «категории алгоритмов искусственного интеллекта, которые генерируют новые выходные данные на основе обработки данных, на которых они были обучены».
Сторонники контроля над вооружениями бьют тревогу из-за программ Пентагона опасаясь, что текущие, плохо очерченные рамки ограничений использования ИИ, увеличивают экзистенциальные риски. Критики называют самоуправляемое оружие «роботами-убийцами» потому, что оно оснащено ИИ и может технически действовать независимо, чтобы уничтожать цели без помощи человека.
Международных договоров, регулирующих использование этого оружия, не существует и правозащитные организации обеспокоены этическими принципами Вашингтона в отношении использования военных платформ с ИИ. «Это действительно ящик Пандоры, который мы начинаем открывать, и будет очень трудно вернуться назад», — сказала изданию The Hill Анна Хехир, которая руководит исследованиями автономных систем вооружения для правозащитной организации Future of Life Institute.
«Я бы настаивала на том, чтобы Пентагон рассматривал использование ИИ в военных целях наравне с началом ядерной эры», — добавила она. «Итак, это новая технология, которую мы не понимаем. И если мы посмотрим на это с точки зрения гонки вооружений, что и осуществляет Пентагон, то мы можем приблизиться к глобальной катастрофе».
Директивы Пентагона по использованию искусственного интеллекта в военных действиях были обновлены в январе 2023 года. Документ предусматривает, что должен быть «соответствующий уровень человеческого суждения», прежде чем система с ИИ сможет применить силу. Однако, в отчете исследовательской службы Конгресса США отмечается, что эта фраза является «гибким термином», который применим не ко всем ситуациям, а другая фраза, «человеческое суждение о применении силы», не означает прямого человеческого контроля над ИИ, но относится к общим решениям о применении таких систем.
Некоторые критики также указывают на то, что в директиве есть отступление, которое, по-видимому, позволяет обойти требование о проверке целесообразности применения оружия с ИИ.
В 2017 году НАТО были установлены некоторые стандарты в отношении использования автономного оружия, включая требование, чтобы оно атаковало только законные военные цели. Однако официальные лица НАТО признают, что неясно, «когда и где эти стандарты требуют присутствия человека в цикле принятия решений» и «насколько широк цикл принятия решений».
Майкл Клэр, секретарь совета директоров Ассоциации по контролю над вооружениями сказал, что он «сомневается в том, что всегда будет возможно сохранить человеческий контроль над всеми этими устройствами» с ИИ.
Он утверждает, что автономные системы могут выполнять непреднамеренные задачи, такие как атака на ядерные объекты. «Умножение такого рода автономных устройств увеличит потенциал не преднамеренной или случайной эскалации конфликта за пределы ядерного порога, который может спровоцировать ядерную войну», — сказала Клэр.
«Мы опасаемся, что в будущем у этого есть большой опасный потенциал», — добавила Клэр. «И люди, которые используют это оружие, не уделяют этому должного внимания».
В июле этого года аналитический «Центр новой американской безопасности» — CNAS, подготовил доклад о конкуренции между США и Китаем в области ИИ. Авторы доклада указывают, что усиление геополитического соперничества между США и Китаем и бурное развитие технологий ИИ, создают повышенный риск вооруженного конфликта и угрозы ядерной войны, которые могут быть спровоцированы или усугублены применением военного ИИ.
Для коммунистической партии Китая (КПК) значение ИИ выходит за рамки любого вклада в военную или общественную плоскость. Китай рассматривает ИИ, как ключ к ускорению экономического роста и социального благосостояния , как ключевой фактор для будущего страны во всех отношениях. Это обязательство руководитель Китая Си Цзиньпин подтвердил на апрельском заседании Политбюро КПК, на котором он призвал к «развитию общего искусственного интеллекта», под которым понимают форму ИИ, способного на решение широких проблем в различных средах.
Сотрудники CNAS обеспокоены, что способность китайского правительства мобилизовать и координировать ресурсы для стимулирования развития искусственного интеллекта, с широким привлечением частного сектора, уже побудила многих экспертов предсказывать, что Китай неизбежно выиграет гонку ИИ. Кроме того, само китайское общество благосклонно относится к внедрению ИИ, в частности, в системе «социального кредита». Согласно опросов, подавляющее большинство китайских респондентов хорошо осведомлены о прогрессе ИИ и считают, что он изменит их жизнь к лучшему, а в США так считает менее половина опрошенных.
В марте этого года Си Цзиньпин призвал Народно-освободительную армию Китая «увеличить присутствие боевых сил в новых областях и нового качества». Для решения этой задачи НОАК необходимо пройти этапы военно-технологического развития: «от механизации к информатизации и, в конечном итоге, к интеллектуализации.»
Под механизацией понимают использование современных военных платформ и оборудования. Информатизация — это подключение этих систем к таким информационным сетям и GPS. Интеллектуализация означает внедрение ИИ, квантовых вычислений, больших данных и других новых технологий. Цель — добиться прогресса в этом направлении к 2027 году.
Авторы доклада указывают, что китайские учёные делают акцент на продолжающейся революции в военном деле, и, как об одном из видов борьбы «системной конфронтации», где для победы требуется «война на разрушение систем». Таким образом, речь идет не об уничтожении конкретной боевой единицы в виде танка или корабля, а об атаке на слабые места, которые связывают системы и виды вооруженных сил США, и, тем самым, нейтрализовать или полностью разрушить преимущества США. ИИ играет ключевую роль в этом концепте.
Американские эксперты выделяют пять сфер, где применение военного ИИ может подорвать стабильность и увеличить стратегические риски между США и Китаем. Во-первых, это увеличение военной мощи Китая даже с небольшим количеством систем с ИИ, которое в своей массе даст Китаю существенное военное преимущество, что изменит баланс сил не в пользу США и им придётся на это реагировать.
Во-вторых, системы ИИ могут увеличить стратегические риски в сфере принятия решений и предоставления оперативной информации. ИИ позволяет сокращать время, необходимое политикам для принятия важных решений, что увеличит скорость возникновения кризисных ситуаций. Также возможна генерация ИИ ошибочных данных для принятия политиками ключевых решений.
Следующий пункт — это беспилотные автономные системы, так как всё усложняющиеся и увеличивающиеся в количестве военные роботы создают большую вероятность непреднамеренной эскалации конфликта. Четвертая сфера — это разведывательные возможности ИИ, которые могут перерасти в угрозу более совершенным «силам возмездия» конкурентов. Могут возникнуть опасения, что с помощью ИИ противник заполучил определенные возможности и иногда этого бывает достаточно, чтобы создать чувство уязвимости или даже ускорить принятие контрмер, независимо от того, существует ли угроза на самом деле в соответствующий период времени.
Заключительная, пятая сфера — это когда улучшенные ИИ системы командования и связи, на примере американской — JADC2, будут подавлять аналогичную систему противника. Конечные результаты реального противоборства между этими двумя системами, каждая из которых улучшает свою собственную связность, одновременно нанося ущерб системе противника, невозможно будет оценить заранее. Это происходит из-за относительной незрелости этих «систем систем» и отсутствия ясности действий Китая, а также множество других переменных.
Среди вариантов управления этими рисками военного применения ИИ, сотрудники CNAS предлагают осуществлять препятствование развитию военного ИИ в Китае через санкции и ограничения на торговлю. Также предложено в одностороннем порядке уделять пристальное внимание созданию правил разработки и использования военного ИИ.
В 2020 году Министерство обороны США опубликовало «Этические принципы искусственного интеллекта», в январе 2023 года была выпущена директива «Ответственная стратегия искусственного интеллекта и путь ее реализации». В феврале 2023 года Госдепартамент США опубликовал декларацию, призывающую страны всего мира придерживаться аналогичных принципов и повысить прозрачность разработки своего военного ИИ.
Ещё одним способом сокращения рисков военного ИИ и развития гонки вооружений названа двусторонняя и многосторонняя дипломатия. Посредством соглашений о контроле над вооружениями или иных мер доверия государства могут попытаться установить границы для разработки или использования конкретных военных технологий ИИ, а затем проверять их соблюдение, по аналогии с контролем над ядерными вооружениями.
Правительственные эксперты США и Китая работают в группе по ограничению летальных автономных систем вооружения и официально встречаются с 2014 года в рамках Конвенции ООН по конкретным видам обычного вооружения. В 2021 году китайская сторона продвигала проект документа по регулированию военного применения ИИ, где было указано, что «военное применение ИИ никогда не будет использоваться, как инструмент для начала войны или достижения гегемонии».
Американские эксперты считают, что в идеале, обе стороны должны были бы создать диалог между военными, в ходе которого каждая сторона могла бы задавать вопросы о возможностях использования ИИ, а также сообщать ожидания относительно правил ведения боевых действий, оперативного устранения конфликтов и других острых тем.
Для снижения ядерных рисков в отношениях США и Китая, Вашингтону следует перезапустить процесс обсуждения «вопросов стратегической стабильности» в постоянной пятерке СБ ООН и включить вопрос военного ИИ в переговоры. Тем более, что в начале 2022 года китайские официальные лица сами инициировали включение вопроса ИИ в диалог по глобальной безопасности — говорится в докладе.
Обозревая данную ситуацию, становится вполне очевидным, что США опасаются проиграть «гонку вооружений» военного ИИ и, поэтому озаботились вариантами контроля над этим видом оружия. Для понимания ситуации, можно отметить, что сейчас китайские ученые работают над ИИ, который будет позволять перехватывать гиперзвуковые ракеты противника. У тому же населения Китая в 1,4 миллиарда человек предоставляет куда больше данных для обучения ИИ, чем 330 миллионов американцев не очень лояльно относящихся к внедрению ИИ.
В этой связи Чарльз Дженнингс, бывший генеральный директор одной из компании по разработки ИИ, в известном журнале Politico призывает правительство США национализировать ключевые области разработки ИИ. Американские конгрессмены, в этом году, активизировали работу по разработке законодательства, ограничивающего применение ИИ, но до окончательного решения ещё далеко.
Конвенция ООН о конкретных видах обычного оружия обсуждает вопрос военного ИИ с 2013 года. Около 30 стран мира призвали к запрещению смертоносных автономных систем, но ООН еще не ратифицировала ни одного договора, регулирующего это оружие, и на сегодняшний день для этих систем нет согласованного определения.
Генеральный секретарь ООН Антониу Гутерриш призвал к заключению юридически обязывающего соглашения к 2026 году об ограничении технологий и запрете применения смертоносного автономного оружия без надзора человека.
При ООН в Женеве ежегодно проходит конференция по вопросу смертоносных автономных систем вооружений, последняя, седьмая конференция состоялась в марте этого года, и российская делегация принимала в ней участие. Однако рассчитывать на то, что на этой площадке ООН будут согласованы конкретные решения, очень опрометчиво.
В текущих условиях разрастания конфронтации между США и Китаем, скорей всего, как это и было с историей применения ядерного оружия, только после окончания конфликта с широким применением боевых систем ИИ можно будет предметно обсуждать международные договоренности об ограничении применения военного ИИ.
Из положительных моментов можно отметить то, что сегодняшний конфликт на Украине, России с коллективным Западом, технологически не успевает стать местом широкого применения боевых систем ИИ.