США готовят себе «алиби» на случай выхода ИИ из-под контроля
Американские военные стратеги находятся в сложном положении – перед ними поставили сложные задачи. С одной стороны, они должны придумать, как не допустить полноценного ядерного противостояния с великими державами, обладающим ЯО, и не получить ответно-встречного удара противника. С другой стороны, в конвенциональной неядерной войне против Китая или гипотетической коалиции, превосходящей силы НАТО своим потенциалом, у американцев тоже мало шансов. Сил у них по определению будет меньше, чем у потенциального противника.
Выход из ситуации американцы видят в снятии всех возможных табу на использование военного искусственного интеллекта, которому предлагается дать «свободу рук» для уничтожения противников гегемона.
В то же время в американском обществе до сих пор присутствует страх перед «восстанием роботов», тема которого нашла свое отражение в самых кассовых и знаменитых фильмах Голливуда – «Матрице» и «Терминаторе». Сценарий «Терминатора-2» вообще очень сильно напоминает современные фантазии американских стратегов об автономном искусственном интеллекте, с помощью которого гегемон одолеет всех врагов и будет вечно править миром.
Напомним, что по сюжету фильма корпорация «Кибердайн Системс» построила по заказу Пентагона суперкомьютер «Скайнет» для управления системой противоракетной обороной и ядерными силами США. Затем 29 августа 1997 года «Скайент» выходит из-под контроля военных и принимает решение об уничтожении человечества, со всеми вытекающими отсюда неприятными последствиями. Между Россией и США начинается ядерная война, в результате которой большая часть человечества погибает, а выжившие вынуждены вести бесконечную войну с «терминаторами».
То, что тридцать лет назад казалось плодом воображения и фантастикой, сегодня становится реальностью – США делают ставку именно на тот сценарий, который когда-то нашел свое отражение в голливудской классике. Но американских стратегов это, похоже, не волнует. Сегодня они озабочены совсем другими вещами – доказать, что ящик Пандоры открывают не они, что «виноваты другие». Кто? Очевидно: русские.
В начале мая Центр новой американской безопасности (CNAS) выпустил доклад «Роль ИИ в конфронтации России с Западом». Читатель доклада, ознакомившись с его содержанием, должен понять, что вовсе не США, а именно Россия стремится «применять ИИ в осуществлении командования, контроле, управления и использования своих ядерных сил, для лучшего понимания и анализа растущих угроз в текущем кризисном мире». И что именно российской стороной ИИ будет «использоваться, как инструмент анализа данных для российской разведки в целях обнаружения стационарных и мобильных целей для стратегических и обычных ядерных сил».
По сути, американцы приписывают российской стороне свои собственные замыслы и планы. Стоит напомнить, что в материале Института РУССТРАТ «Мечты о сверхоружии: США делают ставку на военный искусственный интеллект», указывалось, что в 2023 году в Пентагоне запустили программу «Replicator», целью которой является создание «нескольких тысяч» «автономных систем» в течении двух лет. При этом Пентагон не скрывает, что делает ставку на данную программу в своем противостоянии с Китаем, противопоставляя живой массе сил НОАК, массу роботизированных систем.
В докладе CNAS пытаются провести некую параллель и констатируют, что возможности России в области ИИ будут по-прежнему создавать проблемы, которые придется учитывать политикам США и стратегам Пентагона, но это касается не только поля боя, но и всего широкого спектра конфронтации с Западом.
При этом американские эксперты, как обычно бывает в формирующих общественное мнение докладах, пытаются смешивать свои пропагандистские посылы с очевидными и вполне достоверными фактами. Так, в докладе американских экспертов утверждается, что российское правительство понимает, насколько важен ИИ не только для будущего войны, но и для российской экономики и общественного развития в целом. Поэтому в краткосрочной и среднесрочной перспективе наиболее вероятный сценарий развития ситуации заключается в том, что Россия останется дееспособной державой, чьи возможности в области ИИ будут представлять собой уникальный комплекс проблем для США и их союзников.
Американские эксперты констатируют, что санкции, нехватка кадров и ограниченность количества высоких технологий, несомненно скажется на способности России разрабатывать и внедрять системы с поддержкой ИИ. Однако негативные последствия этих факторов не обязательно усугубятся, если Россия ускорит инвестиции во внутренние производственные мощности и укрепит сотрудничество с Китаем и другими технологически развитыми странами, не связанными с США.
Современная Россия не является государством-изгоем и имеет доступ к незападным рынкам и технологиям, обладая возможностью сотрудничества с множеством стран и компаний на Ближнем Востоке, в Южной Азии и Юго-Восточной Азии. Преимущества России в разработке программного обеспечения также делает ее привлекательной для других стран.
Повторив эти общеизвестные факты, американские эксперты затем пытаются убедить публику, что раз уж Россия не «изгой» и не «отсталая», то, по крайней мере, «зловещая», от нее исходит опасность. Ведь если на Западе руководят острожные, мудрые, ответственные люди, то Россия – это нечто совсем иное. Русские, мол, готовы пойти на все, лишь получить решающее преимущество и добиться своих целей. Поэтому, утверждают американские эксперты, Россия «будет полагаться на асимметричные средства», в случае столкновения с более сильным противником. ИИ, играющий асимметричную роль в информационной войне и кибероперациях, станет важным дополнительным инструментом для российской армии. Более того, в случае военных неудач Россия может пренебречь «рисками ИИ, которые для Запада считаются непреодолимыми», все для того, чтобы использовать ИИ для обретения преимущества перед противником. Иными словами, российскую сторону пытаются бездоказательно обвинить в создании военного ИИ, которому даны широкие возможности действовать без участия человека.
И вот здесь американские эксперты явно лукавят. Напомним, когда в Пентагоне запускали программу ИИ «Replicator», многие сторонники контроля над вооружениями били тревогу. Дело в том, что текущие ограничения использования ИИ слишком размыты и все это приближает человечество к созданию оружия оснащенного ИИ, способного уничтожать цели без участия человека.
Директивы Пентагона по использованию искусственного интеллекта в военных действиях были обновлены в январе 2023 года. В соответствии с ними, при работе ИИ, должен быть «соответствующий уровень человеческого суждения», прежде чем система с ИИ сможет применить силу. Однако, в отчете исследовательской службы Конгресса США отмечается, что эта фраза является «гибким термином», который применим не ко всем ситуациям, а другая фраза, «человеческое суждение о применении силы», не означает прямого человеческого контроля над ИИ, но относится к общим решениям о применении таких систем.
По сути, американские эксперты создают алиби для США по созданию ИИ, которое будет минимальным образом контролироваться человеком. И объясняют свои безответственные действия якобы тем, что это нужно для «сдерживания России».
В этом смысле стоит напомнить, что военные США уже давно выдвигают концепцию «алгоритмической войны», подразумевающей «самостоятельное принятие решение без участия руководства». Напомним, что именно в ее рамках искусственный интеллект должен самостоятельно составлять план действий и выносить решение, «основываясь на своей гибкости и знании обстоятельств».
Чтобы не выглядеть абсолютными лжецами, авторы CNAS вынуждены признать, что, к примеру, в декабре 2023 года президент России Владимир Путин осудили такие безответственные подходы. Глава российского государства дал понять, что неограниченное развитие ИИ может быть столь же опасным, как и неограниченное развитие ядерного оружия в ХХ веке, и поэтому необходим диалог между мировыми лидерами о возможном ограничении использования ИИ. При этом Владимир Путин повторил свою точку зрения в феврале 2024 года, когда он обсуждал Договоры времен «холодной войны» о контроле над ядерными вооружениями, как пример для международного диалога по быстро развивающемуся ИИ, с поправкой на многополярный характер будущей архитектуры международной безопасности.
Как и в случае с ядерным оружием, на текущий момент, только двусторонние договоренности, России и США, в сфере ИИ, не дадут необходимых гарантий безопасности. Гарантии безопасности при использовании ИИ необходимо вырабатывать с привлечением всех стран мирового сообщества.