Как Израиль использует ИИ в качестве оружия

Как Израиль использует ИИ в качестве оружия

БРАНКИ МАРИАН
Гуманитарный кризис в секторе Газа разрушает давние убеждения об использовании технологий в боевых действиях.

КАМПАНИЮ ИЗРАИЛЬСКИХ БОМБАРДИРОВОК в Газе, в ходе которой, согласно имеющимся сообщениям, ежедневно поражались сотни целей, эксперты охарактеризовали как самую смертоносную и беспощадную в новейшей истории. Это также одна из первых подобных кампаний, частично координируемых алгоритмами.

В своем стремлении уничтожить ХАМАС в секторе Газа после кошмарного нападения группировки 7 октября прошлого года на Израиль, похоже, в значительной степени полагается на искусственный интеллект для составления карты боевого пространства и информирования о тактических ответных мерах. Хотя страна очень осторожно относится к своим технологиям, заявления Армии обороны Израиля, а также подробности, почерпнутые из журналистских расследований, позволяют предположить, что ИИ используется для помощи во всем: от идентификации и определения приоритетности целей до назначения типа оружия, которое будет использоваться против этих целей. Перспектива принятия решений с помощью ИИ заключается в том, что они повышают точность военных действий. Некоторые эксперты, такие как Роберт Уорк, бывший заместитель министра обороны США, утверждают, что у правительств есть моральный долг внедрить эту технологию, если будет доказано, что она снижает сопутствующий ущерб и защищает гражданское население. Однако в Газе факты говорят об обратном.

Хотя число жертв среди палестинцев остается предметом дискуссий - по оценкам Министерства здравоохранения, управляемого ХАМАСом, в среднем около фиксируется 250 смертей в день, и Израиль оспаривает эту цифру -, нет никаких сомнений в масштабах разрушений. По оценкам ООН, в результате военной операции было повреждено или разрушено более 60 процентов жилого фонда в секторе Газа.

Эта реальность ставит ребром вопросы о практических и этических последствиях развертывания ИИ в зонах конфликтов. Если такие системы настолько продвинуты и точны, почему так много жителей Газы было убито и искалечено? Почему так много разрушений гражданской инфраструктуры? Частично в этом виноват разрыв между теорией и практикой: хотя инструменты ИИ могут хорошо работать в лаборатории или при моделировании, они далеки от совершенства в реальной войне, особенно при применении на густонаселенной территории. Искусственный интеллект и машинное обучение также эффективны настолько, насколько эффективны (точны) данные, на основе которых они обучаются; даже в этом случае это не магия, а скорее распознавание знакомых образов. Скорость, с которой совершаются ошибки, также является критической проблемой.

По данным Института Либера, академической группы, изучающей вооруженные конфликты, ЦАХАЛ использует «геопространственную разведку и разведку из открытых источников», чтобы предупреждать войска о возможных угрозах на земле (неясно, из чего состоит эта разведка, но предположительно она может включать спутниковые снимки, записи с дронов, перехваченные разговоры с мобильных телефонов, и даже сейсмические датчики). Другая система искусственного интеллекта предоставляет ЦАХАЛу подробную информацию о хваленой системе туннелей Хамаса: от их глубины и толщины до маршрутов, по которым они проходят. Затем данные о целеуказании отправляются непосредственно в войска на портативные планшеты солдат. Подобно яростному оркестровому ансамблю, отдельные части ИИ гармонируют друг с другом, чтобы идентифицировать боевиков ХАМАСа.

Недостатки этой стратегии уже были заметны в ходе предыдущего раунда конфликта между Израилем и ХАМАС, когда в 2021 году Израиль начал операцию «Страж стен». Названная ЦАХАЛом «первой войной искусственного интеллекта», она, возможно, ознаменовала появление алгоритмической войны. Бывший израильский чиновник, которого цитирует журнал +972 Magazine, заявил, что использование ИИ в 2021 году помогло увеличить количество целей ХАМАС для поражения с 50 в год до 100 в день. А газета «Джерузалем Пост» опубликовала заявление ЦАХАЛа о том, что один удар по высотному зданию успешно поразил высокопоставленного боевика ХАМАС, без каких-либо других жертв среди гражданского населения. Но, несмотря на хвалебные оды ЦАХАЛа своей алгоритмической системе, результатом операции 2021 года стали значительные жертвы: по данным министерства здравоохранения Газы, 243 палестинца были убиты и еще 1910 получили ранения. (Израиль возражает, что более 100 жертв были боевиками Хамаса; другие смерти, по данным « Джерузалем Пост» , были приписаны «недолетшим ракетам Хамаса или обрушению жилых домов после авиаудара по сети туннелей Хамаса».)

Израиль, похоже, снова полагается на искусственный интеллект в своей крупномасштабной операции в секторе Газа. И, опять же, масштабы разрушений подрывают любые притязания на большую точность. Следует сказать, что вооружение, управляемое искусственным интеллектом, не является полностью автономным: утверждать цели в любом случае должен человек. Однако неясно, как принимаются решения и как часто рекомендации отклоняются. Также неизвестно, в какой степени люди, утверждающие цели, полностью осведомлены о том, как система ИИ пришла к такой рекомендации. Каким образом люди определяют точность и достоверность данных системы? Согласно отчету, составленному аналитическим центром Еврейского института национальной безопасности Америки, одним из заметных недостатков использования этой технологии в 2021 году было то, что «ей не хватает данных для обучения своих алгоритмов о том, что не является целью». Другими словами, данные обучения, в конечном итоге переданные в систему, не включали цели (будь то гражданская собственность или отдельные лица), которые аналитики из плоти и крови сочли неуместными. Любая система ИИ, не обученная тому, чего следует избегать, может случайно включить неправильные объекты в свой список на уничтожение, особенно если она выбирает цель каждые пять минут, в течение двадцати четырех часов, в течение нескольких месяцев.

Это приводит к еще одной широко признанной проблеме: предвзятости автоматизации или склонности людей слишком сильно доверять технологиям. Источник журнала +972 Magazine сообщил, что человеческий глаз «просматривает цели перед каждой атакой, но ему не нужно тратить на них много времени». Исследователи Нил Реник и Эльке Шварц в блоге по международному праву Opinio Juris утверждают, что оружие, основанное на искусственном интеллекте, иллюстрирует потенциал технологии «для облегчения несправедливого и незаконного "массового убийства"». В динамичных и хаотичных условиях, таких как зоны военных действий, часто побеждает самое быстрое решение, даже если оно наносит больше ущерба, чем необходимо.

Неясно, как законы войны, установленные задолго до нынешней эпохи, могут справиться с этими новыми сценариями. Государства не согласовали новые правовые рамки, касающиеся целеуказания со стороны ИИ. Однако, несмотря на отсутствие нормативных актов, регулирующих целеуказание от ИИ, если люди, утверждающие цель, не в полной мере понимают, как была алгоритмом была определена рекомендация, качество их решения может рассматриваться как недостаточное для соответствия стандартам международного гуманитарного права, а именно требованию о том, чтобы вооруженные силы проводили различие между гражданскими лицами и комбатантами.

Несколько стран, в том числе США, Китай, Индия, Россия и Южная Корея, спешат развивать искусственный интеллект для использования в военных целях. Другие государства, такие как Турция, стремятся экспортировать свои технологии искусственного интеллекта, а именно дроны, в страны, охваченные конфликтами, такие как Украина и Азербайджан. Огромный набор целей, доступных для систем, управляемых искусственным интеллектом, представляет собой опасную привлекательность для стран, стремящихся показать свою военную мощь или доказать своим гражданам свою стойкость в обороне. Это обольщение новыми возможностями ИИ потенциально может привести к эскалации конфликтов, в ущерб стратегической сдержанности и гуманитарным соображениям.

Хотя мы не в полной мере знаем масштабы использования ИИ израильскими военными, ясно, что происходящее в секторе Газа далеко от изначально обещанного видения «чистой» войны. Текущие результаты также позволяют предположить, что передовые вооруженные силы ставят во главу угла скорость принятия вместо моральных и, возможно, даже юридических обязательств. Проще говоря, использование технологий в войне не меняет фундаментальных реалий тумана войны и меняющихся условий. ИИ хорошо работает в предсказуемой среде с четкими категориями. Однако зоны боевых действий полны неопределенности.

В условиях растущего внедрения ИИ военными по всему миру, нерегулируемое распространение технологии требует немедленного глобального надзора не только в текущем конфликте, но и в более широком масштабе международной безопасности. Без четких и обязательных к исполнению правил и норм в отношении использования ИИ в военных целях мы рискуем откатиться назад от правовых мер, направленных на защиту гражданского населения. Альтернатива состоит в том, чтобы позволить неконтролируемым алгоритмам диктовать ход конфликтов, оставляя человечество бороться с последствиями.


https://thewalrus.ca/israel-ai-weapon/


Report Page