Туман ШІ

Туман ШІ

TaaniaSt

Що означає ця технологія для стримування та війни

Бретт В. Бенсон і Бретт Дж. Голдштейн

6 січня 2026 року

Штучний інтелект швидко стає незамінним для прийняття рішень у сфері національної безпеки. Армії по всьому світу вже покладаються на моделі ШІ для аналізу супутникових знімків, оцінки можливостей супротивників і формування рекомендацій щодо часу, місця та способу застосування сил. У міру розвитку цих систем вони обіцяють змінити спосіб реагування держав на загрози. Однак сучасні платформи ШІ також загрожують підірвати стримую, яке вже давно є основою для стратегії безпеки США.

Ефективне стримування залежить від того, чи є країна надійно здатною і готовою завдати неприйнятної шкоди противнику. ШІ зміцнює деякі основи цієї довіри. Краща розвідка, швидші оцінки та більш послідовне прийняття рішень можуть посилити стримування, чіткіше повідомляючи супротивникам оборонні можливості країни, а також її очевидну рішучість їх використовувати. Однак противники також можуть використовувати ШІ для підриву цих цілей: вони можуть отруїти навчальні дані моделей, на які покладаються країни, змінюючи їхню продуктивність, або запускати операції впливу на основі ШІ, щоб впливати на поведінку ключових посадовців. У випадку кризи з високими ставками така маніпуляція може обмежити здатність держави підтримувати надійне стримування та спотворювати або навіть паралізувати прийняття рішень її лідерів.

Розглянемо кризовий сценарій, коли Китай запровадив масштабні економічні санкції проти Тайваню та розпочав масштабні військові навчання навколо острова. Оборонні чиновники США звертаються до систем на базі ШІ для формування відповіді США — не знаючи, що китайські інформаційні операції вже зіпсували ці системи, отруївши їхні навчальні дані та основні вхідні дані. Внаслідок цього моделі перебільшують реальні можливості Китаю і недооцінюють готовність США, створюючи викривлену оцінку, яка зрештою стримує мобілізацію США. Водночас китайські кампанії впливу, підсилені раптовим потоком фейкового контенту на основі ШІ на платформах, таких як Facebook і TikTok, пригнічують підтримку втручання з боку американської громадськості. Не маючи змоги точно інтерпретувати їхню розвідку та оцінити громадську думку, лідери США можуть дійти висновку, що рішучі дії надто ризиковані.

Китай, відчувши можливість, тепер розпочинає повну блокаду Тайваню і починає удари безпілотниками. Він також переповнює острів дипфейками, де американські чиновники висловлюють готовність поступитися Тайванем, сфабрикованими опитуваннями, що показують падіння підтримки США, та чутками про відмову США. У цьому сценарії достовірні сигнали зі Сполучених Штатів, які свідчать про готовність реагувати, могли б стримати Китай від ескалації — і могли б бути реалізовані, якби американські чиновники не були відмовлені отруєними системами ШІ та спотвореними громадськими настроями. Замість посилення стримування ШІ підірвав довіру до США і відкрив двері для китайської агресії.

Оскільки системи ШІ стають дедалі центральнішими у прийнятті рішень лідерами, вони можуть надати інформаційній війні потужну нову роль у примусі та конфліктах. Щоб посилити стримування в епоху ШІ, політики, оборонні планувальники та розвідувальні агентства мають враховувати, як моделі ШІ можна використовувати як зброю, і забезпечити, щоб цифровий захист від цих загроз не відставав. Від цього може залежати результат майбутніх криз.


СТРИМУВАННЯ В ЕПОХУ ШІ

Щоб стримування спрацювало, противник повинен вважати, що захисник здатен накласти серйозні витрати, і бути рішучим це зробити, якщо його оскаржують. Деякі елементи військової потужності помітні, але інші — такі як певні можливості озброєння, рівень бойової готовності та мобілізаційні можливості — важче оцінити ззовні. Рішучість ще більш непрозора: лише лідери країни зазвичай точно знають, наскільки вони готові вести війну. Отже, стримування залежить від того, наскільки ефективно країна може достовірно подати сигнал як про свої можливості, так і про готовність діяти.

Дорогі військові дії, такі як переміщення сил або підвищення рівня бойової готовності, демонструють довіру, оскільки вимагають часу, ресурсів і політичного ризику. Наприклад, після того, як пакистанська бойова група здійснила напад на індійський парламент у 2001 році, Індія зосередила війська вздовж свого кордону з Пакистаном і, переконливо продемонструвавши свою здатність і рішучість діяти, стримала подальші удари на своїй території. Внутрішній політичний тиск, притаманний демократіям, також може підвищити довіру. Лідери демократій повинні відповідати перед своїми громадянами, а погрози лише відступити пізніше можуть призвести до політичної реакції. Наприклад, у 1982 році, після того як Аргентина захопила Фолклендські острови, сильний громадський тиск у Великій Британії посилив рішучість прем'єр-міністра Маргарет Тетчер діяти, надаючи додаткової ваги загрозі військової відповіді Великої Британії. Така підзвітність зазвичай надає загрозам стримування демократичної держави більшої ваги, ніж загрозам автократичних держав. Швидкість також має значення: загрози держави-стримувального фактора стають більш правдоподібними, коли вона здатна швидко та автоматично діяти проти загрози.

На перший погляд, штучний інтелект добре підходить для посилення стримування. Обробляючи величезні обсяги даних, ШІ може надавати кращу розвідку, уточнювати сигнали та прискорювати прийняття рішень лідерів, створюючи швидший і більш комплексний аналіз. Під час війни в Україні інструменти штучного інтелекту дозволяють українським військовим сканувати зображення супутників і дронів для ідентифікації переміщень російських військ і техніки, ракетних об'єктів і маршрутів постачання; збирати та збирати дані з радарних, звукових і радіосигналів; і швидко переглядати навчальні посібники, розвідувальні звіти чи інші матеріали, щоб створити більш повну картину чисельності російських сил. Для оборонних планувальників така інформація дозволяє чіткіше оцінити їхні військові можливості порівняно з можливостями противника.

ШІ також може посилювати стримування, забезпечуючи чітке повідомлення про дії кожної сторони іншій. Оскільки держави часто мають стимули блефувати, їм може бути важко показати, що вони справді готові виконати свої загрози. Натомість інструменти на базі ШІ можуть гарантувати, що коли країна вживає дорогих заходів для демонстрації своєї рішучості, ці дії повідомляються швидко, чітко та послідовно. Власні системи ШІ супротивника можуть ефективно інтерпретувати ці сигнали, зменшуючи ризик непорозуміння. Наприклад, відстежуючи внутрішню громадську думку в реальному часі, інструменти ШІ можуть допомогти демократичній країні продемонструвати готовність діяти, показавши, що її загрозлива відповідь підкріплена реальною політичною підтримкою. Супротивники можуть використовувати власні інструменти штучного інтелекту, щоб підтвердити справжню підтримку. Використання ШІ для виявлення закономірностей і аномалій, які люди можуть пропустити — таких як раптові зміни у переміщенні військ, фінансові потоки чи кіберактивність — може дати лідерам чіткіше розуміння намірів супротивника.

Оскільки агресор може скористатися навіть незначними затримками у відповіді цільової країни — щоб захопити територію або іншим чином досягти її цілей — стримування найкраще працює, коли той здатен переконати агресора, що відреагує достатньо швидко, щоб позбавити його будь-якої часової переваги. ШІ допомагає зміцнювати це сприйняття, дозволяючи захисникам раніше виявляти виклики та реагувати швидше. Покращення довгострокового планування лідерів також може зміцнити та зберегти довіру у довготривалих кризах. Запускаючи велику кількість сценаріїв «а що як» — із використанням даних про силу, географію, лінії постачання та альянси — ШІ може надати лідерам чіткіше уявлення про те, як може розгортатися конфлікт, і допомогти їм підтримувати послідовні стратегії в міру зміни умов.

СИЛА ТА КРИХКІСТЬ

Ті ж самі технології ШІ, що посилюють стримування, можуть зробити його вразливим до експлуатації. Замість того, щоб допомагати країні достовірно донести те, що вона знає про себе, системи ШІ, якщо ними маніпулюють, можуть залишити лідерів невпевненими у власних можливостях і рішучості. Супротивники можуть використовувати ШІ, щоб спотворювати громадську думку або отруїти самі системи ШІ, від яких покладаються лідери країни. Застосовуючи ці дві тактики — операції з впливом за допомогою ШІ та отруєння моделей ШІ — противник може змінити інформаційне середовище країни так, щоб це безпосередньо вплинуло на її стримування. У найгіршому випадку така плутанина може призвести до провалу стримування країни, навіть якщо її базові можливості та рішучість сильні.

Противник також може використовувати операції впливу, щоб націлитися на громадськість країни, а також на впливових фігур, що формують національні дебати, включаючи тих, хто приймає рішення в уряді. Останні досягнення в галузі науки про дані та генеративного ШІ зробили операції впливу значно ефективнішими у трьох пов'язаних сферах: ідентифікація цілей, створення персон і індивідуально адаптований контент. Раніше супротивники, які прагнули застосувати цілеспрямовану пропаганду, могли групувати людей у кластери лише за подібними характеристиками. Однак із сучасним ШІ цей процес може автоматизувати за допомогою науки про дані, щоб націлитися на людей на великому рівні.

За допомогою цих інструментів ШІ може передбачати схильність цілей до конкретних наративів або фейкових профілів у соціальних мережах, які створені для привернення їхньої уваги. Якщо раніше боти були незграбними та легко впізнаваними, то сьогодні генеративний ШІ може створювати так звані синтетичні персони, які виглядають автентично і уникають легкого виявлення. Ці фейкові профілі з часом можна створювати так, щоб вони ставали невідмінними від реальних користувачів — з реалістичними звичками публікації, інтересами та мовними особливостями. Більше того, фейкові акаунти тепер можна створювати та експлуатувати у величезних масштабах, що ускладнює їх виявлення. Такі розробки дозволяють цим персонам поширювати синтетичний контент у цільових спільнотах. Розміщені на різних платформах соціальних мереж, вони можуть спрямовувати дебати та розпалювати розбіжності. Наприклад, щоб послабити громадську рішучість у США, такі фальшиві образи можуть поширювати твердження, що американська армія перевантажена, що союзники вільно користуються американською безпекою, або що певні міжнародні справи не варті боротьби. Посилення повідомлень на багатьох платформах може зробити неправдиву інформацію правдивою або принаймні створити достатню плутанину, щоб підірвати громадський консенсус щодо певної проблеми.

Системи ШІ можуть надати інформаційній війні потужну нову роль у примусі та конфліктах.

Використовуючи тисячі унікальних фейкових акаунтів, інструменти ШІ незабаром зможуть доставляти індивідуально адаптований контент у реальному часі для всієї спільноти. Це когнітивна війна, і наслідки для стримування очевидні. Оскільки значна частина стримуючої довіри демократії пов'язана з внутрішньополітичним тиском, операції, що впливають на громадську думку, можуть послабити сигнали рішучості цієї держави. Маніпуляції ШІ можуть зробити внутрішню аудиторію країни менш схильною підтримувати сильну військову відповідь на акт іноземної агресії — особливо проти союзника — і таким чином спотворювати дані опитувань та інші нібито емпіричні сигнали громадськості, на які звертають увагу лідери демократів. Це може залишити таких лідерів у невизначеності, наскільки вони мають справжню підтримку і яку реакцію можуть зіткнутися, якщо поступляться. Така невизначеність може викликати вагання, послабити рішучість лідерів і затуманити їхнє прийняття рішень — усе це може зробити стримуючі загрози держави менш переконливими.

Державні організації вже шукають способи підриву інформаційної безпеки через операції впливу з використанням ШІ. Прикладом є GoLaxy, китайська компанія, яка використовує інструменти генеративного ШІ та величезні відкриті набори даних для створення детальних психологічних профілів осіб, за якими стежать, і впровадження у великому масштабі синтетичних персон, що імітують справжніх користувачів. Кампанії компанії часто полягають у зборі детальної інформації про впливових осіб, використанні цієї інформації для створення повідомлень, які, ймовірно, переконають цільову аудиторію, а також у передачі цих повідомлень ретельно продуманих особистостей у соціальних мережах. Досягаючи гострого рівня точності та посилюючи оманливі наративи на різних платформах, такі операції можуть сіяти плутанину, руйнувати громадський дискурс і послаблювати внутрішню базу, яка робить стримуючі сигнали достовірними за кордоном. Узгодження GoLaxy з державними пріоритетами Китаю та зв'язки з державними науково-дослідними інститутами та надпровідними компаніями роблять його складним пропагандистським двигуном.

Документи, які ми проаналізували в Інституті національної безпеки Вандербільтського університету, показують, що GoLaxy вже проводила операції в Гонконзі та Тайвані та збирала досьє на членів Конгресу США, а також на публічних осіб по всьому світу. Відкрита розвідка дозволяє супротивникам створювати комплексні досьє на політиків, військових лідерів і солдатів для стратегічних цілей. Точно цілеспрямовані операції з персонами можуть використовувати цю інформацію. Щоб здобути тактичні перемоги, наприклад, супротивники могли б націлитися на солдатів діпфейковими повідомленнями з хибними враженнями про умови на полі бою чи обставини вдома — і включення точних особистих даних про життя цих солдатів могло зробити вигадки достатньо реалістичними, щоб відволікти їхню увагу або порушити згуртованість підрозділів. У політичній сфері супротивники могли поєднувати реальні фотографії політиків із клонованими голосами чи обличчями. Навіть якщо їх ніколи не опублікують, загроза їх викриття може послабити риторику цілей, загальмувати законодавчі процедури або послабити рішучість лідерів. З стратегічної точки зору ворожі сторони можуть імітувати неправдиві накази влади про відступ або перенаправлення на альтернативні канали зв'язку, що може відкрити вікно для захоплення позиції противника. Результатом стає когнітивний туман війни.

ОТРУЄННЯ КОЛОДЯЗЯ

Ще одним шляхом, яким супротивники можуть створити невизначеність для захисників, є отруєння моделей: стратегічна маніпуляція системами ШІ, на які уряди покладаються для підтримки розвідки та прийняття рішень. Пошкоджуючи навчальні дані цих систем або компромітуючи їхні аналітичні канали, супротивники можуть спотворити уявлення захисника про їхню відносну силу та нагальність загрози. Система, яка недооцінює сили супротивника, може викликати необґрунтовану впевненість у захиснику; Те, що перебільшує характер загрози, може викликати вагання. У будь-якому випадку, ефективне маніпулювання такими системами ШІ може зробити більше, ніж просто ускладнити управління кризою захисника — воно може послабити довіру до його стримуючих сигналів і, відповідно, створити небезпечні ризики.

По суті, отруєння моделей працює шляхом маніпулювання конвеєром даних моделі так, щоб вона ігнорувала важливу інформацію і поглинала хибні вхідні дані. Це, у свою чергу, може підштовхнути систему до оманливих або деградованих оцінювань. Один із методів — це впровадження хибної інформації у набори даних, які система ШІ засвоює для вивчення. Ця прихована інформація, яка здається безпечною для людських рецензентів, все ж може послабити або упередити здатність моделі до логіки — наприклад, обдуривши її, щоб вона позначала певні типи шкідливого ПЗ як безпечне, щоб противник міг проникнути за міжмережевий екран на базі ШІ. Хоча поки що не зафіксовано жодних випадків такого підходу, сучасні дослідження ШІ показали, що існуючі набори даних вразливі до такого типу атаки отруєння даними. Те, що колись було теоретичним, тепер можливо на практиці.

Моделі також можуть бути отруєні, створюючи пошкоджені веб-сторінки. Система штучного інтелекту постійно здійснює живий пошук нової інформації в Інтернеті; Ці сайти можуть впроваджувати приховані інструкції і таким чином спотворювати оцінку моделі. Якщо фільтри, що відстежують вхідні дані, слабкі, навіть невелика кількість пошкоджених сайтів може викликати неточні відповіді.

Особливо прихована форма інформаційної війни, отруєння моделей дозволяє супротивникам спотворювати уявлення захисника про можливості та рішучість — свої власні та чужі — шляхом зміни самої роботи інструментів для ясності. Під час кризи отруєння може спонукати лідера вагатися або — що гірше — помилитися в розрахунках, послаблюючи стримування і відкриваючи двері для ескалації.


ВИХОДИТИ ВПЕРЕД

Поява систем ШІ мала посилити стримування, надсилаючи чіткіші сигнали супротивникам щодо можливостей і рішучості захисника. Але зростаюче використання інформаційної війни, викликаної тими ж системами, загрожує зробити протилежне. Навіть на ранніх етапах цей новий тип інформаційної війни показав, що технології ШІ можуть впливати на інтерпретацію інформації, вносити невизначеність у процеси суджень і спотворювати дані, що лежать в основі прийняття рішень. Ці загрози лише посилюватимуться у міру розвитку ШІ.

Навіть потужній країні, як США, може бути важко показати свою стримуючу довіру, якщо вона опиниться під впливом передової інформаційної війни на базі ШІ. Для політиків і громадян завданням буде знайти способи використати переваги ШІ, запобігаючи його озброєнню. Стратегії протидії цій новій загрозі мають розроблятися так само швидко, як і технології, що її підтримують.

Подолання цього виклику вимагатиме від урядів і дослідників вжити заходів для посилення аналітичних систем проти отруєння моделей і активної протидії операціям впливу на базі ШІ щоразу, коли їх виявляють. Щоб протистояти роботі таких компаній, як GoLaxy, наприклад, США та їхні союзники повинні мати змогу швидко виявляти та руйнувати синтетичні мережі за допомогою інструментів, здатних ідентифікувати та нейтралізувати персони, керовані ШІ, ще до того, як вони вживляться. Освітні кампанії щодо синтетичних медіа та способів їх ідентифікації також можуть підвищити обізнаність громадськості про загрозу. Демократичні уряди, соціальні мережі та платформи штучного інтелекту, а також міждисциплінарні дослідники мають працювати разом над розробкою таких рішень.

На стратегічному рівні Сполучені Штати повинні інвестувати в технології, здатні швидко виявляти синтетичні повідомлення. Уряд, академічна спільнота та приватний сектор повинні розробити нові засоби захисту для прийняття рішень і системи фільтрації даних, які витримують корумповані вхідні дані, одночасно співпрацюючи з союзниками США для викриття та покарання винуватців масштабних інформаційних кампаній. Крім того, цей альянс має програмно тестувати нові моделі для виявлення недоліків — включно з тими типами отруєння даних, які можуть бути непомітними у повсякденному використанні — і робити це з суворою прозорістю, щоб забезпечити експертне оцінювання. Стійкі заходи безпеки та ретельне тестування необхідні для того, щоб системи ШІ могли надійно працювати у моменти надзвичайного стресу чи кризи.

У епоху штучного інтелекту стримування більше не може залежати від можливостей і рішучості. Це вимагатиме від лідерів, оборонних стратегів та інших осіб, які прийматимуть рішення, щоб зберегти надійність свого інформаційного середовища — навіть на тлі широкомасштабних цифрових спотворень.




Report Page