ШІ як зброя: SAFE, GAIN і український вибір у війні швидкості
Автор: Ібрагім Габідулін
Іспанський парадокс — перемагає не кращий алгоритм, а правильна модель управління
Кілька місяців тому іспанська держава зробила вибір, який на перший погляд виглядає нелогічним: у конкурсі на системи аналізу зображень/відеопотоків вона віддала перевагу рішенню, пов’язаному з китайським постачальником, хоча американські аналоги вважаються сильнішими по якості розпізнавання [1]. Причина — не “хто кращий у коді”, а хто краще проходить європейський комплаєнс: прозорість, документація, обмеження використання, відповідальність, захист даних.
Цей кейс важливий не Іспанією. Він показує зсув: у XXI столітті перемагатиме не той, хто має “найточнішу модель”, а той, хто має “найкращу архітектуру застосування” — юридичну, етичну й управлінську [2]. Для України, яка воює, це подвійно критично: у нас ШІ вже присутній у бойових контурах, але держава ще не визначила межі автономії та відповідальності.
США: дві школи — швидкість проти керованості (GAIN vs SAFE)
Дискусія навколо штучного інтелекту в США давно вийшла за межі технологій і перетворилася на протистояння двох підходів до війни майбутнього, де ключовим є питання: хто і як ухвалює рішення в умовах різко стисненого часу [3].
GAIN: «Людина-над-циклом» (human-on-the-loop).
Підхід, умовно позначений як GAIN [4, 5], виходить з пріоритету швидкості та стратегічної переваги: держава має мінімізувати регуляторні обмеження, прискорювати розробку і впровадження ШІ та забезпечувати технологічне лідерство США навіть ціною підвищених ризиків автономності систем. Людина в цій логіці залишається “над контуром” ухвалення рішень — як нагляд і корекція, але не як обов’язковий елемент кожного циклу застосування сили. Ставка на темп: скорочення OODA-циклу: «Спостерігати — Орієнтуватися — Вирішувати — Діяти» (Observe–Orient–Decide–Act) [6] до секунд і мілісекунд. Логіка проста: хто швидше бачить, орієнтується і вражає — той перемагає.
SAFE: «Людина-у-циклі» (human-in-the-loop).
Підхід SAFE (Security, Accountability, Foundations, Explainability), тобиш «Безпека, підзвітність, основи, поясненість», сформульований у межах ініціативи лідера демократичної більшості в Сенаті Чака Шумера [7, 8], виходить з протилежної логіки: перш ніж масштабувати ШІ, держава має задати рамку безпеки, підзвітності та відповідальності. У цій моделі людина залишається безпосереднім учасником ухвалення критичних рішень, особливо там, де йдеться про застосування летальної сили, а автономність машин принципово обмежується.
Ці дві школи — не академічна суперечка, що “американський ШІ” — не моноліт, а поле внутрішньої політичної та інституційної боротьби. Вони тиснуть одна на одну через штати, Конгрес, оборонні програми і ринок . Каліфорнія тут — символ: місце, де регуляторна логіка SAFE намагається задавати стандарт і навіть вступає у конфлікт з федеральною політикою [9].
Чому це важливо для України
GAIN і SAFE — це не абстрактна американська суперечка. Це дві різні відповіді на одне й те саме питання: як скоротити цикл Observe–Orient–Decide–Act і водночас не втратити контроль над наслідками рішень, прийнятих машинами.
Саме в цій точці з’являється ключова для воюючої держави дилема: швидкість може вирішувати бій, але помилка автономної системи може коштувати не лише життів, а й легітимності командування та довіри союзників.
Пастка «людини в циклі»: коли орієнтацію визначає алгоритм
Важливо підкреслити: присутність людини в циклі OODA сама по собі не гарантує безпеки. Історичний приклад, наведений у статті [10], яскраво демонструє цю пастку.
Під час операції «Іракська свобода» у 2003 році розрахунки ЗРК Patriot формально діяли в режимі, де людина залишалася в циклі ухвалення рішення. Проте система автоматичної класифікації загроз уже попередньо відфільтровувала інформацію, подаючи оператору не повну картину, а машинну інтерпретацію ситуації. У результаті екіпажі довірилися автоматичній оцінці системи, навіть попри суперечливі людські спостереження, що призвело до двох випадків ураження дружніх літаків коаліції.
Ключова проблема полягала не в повній автономії системи, а в тому, що алгоритм фактично взяв на себе етап Orient, визначивши рамку сприйняття ситуації для людини. Командир формально приймав рішення (Decide), але в умовах інформаційної асиметрії: він не бачив альтернативних гіпотез, рівня невпевненості алгоритму та логіки машинної класифікації.
Цей кейс показує, що можливий значно небезпечніший сценарій, ніж повна автономія: людина присутня в циклі, але її судження вже сформоване машиною. У такій ситуації human-in-the-loop перетворюється на ілюзію контролю, а командир — на оператора кнопки.
Саме тому для воюючої держави критично важливо розрізняти:
- людину як номінального підтверджувача рішення, і
- людину як повноцінного суб’єкта орієнтації та оцінки, який має доступ до нефільтрованих даних, альтернативних інтерпретацій і показників надійності алгоритму.
Цей урок безпосередньо пов’язує американську дискусію SAFE vs GAIN із практичними вимогами до сучасних бойових систем: контроль має стосуватися не лише кнопки “пуск”, а й того, як формується картина реальності для командира.
ЄС: AI Act як “кисневий вентиль” для ринку і технологий
Європа створила найжорсткішу у світі нормативну рамку для ШІ [11]. Це не просто “турбота про права людини”. Це інструмент стратегічного управління ринком: хто відповідає вимогам — той отримує доступ; хто ні — той програє навіть із кращою технологією.
Саме іспанське AEPD (Agencia Española de Protección de Datos) [12] стала інструментом, через який ЄС реально втілює AI Act у практиці — накладаючи штрафи та встановлюючи вимоги до біометрії і розпізнавання образів. Це не декларації, а юридично зобов’язуючі рішення, і вони прямо вплинули на те, що в тендерах перемагали не найточніші алгоритми, а ті, що відповідали нормам.
Для України тут два висновки:
- Регуляція — це зброя економічного суверенітету.
- У військовій сфері ЄС рухатиметься обережно, але загальний тренд на керованість і відповідальність буде впливати і на оборонні закупівлі та кооперацію.
Китай: “червона загроза” не в алгоритмах, а в темпі та мобілізації
Поки США сперечаються про межі автономії, а Європа вибудовує регуляторні бар’єри, Китай просувається вперед із логікою: швидкість і масштаб понад усе. Це не означає “Китай не має регулювання” — означає, що пріоритети інші: централізація, мобілізація ресурсів, military-civil fusion [13], прискорене впровадження.
В українському дискурсі важливо не впасти в пропагандистське “вони вже все виграли”. Але так само небезпечно заспокоювати себе: конкуренція у ШІ — це не тільки про якість моделей, це про інституційну здатність приймати рішення і впроваджувати їх швидко.
Американські дебати про «гонку ШІ»: міф домінування і дилема регулювання
Гострота суперечок у США щодо конкуренції з Китаєм у сфері штучного інтелекту дедалі більше відображається у провідних аналітичних виданнях. Дві нещодавні публікації — у Foreign Affairs та RealClearDefense — показують, що мова йде не про лінійну «гонку технологій», а про зіткнення стратегічних підходів і внутрішніх обмежень.
У статті [14] автор стверджує, що уявлення про просту дуель США і Китаю за «абсолютне технологічне домінування» є хибним. Жодна зі сторін не здатна досягти повного контролю над усією екосистемою ШІ самотужки; натомість формується мультиполярне середовище, де вирішальними стають інституції, ринки, стандарти та моделі застосування технологій, а не лише швидкість алгоритмів чи обчислювальні потужності. Цей підхід підважує риторику «переможець–переможений» і зміщує фокус на довгострокову спроможність інтегрувати ШІ в державне управління, безпеку та економіку.
Водночас у публікації [15] акцентується інша небезпека: внутрішні регуляторні суперечки в США можуть стати серйознішим обмеженням, ніж зовнішній тиск з боку Китаю. Авторка протиставляє «червону стрічку» (надмірні процедури, тривалі дебати і затримки) «червоній загрозі» — системній і швидкій мобілізації ресурсів Китаєм. У такій оптиці ключовим ризиком для США стає не відставання в окремих технологіях, а втрата темпу через інституційну інерцію.
Разом ці дві позиції добре пояснюють, чому американська дискусія навколо GAIN і SAFE є настільки напруженою. Йдеться не лише про баланс між швидкістю і безпекою, а про стратегічний вибір: як зберегти перевагу, не пожертвувавши керованістю та довірою.
Саме в цій точці з’являється принциповий урок для України: перемога у сфері ШІ визначається не «кращим алгоритмом», а здатністю поєднати технологію, інституції та відповідальність у єдину бойову і державну систему.
Війна і OODA: ШІ стискає час — але збільшує ціну помилки
Класичний цикл «Спостереження–Орієнтація–Прийняття рішення–Дія» (OODA, Observe–Orient–Decide–Act), у сучасній війні стискається з годин і хвилин до секунд і мілісекунд. Саме тут штучний інтелект дає вирішальну перевагу: він здатен обробляти потоки сенсорних даних, пропонувати варіанти дій і запускати ланцюги ураження швидше, ніж будь-який штаб або командир.
Але разом зі швидкістю зростає й ціна помилки.
ШІ скорочує цикл — але не знімає відповідальність
На полі бою ШІ фактично бере на себе значну частину етапів «Спостереження-Орієнтація»: виявлення цілей, класифікацію загроз, пріоритезацію, пропозицію рішень. Це дозволяє різко прискорити «Прийняття рішення-Дія». Проблема в тому, що помилка на ранньому етапі автоматично масштабується на весь цикл.
Історичний приклад із ЗРК Patriot [10] у 2003 році показує: навіть коли людина формально залишається в циклі ухвалення рішення, алгоритмічно нав’язана «Орієнтація» може позбавити командира реального вибору. Людина не виключена з процесу, але вона працює з уже відфільтрованою картиною реальності. У результаті — катастрофічні помилки, зокрема ураження власних сил.
Війна дронів: швидкість як спокуса
У війні дронів ця дилема проявляється ще гостріше. Рої БПЛА, автоматичне наведення, машинний аналіз відеопотоків створюють спокусу максимально “викинути” людину з циклу, залишивши її лише як формального наглядача. Аргумент очевидний: хто швидше пройшов OODA — той і переміг.
Але в реальності бойове середовище:
- насичене маскуванням і обманом,
- змінюється швидше, ніж навчаються моделі,
- містить неоднозначні цілі та “сірі зони”, які алгоритм схильний трактувати бінарно.
Тут помилка ШІ — не просто тактичний промах, а потенційний:
- удар по своїх,
- цивільні втрати,
- політичні та стратегічні наслідки.
Ключовий висновок для воюючої держави
Отже, проблема не в тому, що ШІ “занадто швидкий”. Проблема в тому, як саме він вбудований у цикл OODA. Контроль має стосуватися не лише моменту пуску чи ураження, а етапу формування картини світу для командира.
Інакше кажучи:
- human-in-the-loop не працює, якщо людина бачить лише те, що їй дозволив побачити алгоритм;
- human-on-the-loop небезпечний там, де ціна помилки вимірюється життями і стратегічною довірою.
Саме тому сучасна війна вимагає нової архітектури командування, де швидкість ШІ поєднується з людським судженням, а не підміняє його. Цей виклик не вирішується копіюванням американських, європейських чи китайських моделей — і безпосередньо підводить до українського вибору.
Український вибір: не копіювати США, ЄС чи Китай, а створити гібрид
Досвід США, Європейського Союзу та Китаю показує: універсальної моделі застосування ШІ у війні не існує. Кожен із підходів виріс із власних інституцій, культури управління та політичних обмежень — і саме тому пряме копіювання будь-якої з цих моделей для України є хибним шляхом.
Україна воює в умовах, які не має жодна з великих держав:
- постійний дефіцит часу і ресурсів;
- безперервна адаптація ворога;
- реальне бойове застосування нових систем не в лабораторіях, а “з коліс”;
- політична і моральна ціна кожної помилки — миттєва і публічна.
Саме тому український вибір не може бути ані американським GAIN, ані європейським SAFE, ані китайською моделлю тотальної мобілізації.
Чому не США
Американська дискусія між GAIN і SAFE відбувається в умовах стратегічної глибини, розвинених інституцій і відсутності екзистенційної загрози на власній території. Україна ж не може дозволити собі ні надмірну регуляторну паузу, ні повільне “узгодження рамок” під час війни.
Чому не ЄС
Європейська модель, уособлена AI Act [11], виходить з логіки попередження ризиків у мирному середовищі. Для України ж головний ризик — програти у швидкості адаптації на полі бою. Регуляція, яка душить інновацію на старті, у воєнних умовах працює проти обороноздатності.
Чому не Китай
Китайська сила — у темпі, масштабі та державній мобілізації — базується на:
- повній підпорядкованості технологій державі,
- мінімізації ролі індивідуального командирського судження,
- готовності приймати помилки як статистичні втрати.
Для України така модель неприйнятна — і морально, і практично. Українська армія тримається на ініціативі, децентралізації та довірі до командира на місці.
Гібрид як єдиний реалістичний шлях
Український вибір — це гібридна модель, яка поєднує:
- швидкість і експериментальність (як у GAIN),
- принципову роль людини в критичних рішеннях (як у SAFE),
- реальне бойове тестування і масштабування (як у Китаю, але без його політичної моделі).
Ключова відмінність цього підходу — не “людина в циклі” як формальність, а людина як:
- суб’єкт орієнтації,
- носій відповідальності,
- останній фільтр перед застосуванням сили.
Україна вже де-факто живе в цій моделі — через волонтерські розробки, фронтові лабораторії, дронові підрозділи та швидке навчання на помилках. Завдання держави — перетворити цю практику на усвідомлену рамку, а не втратити її під тиском чужих шаблонів.
Саме тут виникає потреба в окремій українській державній логіці роботи з MilTech і ШІ — рамці, яка не копіює чужі закони, а виходить із досвіду війни.
GRAIN: українська державна рамка для MilTech і ШІ під вогнем
Війна поставила Україну в унікальну позицію: ми одночасно є полем бою, лабораторією і інкубатором нових військових технологій. Але без державної рамки навіть найуспішніші фронтові інновації ризикують залишитися фрагментованими, випадковими або залежними від волонтерської інтуїції.
Саме тому Україні потрібна власна рамка роботи з MilTech і ШІ — не копія чужих законів і не запізніла регуляція, а система, народжена війною. Умовно назвемо її GRAIN.
Що таке GRAIN
GRAIN — це не закон і не відомчий наказ. Це державна логіка роботи з воєнними інноваціями, яка поєднує швидкість бойового застосування з відповідальністю командування.
У центрі GRAIN — простий принцип: експеримент дозволений, але відповідальність завжди людська.
Ключові елементи GRAIN
- Реальний бойовий контур як норма, а не виняток
Українські MilTech-рішення мають тестуватися не в “пісочницях” і не після багаторічної сертифікації, а в контрольованому бойовому середовищі. Держава має легалізувати цей режим як стандарт, а не як тимчасову імпровізацію.
Командир — центр ухвалення рішення
Жоден алгоритм не може замінити командирське судження. У рамках GRAIN ШІ:
- пропонує,
- підсвічує,
- моделює,
але не визначає остаточну реальність.
Командир має доступ до нефільтрованих даних, альтернативних інтерпретацій і рівня невпевненості системи.
Контроль не кнопки, а орієнтації
GRAIN виходить із уроків Patriot і сучасної війни дронів:
ключовим є не момент пуску, а етап формування картини бою. Держава має встановити вимоги саме до того, як ШІ “пояснює” світ людині, а не лише до кінцевої дії.
Швидке масштабування успішних рішень
Те, що працює на фронті, має:
- швидко переходити від підрозділу до системи,
- отримувати виробничі контракти,
- інтегруватися в навчання.
Без багаторічних “пілотів” і нескінченних погоджень.
Відповідальність і довіра замість імітації контролю
GRAIN не намагається сховатися за формальні процедури. Він визнає:
- помилки неминучі,
- але відповідальність має бути персональною і зрозумілою.
Це створює довіру між державою, військом і розробниками — критично важливу в умовах війни.
Чому GRAIN можливий саме в Україні
Жодна інша країна не має такого поєднання:
- реального бойового досвіду,
- децентралізованих інновацій,
- мотивованих командирів і інженерів,
- постійного тиску часу.
Те, що для США чи ЄС є предметом теоретичних дебатів, для України — щоденна практика виживання. GRAIN лише формалізує те, що вже працює, і захищає це від бюрократичного знищення після війни.
Перехід до практики
GRAIN — це рамка, яка дозволяє:
- говорити з союзниками на рівних,
- відкривати Україну для спільних програм MilTech,
- і водночас не втрачати контроль над власною війною.
Але будь-яка рамка без рішень залишається декларацією. Саме тому наступний крок — чіткі дії держави, які можна зробити вже зараз, без “реформаторського туману”.
Що має зробити держава вже зараз: 5 рішень без «реформаторського туману»
Україна вже живе в реальності, де ШІ та MilTech визначають хід бойових дій. Питання не в тому, чи регулювати, а в тому, як не зупинити те, що рятує життя і дає перевагу. Тому державні рішення мають бути рамковими, чіткими й орієнтованими на війну — не на імітацію мирного управління.
Рамковий закон GRAIN на рівні Верховної Ради
Верховна Рада має ухвалити рамковий закон (або постанову концептуального рівня), який закріплює GRAIN як державну логіку роботи з MilTech і ШІ у воєнній та післявоєнній перспективі.
Це не технічний закон «про дрони» і не калька з AI Act. Це акт, який:
визнає війну базовим сценарієм застосування ШІ;
легалізує контрольоване бойове тестування;
фіксує центральну роль командира і персональної відповідальності;
задає принципи, а не деталізує алгоритми.
Такий закон дає стабільність і передбачуваність військовим, розробникам і партнерам — без бюрократичної задухи.
Офіційна готовність України приймати MilTech у рамці GRAIN
Держава має чітко і публічно зафіксувати:
Україна готова приймати іноземні зразки озброєнь і MilTech-рішення для прискореного тестування та впровадження в рамці GRAIN.
Ключові умови:
- не «полігон», а керований бойовий контур;
- український командир — центр рішення;
- українська відповідальність і контроль;
- швидкий зворотний зв’язок і масштабування того, що працює.
Це знімає страхи хаотичних експериментів і водночас відкриває Україні доступ до передових розробок без втрати суверенітету рішень.
Єдиний державний контур експериментів і масштабування
Потрібно створити єдину державну “трасу”:
- від фронтового експерименту,
- через оцінку і навчання,
- до серійного виробництва і постачання.
Без паралельних відомчих «пісочниць» і конкуренції паперів. Те, що працює, має рухатися швидко і без бар’єрів.
Захист командира і розробника від паралічу відповідальності
Держава повинна чітко розмежувати:
- бойову помилку,
- технологічний збій,
- службову недбалість.
Без цього командири боятимуться експериментувати, а інженери — пропонувати нові рішення. GRAIN працює лише там, де довіра важливіша за страх перевірок.
Інституційна підготовка парламенту і уряду
Верховна Рада, профільні комітети і урядові структури мають цілеспрямовано вивчати міжнародний досвід застосування ШІ у військовій і цивільній сферах — не для копіювання, а для свідомого вибору.
Без цього стратегічні рішення ухвалюватимуться на рівні гасел, а не рамок.
Підсумок
GRAIN — це не «український AI Act» і не компроміс між США, ЄС і Китаєм. Це відповідь воюючої держави на реальність, у якій швидкість вирішує бій, але відповідальність вирішує майбутнє.
Фінал: головне питання, від якого ухиляються — і яке Україна повинна сформулювати першою
Світова дискусія про штучний інтелект у війні сьогодні застрягла між двома крайнощами. З одного боку — страх перед автономією машин і прагнення все зарегулювати наперед. З іншого — спокуса швидкості, де алгоритм підміняє командирське судження в ім’я переваги в темпі.
І США, і ЄС, і Китай по-своєму уникають головного питання. Воно звучить не як технічна дилема і не як етичний абстрактний вибір. Воно значно простіше — і значно небезпечніше: Хто формує реальність для того, хто ухвалює рішення про застосування сили — людина чи алгоритм?
Саме це питання лежить в основі:
- трагедій типу Patriot у 2003 році,
- ілюзії human-in-the-loop,
- спокус повної автономії в роях дронів,
- і регуляторних моделей, що або душать інновацію, або знімають відповідальність.
Більшість держав можуть дозволити собі відкладати відповідь. Україна — ні.
Для нас це питання не академічне і не майбутнє. Воно щоденне і фронтове. Воно вимірюється не рейтингами і не інвестиціями, а життями, довірою і здатністю виграти війну.
Саме тому Україна має унікальний шанс, і унікальну відповідальність, сформулювати відповідь першою. Не у вигляді універсального рецепту для світу. А у вигляді державної рамки воюючої демократії, де:
- ШІ стискає час,
- але не стискає мислення;
- алгоритм допомагає,
- але не визначає реальність;
- експеримент дозволений,
- але відповідальність завжди людська.
GRAIN — це не про технології. Це про суверенітет рішення в епоху машин.
І якщо Україна зможе зберегти цей суверенітет під вогнем, саме наш досвід стане орієнтиром для тих, хто сьогодні лише теоретизує про війну майбутнього.
Ібрагім Габідулін,
військовий експерт,
фахівець з питань застосування Повітряних сил,
полковник у запасі
Джерела:
- Javaid Iqbal Sofi. How Washington Is Losing the AI Race No One Is Tracking. https://warontherocks.com/2025/11/how-washington-is-losing-the-ai-race-no-one-is-tracking/
- REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 13 June 2024. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32024R1689
- The White House Risks Squandering Its Own AI Leadership. https://warontherocks.com/2025/11/the-white-house-risks-squandering-its-own-ai-leadership/
- 3150 — GAIN AI Act of 2025. https://www.congress.gov/bill/119th-congress/senate-bill/3150/
- R.5885 — GAIN AI Act of 2025. https://www.congress.gov/bill/119th-congress/house-bill/5885
- John Boyd and Strategic Thinking. https://ronfurg.wordpress.com/2018/03/30/john-boyd-and-strategic-thinking/
- Majority Leader Schumer Delivers Remarks To Launch SAFE Innovation Framework For Artificial Intelligence At CSIS. https://www.democrats.senate.gov/news/press-releases/majority-leader-schumer-delivers-remarks-to-launch-safe-innovation-framework-for-artificial-intelligence-at-csis/
- Chuck Schumer Launches SAFE Innovation in the AI Age at CSIS. https://www.csis.org/analysis/sen-chuck-schumer-launches-safe-innovation-ai-age-csis/
- AI Regulation Battle Looms in California Despite Trump Threats. https://www.claimsjournal.com/news/national/2026/01/05/334892.htm
- Eli Talbert. The Triage Trap: When AI Speed Replaces Command Judgment. https://warontherocks.com/2026/01/the-triage-trap-when-ai-speed-replaces-command-judgment/
- The EU Artificial Intelligence Act. Up-to-date developments and analyses of the EU AI Act. https://artificialintelligenceact.eu/
- La Agencia lanza el Laboratorio de la AEPD, un espacio de colaboración, análisis y generación de conocimiento. https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/agencia-lanza-laboratorio-aepd/
- Military–civil fusion. https://en.wikipedia.org/w/index.php?title=Military%E2%80%93civil_fusion&/
- Colin H. Kahl. The Myth of the AI Race. Neither America Nor China Can Achieve True Tech Dominance. https://www.foreignaffairs.com/united-states/myth-ai-race/
- Mitzi Perdue. Red Tape or Red Threat? https://www.realcleardefense.com/articles/2025/12/18/red_tape_or_red_threat_1154067.html/
