ШІ СТАВ АВТОНОМНОЮ ЗБРОЄЮ

ШІ як зброя: SAFE, GAIN і український вибір у війні швидкості

 

Автор: Ібрагім Габідулін

 

 

Іспанський парадокс — перемагає не кращий алгоритм, а правильна модель управління

 

Кілька місяців тому іспанська держава зробила вибір, який на перший погляд виглядає нелогічним: у конкурсі на системи аналізу зображень/відеопотоків вона віддала перевагу рішенню, пов’язаному з китайським постачальником, хоча американські аналоги вважаються сильнішими по якості розпізнавання [1]. Причина — не “хто кращий у коді”, а хто краще проходить європейський комплаєнс: прозорість, документація, обмеження використання, відповідальність, захист даних.

 

Цей кейс важливий не Іспанією. Він показує зсув: у XXI столітті перемагатиме не той, хто має “найточнішу модель”, а той, хто має “найкращу архітектуру застосування” — юридичну, етичну й управлінську [2]. Для України, яка воює, це подвійно критично: у нас ШІ вже присутній у бойових контурах, але держава ще не визначила межі автономії та відповідальності.

 

США: дві школи — швидкість проти керованості (GAIN vs SAFE)

 

Дискусія навколо штучного інтелекту в США давно вийшла за межі технологій і перетворилася на протистояння двох підходів до війни майбутнього, де ключовим є питання: хто і як ухвалює рішення в умовах різко стисненого часу [3].

 

GAIN: «Людина-над-циклом» (human-on-the-loop).

Підхід, умовно позначений як GAIN [4, 5], виходить з пріоритету швидкості та стратегічної переваги: держава має мінімізувати регуляторні обмеження, прискорювати розробку і впровадження ШІ та забезпечувати технологічне лідерство США навіть ціною підвищених ризиків автономності систем. Людина в цій логіці залишається “над контуром” ухвалення рішень — як нагляд і корекція, але не як обов’язковий елемент кожного циклу застосування сили. Ставка на темп: скорочення OODA-циклу: «Спостерігати — Орієнтуватися — Вирішувати — Діяти» (Observe–Orient–Decide–Act) [6] до секунд і мілісекунд. Логіка проста: хто швидше бачить, орієнтується і вражає — той перемагає.

 

SAFE: «Людина-у-циклі» (human-in-the-loop).

Підхід SAFE (Security, Accountability, Foundations, Explainability), тобиш «Безпека, підзвітність, основи, поясненість», сформульований у межах ініціативи лідера демократичної більшості в Сенаті Чака Шумера [7, 8], виходить з протилежної логіки: перш ніж масштабувати ШІ, держава має задати рамку безпеки, підзвітності та відповідальності. У цій моделі людина залишається безпосереднім учасником ухвалення критичних рішень, особливо там, де йдеться про застосування летальної сили, а автономність машин принципово обмежується.

 

Ці дві школи — не академічна суперечка, що “американський ШІ” — не моноліт, а поле внутрішньої політичної та інституційної боротьби. Вони тиснуть одна на одну через штати, Конгрес, оборонні програми і ринок . Каліфорнія тут — символ: місце, де регуляторна логіка SAFE намагається задавати стандарт і навіть вступає у конфлікт з федеральною політикою [9].

 

Чому це важливо для України

GAIN і SAFE — це не абстрактна американська суперечка. Це дві різні відповіді на одне й те саме питання: як скоротити цикл Observe–Orient–Decide–Act і водночас не втратити контроль над наслідками рішень, прийнятих машинами.

 

Саме в цій точці з’являється ключова для воюючої держави дилема: швидкість може вирішувати бій, але помилка автономної системи може коштувати не лише життів, а й легітимності командування та довіри союзників.

 

Пастка «людини в циклі»: коли орієнтацію визначає алгоритм

Важливо підкреслити: присутність людини в циклі OODA сама по собі не гарантує безпеки. Історичний приклад, наведений у статті [10], яскраво демонструє цю пастку.

 

Під час операції «Іракська свобода» у 2003 році розрахунки ЗРК Patriot формально діяли в режимі, де людина залишалася в циклі ухвалення рішення. Проте система автоматичної класифікації загроз уже попередньо відфільтровувала інформацію, подаючи оператору не повну картину, а машинну інтерпретацію ситуації. У результаті екіпажі довірилися автоматичній оцінці системи, навіть попри суперечливі людські спостереження, що призвело до двох випадків ураження дружніх літаків коаліції.

 

Ключова проблема полягала не в повній автономії системи, а в тому, що алгоритм фактично взяв на себе етап Orient, визначивши рамку сприйняття ситуації для людини. Командир формально приймав рішення (Decide), але в умовах інформаційної асиметрії: він не бачив альтернативних гіпотез, рівня невпевненості алгоритму та логіки машинної класифікації.

 

Цей кейс показує, що можливий значно небезпечніший сценарій, ніж повна автономія: людина присутня в циклі, але її судження вже сформоване машиною. У такій ситуації human-in-the-loop перетворюється на ілюзію контролю, а командир — на оператора кнопки.

 

Саме тому для воюючої держави критично важливо розрізняти:

  • людину як номінального підтверджувача рішення, і
  • людину як повноцінного суб’єкта орієнтації та оцінки, який має доступ до нефільтрованих даних, альтернативних інтерпретацій і показників надійності алгоритму.

 

Цей урок безпосередньо пов’язує американську дискусію SAFE vs GAIN із практичними вимогами до сучасних бойових систем: контроль має стосуватися не лише кнопки “пуск”, а й того, як формується картина реальності для командира.

 

ЄС: AI Act як “кисневий вентиль” для ринку і технологий

 

Європа створила найжорсткішу у світі нормативну рамку для ШІ [11]. Це не просто “турбота про права людини”. Це інструмент стратегічного управління ринком: хто відповідає вимогам — той отримує доступ; хто ні — той програє навіть із кращою технологією.

 

Саме іспанське AEPD (Agencia Española de Protección de Datos) [12] стала інструментом, через який ЄС реально втілює AI Act у практиці — накладаючи штрафи та встановлюючи вимоги до біометрії і розпізнавання образів. Це не декларації, а юридично зобов’язуючі рішення, і вони прямо вплинули на те, що в тендерах перемагали не найточніші алгоритми, а ті, що відповідали нормам.

 

Для України тут два висновки:

  1. Регуляція — це зброя економічного суверенітету.
  2. У військовій сфері ЄС рухатиметься обережно, але загальний тренд на керованість і відповідальність буде впливати і на оборонні закупівлі та кооперацію.

 

 

Китай: “червона загроза” не в алгоритмах, а в темпі та мобілізації

 

Поки США сперечаються про межі автономії, а Європа вибудовує регуляторні бар’єри, Китай просувається вперед із логікою: швидкість і масштаб понад усе. Це не означає “Китай не має регулювання” — означає, що пріоритети інші: централізація, мобілізація ресурсів, military-civil fusion [13], прискорене впровадження.

 

В українському дискурсі важливо не впасти в пропагандистське “вони вже все виграли”. Але так само небезпечно заспокоювати себе: конкуренція у ШІ — це не тільки про якість моделей, це про інституційну здатність приймати рішення і впроваджувати їх швидко.

 

Американські дебати про «гонку ШІ»: міф домінування і дилема регулювання

Гострота суперечок у США щодо конкуренції з Китаєм у сфері штучного інтелекту дедалі більше відображається у провідних аналітичних виданнях. Дві нещодавні публікації — у Foreign Affairs та RealClearDefense — показують, що мова йде не про лінійну «гонку технологій», а про зіткнення стратегічних підходів і внутрішніх обмежень.

 

У статті [14] автор стверджує, що уявлення про просту дуель США і Китаю за «абсолютне технологічне домінування» є хибним. Жодна зі сторін не здатна досягти повного контролю над усією екосистемою ШІ самотужки; натомість формується мультиполярне середовище, де вирішальними стають інституції, ринки, стандарти та моделі застосування технологій, а не лише швидкість алгоритмів чи обчислювальні потужності. Цей підхід підважує риторику «переможець–переможений» і зміщує фокус на довгострокову спроможність інтегрувати ШІ в державне управління, безпеку та економіку.

 

Водночас у публікації [15] акцентується інша небезпека: внутрішні регуляторні суперечки в США можуть стати серйознішим обмеженням, ніж зовнішній тиск з боку Китаю. Авторка протиставляє «червону стрічку» (надмірні процедури, тривалі дебати і затримки) «червоній загрозі» — системній і швидкій мобілізації ресурсів Китаєм. У такій оптиці ключовим ризиком для США стає не відставання в окремих технологіях, а втрата темпу через інституційну інерцію.

 

Разом ці дві позиції добре пояснюють, чому американська дискусія навколо GAIN і SAFE є настільки напруженою. Йдеться не лише про баланс між швидкістю і безпекою, а про стратегічний вибір: як зберегти перевагу, не пожертвувавши керованістю та довірою.

 

Саме в цій точці з’являється принциповий урок для України: перемога у сфері ШІ визначається не «кращим алгоритмом», а здатністю поєднати технологію, інституції та відповідальність у єдину бойову і державну систему.

 

Війна і OODA: ШІ стискає час — але збільшує ціну помилки

 

Класичний цикл «Спостереження–Орієнтація–Прийняття рішення–Дія» (OODA, Observe–Orient–Decide–Act), у сучасній війні стискається з годин і хвилин до секунд і мілісекунд. Саме тут штучний інтелект дає вирішальну перевагу: він здатен обробляти потоки сенсорних даних, пропонувати варіанти дій і запускати ланцюги ураження швидше, ніж будь-який штаб або командир.

 

Але разом зі швидкістю зростає й ціна помилки.

 

ШІ скорочує цикл — але не знімає відповідальність

На полі бою ШІ фактично бере на себе значну частину етапів «Спостереження-Орієнтація»: виявлення цілей, класифікацію загроз, пріоритезацію, пропозицію рішень. Це дозволяє різко прискорити «Прийняття рішення-Дія». Проблема в тому, що помилка на ранньому етапі автоматично масштабується на весь цикл.

 

Історичний приклад із ЗРК Patriot [10] у 2003 році показує: навіть коли людина формально залишається в циклі ухвалення рішення, алгоритмічно нав’язана «Орієнтація» може позбавити командира реального вибору. Людина не виключена з процесу, але вона працює з уже відфільтрованою картиною реальності. У результаті — катастрофічні помилки, зокрема ураження власних сил.

 

Війна дронів: швидкість як спокуса

У війні дронів ця дилема проявляється ще гостріше. Рої БПЛА, автоматичне наведення, машинний аналіз відеопотоків створюють спокусу максимально “викинути” людину з циклу, залишивши її лише як формального наглядача. Аргумент очевидний: хто швидше пройшов OODA — той і переміг.

 

Але в реальності бойове середовище:

  • насичене маскуванням і обманом,
  • змінюється швидше, ніж навчаються моделі,
  • містить неоднозначні цілі та “сірі зони”, які алгоритм схильний трактувати бінарно.

 

Тут помилка ШІ — не просто тактичний промах, а потенційний:

  • удар по своїх,
  • цивільні втрати,
  • політичні та стратегічні наслідки.

 

Ключовий висновок для воюючої держави

Отже, проблема не в тому, що ШІ “занадто швидкий”. Проблема в тому, як саме він вбудований у цикл OODA. Контроль має стосуватися не лише моменту пуску чи ураження, а етапу формування картини світу для командира.

 

Інакше кажучи:

  • human-in-the-loop не працює, якщо людина бачить лише те, що їй дозволив побачити алгоритм;
  • human-on-the-loop небезпечний там, де ціна помилки вимірюється життями і стратегічною довірою.

 

Саме тому сучасна війна вимагає нової архітектури командування, де швидкість ШІ поєднується з людським судженням, а не підміняє його. Цей виклик не вирішується копіюванням американських, європейських чи китайських моделей — і безпосередньо підводить до українського вибору.

 

Український вибір: не копіювати США, ЄС чи Китай, а створити гібрид

 

Досвід США, Європейського Союзу та Китаю показує: універсальної моделі застосування ШІ у війні не існує. Кожен із підходів виріс із власних інституцій, культури управління та політичних обмежень — і саме тому пряме копіювання будь-якої з цих моделей для України є хибним шляхом.

 

Україна воює в умовах, які не має жодна з великих держав:

  • постійний дефіцит часу і ресурсів;
  • безперервна адаптація ворога;
  • реальне бойове застосування нових систем не в лабораторіях, а “з коліс”;
  • політична і моральна ціна кожної помилки — миттєва і публічна.

 

Саме тому український вибір не може бути ані американським GAIN, ані європейським SAFE, ані китайською моделлю тотальної мобілізації.

 

Чому не США

Американська дискусія між GAIN і SAFE відбувається в умовах стратегічної глибини, розвинених інституцій і відсутності екзистенційної загрози на власній території. Україна ж не може дозволити собі ні надмірну регуляторну паузу, ні повільне “узгодження рамок” під час війни.

 

Чому не ЄС

Європейська модель, уособлена AI Act [11], виходить з логіки попередження ризиків у мирному середовищі. Для України ж головний ризик — програти у швидкості адаптації на полі бою. Регуляція, яка душить інновацію на старті, у воєнних умовах працює проти обороноздатності.

 

Чому не Китай

Китайська сила — у темпі, масштабі та державній мобілізації — базується на:

  • повній підпорядкованості технологій державі,
  • мінімізації ролі індивідуального командирського судження,
  • готовності приймати помилки як статистичні втрати.

 

Для України така модель неприйнятна — і морально, і практично. Українська армія тримається на ініціативі, децентралізації та довірі до командира на місці.

 

Гібрид як єдиний реалістичний шлях

Український вибір — це гібридна модель, яка поєднує:

  • швидкість і експериментальність (як у GAIN),
  • принципову роль людини в критичних рішеннях (як у SAFE),
  • реальне бойове тестування і масштабування (як у Китаю, але без його політичної моделі).

 

Ключова відмінність цього підходу — не “людина в циклі” як формальність, а людина як:

  • суб’єкт орієнтації,
  • носій відповідальності,
  • останній фільтр перед застосуванням сили.

 

Україна вже де-факто живе в цій моделі — через волонтерські розробки, фронтові лабораторії, дронові підрозділи та швидке навчання на помилках. Завдання держави — перетворити цю практику на усвідомлену рамку, а не втратити її під тиском чужих шаблонів.

 

Саме тут виникає потреба в окремій українській державній логіці роботи з MilTech і ШІ — рамці, яка не копіює чужі закони, а виходить із досвіду війни.

 

GRAIN: українська державна рамка для MilTech і ШІ під вогнем

 

Війна поставила Україну в унікальну позицію: ми одночасно є полем бою, лабораторією і інкубатором нових військових технологій. Але без державної рамки навіть найуспішніші фронтові інновації ризикують залишитися фрагментованими, випадковими або залежними від волонтерської інтуїції.

 

Саме тому Україні потрібна власна рамка роботи з MilTech і ШІ — не копія чужих законів і не запізніла регуляція, а система, народжена війною. Умовно назвемо її GRAIN.

 

Що таке GRAIN

GRAIN — це не закон і не відомчий наказ. Це державна логіка роботи з воєнними інноваціями, яка поєднує швидкість бойового застосування з відповідальністю командування.

 

У центрі GRAIN — простий принцип: експеримент дозволений, але відповідальність завжди людська.

 

Ключові елементи GRAIN

  1. Реальний бойовий контур як норма, а не виняток

Українські MilTech-рішення мають тестуватися не в “пісочницях” і не після багаторічної сертифікації, а в контрольованому бойовому середовищі. Держава має легалізувати цей режим як стандарт, а не як тимчасову імпровізацію.

 

Командир — центр ухвалення рішення

Жоден алгоритм не може замінити командирське судження. У рамках GRAIN ШІ:

  • пропонує,
  • підсвічує,
  • моделює,

але не визначає остаточну реальність.

Командир має доступ до нефільтрованих даних, альтернативних інтерпретацій і рівня невпевненості системи.

 

Контроль не кнопки, а орієнтації

GRAIN виходить із уроків Patriot і сучасної війни дронів:

ключовим є не момент пуску, а етап формування картини бою. Держава має встановити вимоги саме до того, як ШІ “пояснює” світ людині, а не лише до кінцевої дії.

 

Швидке масштабування успішних рішень

Те, що працює на фронті, має:

  • швидко переходити від підрозділу до системи,
  • отримувати виробничі контракти,
  • інтегруватися в навчання.

Без багаторічних “пілотів” і нескінченних погоджень.

 

Відповідальність і довіра замість імітації контролю

GRAIN не намагається сховатися за формальні процедури. Він визнає:

  • помилки неминучі,
  • але відповідальність має бути персональною і зрозумілою.

Це створює довіру між державою, військом і розробниками — критично важливу в умовах війни.

 

Чому GRAIN можливий саме в Україні

Жодна інша країна не має такого поєднання:

  • реального бойового досвіду,
  • децентралізованих інновацій,
  • мотивованих командирів і інженерів,
  • постійного тиску часу.

 

Те, що для США чи ЄС є предметом теоретичних дебатів, для України — щоденна практика виживання. GRAIN лише формалізує те, що вже працює, і захищає це від бюрократичного знищення після війни.

 

Перехід до практики

GRAIN — це рамка, яка дозволяє:

  • говорити з союзниками на рівних,
  • відкривати Україну для спільних програм MilTech,
  • і водночас не втрачати контроль над власною війною.

 

Але будь-яка рамка без рішень залишається декларацією. Саме тому наступний крок — чіткі дії держави, які можна зробити вже зараз, без “реформаторського туману”.

 

Що має зробити держава вже зараз: 5 рішень без «реформаторського туману»

 

Україна вже живе в реальності, де ШІ та MilTech визначають хід бойових дій. Питання не в тому, чи регулювати, а в тому, як не зупинити те, що рятує життя і дає перевагу. Тому державні рішення мають бути рамковими, чіткими й орієнтованими на війну — не на імітацію мирного управління.

 

Рамковий закон GRAIN на рівні Верховної Ради

Верховна Рада має ухвалити рамковий закон (або постанову концептуального рівня), який закріплює GRAIN як державну логіку роботи з MilTech і ШІ у воєнній та післявоєнній перспективі.

 

Це не технічний закон «про дрони» і не калька з AI Act. Це акт, який:

визнає війну базовим сценарієм застосування ШІ;

легалізує контрольоване бойове тестування;

фіксує центральну роль командира і персональної відповідальності;

задає принципи, а не деталізує алгоритми.

 

Такий закон дає стабільність і передбачуваність військовим, розробникам і партнерам — без бюрократичної задухи.

 

Офіційна готовність України приймати MilTech у рамці GRAIN

Держава має чітко і публічно зафіксувати:

Україна готова приймати іноземні зразки озброєнь і MilTech-рішення для прискореного тестування та впровадження в рамці GRAIN.

 

Ключові умови:

  • не «полігон», а керований бойовий контур;
  • український командир — центр рішення;
  • українська відповідальність і контроль;
  • швидкий зворотний зв’язок і масштабування того, що працює.

 

Це знімає страхи хаотичних експериментів і водночас відкриває Україні доступ до передових розробок без втрати суверенітету рішень.

 

Єдиний державний контур експериментів і масштабування

Потрібно створити єдину державну “трасу”:

  • від фронтового експерименту,
  • через оцінку і навчання,
  • до серійного виробництва і постачання.

 

Без паралельних відомчих «пісочниць» і конкуренції паперів. Те, що працює, має рухатися швидко і без бар’єрів.

 

Захист командира і розробника від паралічу відповідальності

Держава повинна чітко розмежувати:

  • бойову помилку,
  • технологічний збій,
  • службову недбалість.

 

Без цього командири боятимуться експериментувати, а інженери — пропонувати нові рішення. GRAIN працює лише там, де довіра важливіша за страх перевірок.

 

Інституційна підготовка парламенту і уряду

Верховна Рада, профільні комітети і урядові структури мають цілеспрямовано вивчати міжнародний досвід застосування ШІ у військовій і цивільній сферах — не для копіювання, а для свідомого вибору.

 

Без цього стратегічні рішення ухвалюватимуться на рівні гасел, а не рамок.

 

Підсумок

GRAIN — це не «український AI Act» і не компроміс між США, ЄС і Китаєм. Це відповідь воюючої держави на реальність, у якій швидкість вирішує бій, але відповідальність вирішує майбутнє.

 

Фінал: головне питання, від якого ухиляються — і яке Україна повинна сформулювати першою

 

Світова дискусія про штучний інтелект у війні сьогодні застрягла між двома крайнощами. З одного боку — страх перед автономією машин і прагнення все зарегулювати наперед. З іншого — спокуса швидкості, де алгоритм підміняє командирське судження в ім’я переваги в темпі.

 

І США, і ЄС, і Китай по-своєму уникають головного питання. Воно звучить не як технічна дилема і не як етичний абстрактний вибір. Воно значно простіше — і значно небезпечніше: Хто формує реальність для того, хто ухвалює рішення про застосування сили — людина чи алгоритм?

 

Саме це питання лежить в основі:

  • трагедій типу Patriot у 2003 році,
  • ілюзії human-in-the-loop,
  • спокус повної автономії в роях дронів,
  • і регуляторних моделей, що або душать інновацію, або знімають відповідальність.

 

Більшість держав можуть дозволити собі відкладати відповідь. Україна — ні.

 

Для нас це питання не академічне і не майбутнє. Воно щоденне і фронтове. Воно вимірюється не рейтингами і не інвестиціями, а життями, довірою і здатністю виграти війну.

 

Саме тому Україна має унікальний шанс, і унікальну відповідальність, сформулювати відповідь першою. Не у вигляді універсального рецепту для світу. А у вигляді державної рамки воюючої демократії, де:

  • ШІ стискає час,
  • але не стискає мислення;
  • алгоритм допомагає,
  • але не визначає реальність;
  • експеримент дозволений,
  • але відповідальність завжди людська.

 

GRAIN — це не про технології. Це про суверенітет рішення в епоху машин.

 

І якщо Україна зможе зберегти цей суверенітет під вогнем, саме наш досвід стане орієнтиром для тих, хто сьогодні лише теоретизує про війну майбутнього.

 

 

Ібрагім Габідулін,

військовий експерт,

фахівець з питань застосування Повітряних сил,

полковник у запасі

 

 

 

Джерела:

  1. Javaid Iqbal Sofi. How Washington Is Losing the AI Race No One Is Tracking. https://warontherocks.com/2025/11/how-washington-is-losing-the-ai-race-no-one-is-tracking/
  2. REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 13 June 2024. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32024R1689
  3. The White House Risks Squandering Its Own AI Leadership. https://warontherocks.com/2025/11/the-white-house-risks-squandering-its-own-ai-leadership/
  4. 3150 — GAIN AI Act of 2025. https://www.congress.gov/bill/119th-congress/senate-bill/3150/
  5. R.5885 — GAIN AI Act of 2025. https://www.congress.gov/bill/119th-congress/house-bill/5885
  6. John Boyd and Strategic Thinking. https://ronfurg.wordpress.com/2018/03/30/john-boyd-and-strategic-thinking/
  7. Majority Leader Schumer Delivers Remarks To Launch SAFE Innovation Framework For Artificial Intelligence At CSIS. https://www.democrats.senate.gov/news/press-releases/majority-leader-schumer-delivers-remarks-to-launch-safe-innovation-framework-for-artificial-intelligence-at-csis/
  8. Chuck Schumer Launches SAFE Innovation in the AI Age at CSIS. https://www.csis.org/analysis/sen-chuck-schumer-launches-safe-innovation-ai-age-csis/
  9. AI Regulation Battle Looms in California Despite Trump Threats. https://www.claimsjournal.com/news/national/2026/01/05/334892.htm
  10. Eli Talbert. The Triage Trap: When AI Speed Replaces Command Judgment. https://warontherocks.com/2026/01/the-triage-trap-when-ai-speed-replaces-command-judgment/
  11. The EU Artificial Intelligence Act. Up-to-date developments and analyses of the EU AI Act. https://artificialintelligenceact.eu/
  12. La Agencia lanza el Laboratorio de la AEPD, un espacio de colaboración, análisis y generación de conocimiento. https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/agencia-lanza-laboratorio-aepd/
  13. Military–civil fusion. https://en.wikipedia.org/w/index.php?title=Military%E2%80%93civil_fusion&/
  14. Colin H. Kahl. The Myth of the AI Race. Neither America Nor China Can Achieve True Tech Dominance. https://www.foreignaffairs.com/united-states/myth-ai-race/
  • Mitzi Perdue. Red Tape or Red Threat? https://www.realcleardefense.com/articles/2025/12/18/red_tape_or_red_threat_1154067.html/
Поделиться публикацией