Поки ми звикаємо до штучного інтелекту як до зручного помічника для текстів, коду, презентацій і пошуку відповідей, він тихо переходить в інший контур — військовий. Все це є вже не теоретична дискусія про майбутнє. Пентагон укладає угоди з найбільшими технологічними компаніями, щоб інтегрувати їхні ШІ-системи у секретні оборонні мережі США.
У списку фігурують NVIDIA, Microsoft, Amazon Web Services, OpenAI, Google, SpaceX, Reflection AI, а в офіційних оновленнях також Oracle. Формулювання звучить незрозумілим : “законне операційне використання”. Але за ним стоїть не офісна автоматизація. Йдеться про системи, які можуть працювати з розвідданими, логістикою, плануванням операцій, аналізом ситуації на полі бою і, потенційно, з контуром цілевказання.
Тобто ШІ, який ще вчора відповідав на наші побутові запитання, тепер стає частиною військової інфраструктури.
Реальність значно прозаїчніша й тому небезпечніша. Військовий ШІ — це не один робот із кулеметом. Це цілий шар технологій: машинний зір, аналіз супутникових знімків, розпізнавання об’єктів, обробка радіоперемовин, кіберзахист, OSINT, логістичне планування, автономна навігація, моделювання бою, виявлення фейків, а також створення фейків.
Він може не стріляти сам. Але він може бачити швидше за людину. Сортувати швидше. Ранжувати загрози. Підказувати, що важливіше. Показувати оператору “ймовірну ціль”. Пропонувати маршрут. Визначати, який об’єкт має вищий пріоритет. І в якийсь момент людина ніби залишається в контурі рішення, але вже працює всередині картини, яку для неї зібрала машина.
Коли вона ранжує цілі, вона вже формує пріоритети. Коли вона видає “оптимальний сценарій”, вона непомітно відсуває інші варіанти. На війні швидкість часто перемагає сумнів. А іноді саме сумнів — останнє, що відділяє рішення від помилки.
Ось чому історія з Anthropic така показова. Компанія, яка створила Claude, відмовилася знімати власні обмеження на використання моделей у двох сферах: автономна зброя та масове внутрішнє стеження. Після цього вона опинилася поза новим колом угод із Пентагоном, а її контракт на суму до 200 мільйонів доларів фактично був зірваний упродовж кількох місяців.
Це далеко не корпоративний конфлікт, а цілком перша велика тріщина у питанні: хто встановлює межі для військового ШІ?
Держава каже: нам потрібні всі законні інструменти для безпеки. Компанія каже: не кожне законне застосування є прийнятним. Ринок каже: якщо одна компанія не погодиться, знайдеться інша. А суспільство, як завжди, дізнається про це тоді, коли інфраструктура вже майже зібрана.
Пентагон діє логічно з погляду військової системи. Він не хоче залежати від одного постачальника. Якщо Anthropic ставить жорсткі обмеження, можна працювати з OpenAI, Google, Microsoft, AWS, NVIDIA та іншими. З позиції державної безпеки це раціонально. З позиції етики — тривожно. Бо моральна межа однієї компанії перетворюється на технічну незручність, яку можна обійти через конкуренцію.
Військовий ШІ справді може рятувати життя. Особливо для України це не абстрактна тема. Машинний зір на дронах, аналіз відео, виявлення техніки, розшифрування сигналів, кіберзахист, робота з відкритими джерелами, автоматизація штабної рутини — усе це може давати перевагу і зменшувати людські втрати. Для країни, яка воює проти агресора, технології — не іграшка, а спосіб виживання.
Є ШІ, який допомагає знайти міну. Є ШІ, який бачить ворожу техніку на супутниковому знімку. Є ШІ, який допомагає захистити мережу від атаки. Вже є ШІ, який розвантажує офіцерів від рутини, щоб вони займалися стратегією. Це одна площина.
І є інша: ШІ, який автоматизує стеження за населенням, генерує переконливі фейки, моделює поведінку груп, підказує цілі, оптимізує удар і поступово перетворює людину на формального підтверджувача машинної рекомендації.
Межа між цими двома площинами проходить не в самій технології, а з НАМІРУ! Вона проходить у контракті, сценарії використання, доступі, контролі й відповідальності.
Одна й та сама модель може бути інструментом оборони або частиною системи тиску. Один і той самий алгоритм розпізнавання може допомогти знайти ворожий дрон або стати елементом масового спостереження. Одна й та сама генеративна система може викривати дезінформацію або створювати її в промисловому масштабі.
Тому фраза “штучний інтелект, який відповідав на ваші запитання, тепер може обирати військові цілі” звучить різко, але вона не порожня. Технічно точніше сказати: він може допомагати аналізувати, класифікувати, ранжувати й рекомендувати цілі. Але в реальній війні різниця між “рекомендує” і “обирає” може швидко стиратися, якщо людина починає довіряти системі більше, ніж власній перевірці.
Anthropic у цій історії не потрібно ідеалізувати. У великому технологічному бізнесі немає святих. Але її позиція стала маркером: навіть у гонці за оборонними контрактами можна сказати “ні” автономній зброї та масовому стеженню. Реакція Пентагону показала інше: якщо один постачальник ставить межі, система знайде тих, хто готовий працювати ширше.
Цивільна ШІ-індустрія починає входити в архітектуру війни. Чипи, хмари, мовні моделі, машинний зір, автономні системи, OSINT, кібербезпека, генеративний вплив — усе це складається в новий військовий стек. У війні майбутнього перевагу матиме не лише той, у кого більше ракет, а той, хто швидше бачить, швидше аналізує і швидше перетворює дані на дію.
Питання вже не в тому, чи буде ШІ у війні. Він уже там.
Питання в тому, чи залишиться людина в цьому процесі реальним носієм відповідальності, а не просто останнім кліком перед рішенням, яке за неї вже підготувала машина. А у завтрашній день взагалі ми можемо увійти і без необхідності ШІ щось погоджувати з людиною… бо вже Mythos показав наскільки він може бути небезпечним і самодостатнім.



















