Американські військові командири використовують для ухвалення рішень ШІ

Фото: U.S. Army Photo

Керівники армії США активно долучаються до використання генеративного штучного інтелекту не лише у бойових цілях, а й у щоденній роботі. Як повідомляє Business Insider, командувач 8-ї армії США в Південній Кореї генерал-майор Вільям «Генк» Тейлор розповів, що використовує чат-боти на основі ШІ, щоб покращити процес ухвалення рішень.

«Ми з Chat стали дуже близькими останнім часом», — пожартував він під час конференції Асоціації армії США у Вашингтоні.

Тейлор зазначив, що експериментує з моделями, які можуть допомагати офіцерам у командуванні та плануванні. За його словами, технологія допомагає досліджувати, як саме він приймає військові та особисті рішення, що впливають на тисячі підлеглих.

«Як командир, я хочу ухвалювати кращі рішення. Я хочу робити це вчасно, щоб мати перевагу», — сказав Тейлор, додавши, що головний виклик полягає у швидкому розвитку технологій, за яким складно встигати.

Американські військові розглядають використання ШІ крізь призму концепції OODA Loop — моделі ухвалення рішень, розробленої під час Корейської війни. Вона передбачає, що перевагу на полі бою здобуває той, хто швидше проходить чотири етапи — спостерігати, орієнтуватися, вирішувати та діяти.

У Пентагоні визнали, що в майбутніх конфліктах рішення можуть ухвалюватися швидше, ніж це здатна робити людина. Колишній міністр ВПС США заявив, що перемагає на полі бою той, хто діє «на швидкості машин».

ШІ вже інтегрують у системи дронів, наведення, аналіз даних і логістику. Алгоритм навіть пілотував модифікований винищувач F-16 у симуляції повітряного бою. Водночас технологію застосовують і для «бек-офісних» завдань — підготовки звітів, управління постачанням, аналізу доктрин Пентагону та прискорення адаптації військових на нових посадах.

Експерти Пентагону наголошують, що ШІ може суттєво підвищити здатність Об’єднаного комітету начальників штабів аналізувати глобальні операції та ухвалювати швидші й точніші рішення.

Водночас Міністерство оборони США закликає до обережності: генеративні моделі можуть ненавмисно розкрити конфіденційні дані або видати помилкові результати, що створює ризики при використанні їх у процесі прийняття важливих командних рішень.

Copy
Share X