Întrebarea nu mai este dacă un sistem AI poate genera strategii valide, ci dacă birocrația militară este pregătită să accepte un „Napoleon digital” la masa deciziilor. Datele brute ale experimentului sunt greu de ignorat pentru orice planificator de la Joint Chiefs of Staff (Statul Major Interarme al SUA).
Puși în fața unor scenarii complexe – de la atacuri aeriene coordonate la protejarea unor nave avariate în condiții de bruiaj electromagnetic – oamenii au generat variante de acțiune „acceptabile” în doar 48% din cazuri, după 19 minute de analiză, totul simulat în condiţii de criză majoră. În schimb, cel mai performant algoritm testat a livrat soluții cu o rată de validitate tactică de 97%, fiind cu 97% mai rapid decât omologii săi din carne și oase.
Marea dilemă strategică a momentului vizează însă „factorul uman”: în timp ce generalii se bazează pe ani de antrenament și experienţă, un sistem AI demonstrează că, în războiul modern, capacitatea de a procesa instantaneu un volum mare de date noi este mai valoroasă decât experiența acumulată în decenii de conflicte la care s-a participat fizic.
Eșecul relativ al participanților umani în cadrul DASH-3 nu a fost cauzat de lipsa de competență, ci de limitările biologice în fața stresului extrem. Colonelul John Ohlund, directorul grupului ABMS, a subliniat pentru publicaţia americană Breaking Defense, că experimentul a fost proiectat special pentru a scoate generali din zona de confort.
Mașina vs. Omul în teatrul de operații militare
În timp ce militarii s-au lăsat copleșiți de brief-uri tehnice de 20 de pagini și de termene limită imposibile, pierzând din vedere detalii esențiale despre probabilitățile de interceptare sau caracteristicile rachetelor, algoritmul a rămas imperturbabil. „Computerul nu uită niciodată”, a punctat Ohlund, evidențiind faptul că AI poate absorbi și aplica seturi masive de date fără ca „morala” sau oboseala să îi altereze judecata.
Totuși, Washingtonul nu este încă pregătit să înlocuiască „armata de generali” cu servere de calcul. Deși sistemele AI au dominat etapa de planificare, oficialii USAF insistă că tehnologia este, pentru moment, doar un instrument de asistență – un „punct de plecare solid”, după cum l-a descris un participant la acest experiment.
Viabilitatea sistemelor rămâne însă condiționată de un proces exhaustiv de normalizare și standardizare a datelor brute, o etapă de pre-procesare critică fără de care algoritmii nu pot livra rezultate tactice valide. În plus, capacitatea AI de a „fabula” în afara seturilor de date verificate rămâne o vulnerabilitate critică într-un scenariu de război real, unde o eroare de calcul poate duce la un dezastru nuclear sau la pierderi colaterale masive.
Pariul Pentagonului pentru 2026 este integrarea mai multor sisteme AI drept componente modulare în cadrul arhitecturii globale de comandă și control (CJADC2).
Sfârșitul războiului „după instinct”?
Pentru a nu alarma pe nimeni, trebuie precizat că nu asistăm la nașterea unui sistem Skynet din celebrul film SF Terminator care decide singur soarta lumii, ci la o schimbare de paradigmă în care generalul devine mai degrabă un „editor” al opțiunilor generate de un soft avansat cu AI.
Succesul acestei fuziuni va depinde de capacitatea armatei de a depăși rezistența culturală internă: va accepta un comandant de escadrilă să își schimbe planul de zbor pentru că un algoritm i-a demonstrat, în trei secunde, că intuiția sa de 20 de ani este greșită?
Răspunsul la această întrebare va decide cine va deține supremația pe câmpul de luptă în eventualitate unor conflicte militare viitoare de mare intensitate.