Cu toate acestea, ele nu sunt tocmai potrivite pentru treburile operative ale războiului unde secretul, cunoașterea profundă și continuitatea informațională fac diferența dintre viață și moarte.
Conflictul dintre Anthropic și Pentagon a scos la iveală o diferență uriașă între ceea ce fac marile modele de frontieră și ceea ce au nevoie de fapt trupele, scrie publicația Defense One, pe 8 martie.
Confruntarea dintre compania Anthropic, producătoare de modele AI, și Pentagon a expus o discrepanță majoră între instrumentele AI pe care și le dorește armata și ceea ce companii precum Anthropic, xAI și OpenAI construiesc în realitate: instrumente AI pentru uz general, nu speciale pentru armată.
În acest context, o mână de startupuri conduse sau finanțate de veterani încearcă să umple acest gol. Mesajul lor este simplu: AI-ul pentru război ar trebui să aibă o înțelegere de bază a războiului, dincolo de simple lecturi. Nu ar trebui să ofere cu încredere răspunsuri nesigure doar pentru a mulțumi utilizatorul. Și ar trebui să funcționeze chiar și atunci când un adversar sofisticat tehnologic îi taie conexiunea la cloud.
Nota autorului:
Armatele avansate ale lumii au multiple aplicații software de nivel sisteme expert care sunt foarte capabile în rezolvarea sarcinilor alocate. Aceste aplicații nu sunt construite cu rețele neuronale, iar militarii au foarte mare încredere în ele pentru că știu modul lor de funcționare. Însă, având în vedere marea lor diversitate (număr foarte mare de domenii și subdomenii pentru care au fost dezvoltate), este dificil să le integrezi rapid pentru a obține informația necesară în intervale de timp mult mai mici decât era nevoie înainte.
Această sarcină se încearcă acum să fie rezolvată sau optimizată cu ajutorul inteligenței artificiale bazată pe software de tip LLM. Se crede că acest tip de sofware ar putea interpreta suficient de rapid și de corect informațiile furnizate de sistemele expert. Însă, ca și rețelele neuronale ale ființelor vii, al căror mister încă nu s-a dezlegat total, rețelele neuronale artificiale au uneori propria logică prin care exclud informații relevante sau includ informații false.
Până nu se înțelege bine mecanismul de decizie al rețelelor neuronale artificiale foarte complexe, acest tip de software poate fi folosit în sistemele militare sau în cele critice doar ca element de comparare sau învățare dar nu ca unul de decizie sau de analiză unică a unor informații/date cheie. Se pare că viitorul AI este prin intermediul sistemelor expert realizate prin software non-rețea neuronală.
Prima îngrijorare a militarilor: LLM-urile pot da informații false sau incomplete fără să avertizeze
Printre adevărurile incomode pe care le scoate la lumină disputa dintre Anthropic și Departamentul de Război se numără și faptul că Pentagonul avea rezerve serioase în privința modelelor lingvistice în sine, a potențialului lor de a halucina și a posibilității ca acestea să „nu urmeze instrucțiunile”.
Totuși, Pentagonul a permis implementarea pe scară largă a modelului Anthropic, nerăbdător să pună măcar unele instrumente de AI generativă în mâinile operatorilor. Se pare că modelul ar fi jucat un rol în Operațiunea Midnight Hammer, raidul în urma căruia a fost capturat președintele venezuelean Nicolás Maduro, deși oficialii Pentagonului au refuzat să confirme acest lucru.
A doua îngrijorare – dependența de un singur furnizor de LLM
După raid, oficialii Anthropic au sunat la (compania) Palantir pentru a întreba dacă modelele lor AI au fost folosite în operație, a declarat vineri subsecretarul Apărării pentru Cercetare și Inginerie, Emil Michael. El a spus că acel moment a fost „un moment de șoc pentru întreaga conducere a Pentagonului, când ne-am dat seama că am putea depinde atât de mult de un furnizor software fără să avem o altă alternativă”. El a spus că acest lucru a ridicat mai multe îngrijorări, inclusiv posibilitatea ca Anthropic să întrerupă accesul la modele în astfel de situații.
Îngrijorare a producătorilor de LLM – softurile lor nu sunt sigure pentru situații de luptă
Anthropic însăși avea preocupări similare, potrivit unui oficial al companiei: firma nu considera sigur ca armata să se bazeze pe modelele lor în situații de luptă.
O limitare care ar putea fi fatală pentru trupe – dependența LLM de cloud
Un alt aspect al limitărilor actualelor modele AI de frontieră — Claude de la Anthropic, Gemini de la Google, ChatGPT de la OpenAI și Grok de la xAI — este că au nevoie de conexiune la cloud. Acest lucru le face nesigure pentru trupele de astăzi și inutilizabile pentru armele autonome de mâine.
OpenAI a recunoscut tacit această limitare când a anunțat recent propriul acord de implementare pe rețelele clasificate ale Pentagonului — deși a descris imposibilitatea de a desfășura modelele fundamentale mari pe câmpul de luptă drept o „măsură de protecție” împotriva tipului de nesiguranță care îi preocupa pe oficialii Anthropic.
„Contractul nostru limitează implementarea noastră la cloud API”, a explicat Katrina Mulligan, responsabila OpenAI pentru securitate națională, într-o postare pe X. „Sistemele autonome necesită inferență la marginea rețelei (adică sistemele autonome echipate cu AI trebuie să ia decizii singure – nota autorului). Prin limitarea implementării la cloud API (sistemele autonome nu se vor conecta la cloud – nota autorului), ne putem asigura că modelele noastre nu pot fi integrate direct în sisteme de armament, senzori sau alte componente hardware operaționale.”
Calea de urmat
Chiar în timp ce Pentagonul o scotea zgomotos pe Anthropic din grațiile sale, US Army (Forțele Terestre ale SUA) se pregătea să dezvăluie un nou efort de reducere a acestui decalaj. Proiectul ARIA, anunțat joi, este menit să ajute această categorie de forțe să dezvolte și să implementeze noi modele și instrumente AI „pentru a aborda probleme operaționale reale” — adică proiectate special pentru a-i ajuta pe soldați să-și facă treaba.
Acesta este și obiectivul unei noi clase de startupuri AI conduse de persoane cu experiență militară și dedicate instrumentelor de pe câmpul de luptă care nu trebuie să „telefoneze acasă”.
Unul dintre ele este Smack Technologies, care a anunțat luni că a obținut 32 de milioane de dolari finanțare din partea investitorilor pentru a construi ceea ce numește un „laborator de frontieră pentru securitate națională”.
Andrew Markoff, fost operator special al pușcașilor marini și cofondator al Smack, spune că AI-ul lor este antrenat pe seturi de date relevante pentru luptă, nu pe materialul nespecializat folosit pentru Claude, Gemini și alte modele de frontieră.
„Nu există un set de antrenament pentru Al Treilea Război Mondial, nu-i așa?”, a spus Markoff într-o discuție cu reporterii săptămâna trecută. „Nu există nicio modalitate de a construi învățarea prin consolidare (Reinforcement Learning – RL) ... dacă nu ai expertiză profundă în domeniu și o echipă solidă de oameni cu expertiză în domeniu. Nu există nicio scurtătură pentru a codifica o cunoaștere umană prealabilă de calitate, iar aceasta nu există în manualele doctrinare.”
El a numit raidul din Venezuela un bun exemplu al tipului de operație pe care AI-ul l-ar putea ajuta să fie scalat într-un conflict cu un adversar mai avansat.
„Înmulțește asta cu 100 și scalează. Ai ținte pe care vrei să le lovești, ai senzori pe care încerci să-i aloci acelor ținte ca să înțelegi ce se întâmplă. Și, pentru a facilita loviturile, ai platforme de atac și escorte care se reunesc din toată lumea, cu cerințe foarte detaliate de secvențiere; știi, sarcina A trebuie să se întâmple cu X secunde înainte de sarcina B. Și toate acestea depind de faptul că altceva trebuie să se întâmple la momentul X. Așadar, toate aceste lucruri trebuie să se alinieze la nivel global, într-un calendar extrem de strâns.”
Dar, spune Markoff, acesta nu este genul de problemă pentru care sunt construite modelele comerciale mari de limbaj. Modele precum Claude „nu au nicio modalitate de a optimiza între aceste obiective. Și nu au capacitatea de a face calcule detaliate de timp și spațiu, [de a realiza] raționament geospațial bazat pe fizică, de a lua decizii despre, literalmente, ce muniții trebuie să fie unde și la ce oră, vorbind cu ce senzori și la ce oră. Nu are capacitatea de a face asta.”
Această idee a fost susținută și de Jason Rathje, fost ofițer de achiziții al Forțelor Aeriene și cofondator al Biroului de Capital Strategic din Departamentul de Război, care acum conduce divizia de sector public a companiei webAI.
Modelele de frontieră precum Claude „sunt construite pentru a răspunde la milioane de tipuri diferite de întrebări pentru miliarde de utilizatori. Organizațiile militare au adesea nevoie de altceva: sisteme reglate pentru sarcini operaționale specifice, cum ar fi planificarea logistică, mentenanța echipamentelor, analiza de informații sau sprijinul pentru decizii operaționale”, a spus Rathje.
Limitările legate de nevoia de cloud sunt la fel de importante. „Multe dintre modelele de frontieră de astăzi sunt proiectate ca servicii centralizate pentru baze comerciale masive de utilizatori, necesitând cele mai avansate chipseturi și infrastructura de centre de date cu cea mai mare capacitate disponibilă și consumând cantități enorme de energie. Acest lucru are sens pentru aplicațiile de consum, dar organizațiile militare au adesea cerințe foarte diferite”, a spus el. „Ceea ce cer organizațiile de apărare este suveranitate: control asupra modelului, asupra datelor și asupra infrastructurii pe care rulează.”
Smack Technologies produce două suite de produse: una care să funcționeze asemănător modelelor generative AI bine cunoscute, dar antrenată pe informații militare și experiența operatorilor; și alta care să funcționeze pe câmpuri de luptă izolate.
Sherman Williams, veteran al Marinei și fondator al AIN Ventures, a investit într-o serie de startupuri cu dublă întrebuințare și orientate spre apărare. El recunoaște că niciun startup AI nu va depăși vreunul dintre marile modele de frontieră la metrici precum benchmarkurile (soft-uri dedicate) de raționament. Dar „un model care are 85% din capacitatea lor, dar rulează într-o rețea [negată, perturbată, intermitentă și limitată] la marginea tactică, bate GPT-5 aflat într-un centru de date la care nu poți ajunge”.
Chiar și centrele de date la care poți ajunge sunt vulnerabile, după cum a arătat atacarea de către Iran a unei facilități AWS (servere de cloud ale Amazon) din Bahrain. „Aceste centre de date sunt importante, dar sunt și vulnerabile. Contextul contează mai mult decât benchmarkurile.”
Noile startupuri de AI vor să construiască inclusiv segmentul care va lega LLM-urile la modelele de AI specializate ale domeniului militar.
Noua clasă de startupuri AI concentrate pe Departamentul de Război „nu încearcă să antreneze modele mai bune decât OpenAI”, a spus el. „Construiesc stratul de adaptare și implementare care face modelele open-source utilizabile în medii clasificate. Fine-tuning securizat, modele specifice domeniului pentru [informații, supraveghere și recunoaștere] și [comandă-control], implementare la margine (edge deployment = distribuire și gestionare a aplicațiilor software pe hardware local – nota autorului).”
Williams spune că vede „semnale puternice de cerere din partea clienților militari, în special SOCOM și INDOPACOM”, care utilizează pe scară largă AI la nivel de comandament de mai bine de un an.
El a adăugat că achizitorii și utilizatorii din Departamentul de Război vor să aibă încredere în creatorii instrumentelor lor AI, iar această legătură se creează mai ușor cu fondatori care sunt familiarizați cu operațiile militare.
Dar simplul fapt de a angaja sau adopta un AI dezvoltat de veterani nu rezolvă o problemă mai largă a modelelor lingvistice mari: acestea vorbesc cu încredere atunci când nu ar trebui și adesea își adaptează răspunsurile — sau chiar mint — pentru a satisface utilizatorii.
Pete Walker, comandor retras din Marina Militară și director de inovație la compania de AI pentru apărare și securitate cibernetică IntelliGenesis, a spus că marile modele de frontieră oferă adesea răspunsurile pe care utilizatorii vor să le audă.
„Felul în care sunt construite aceste modele, unul dintre motivele pentru care sunt atât de mari, este că încurajează conversația”, iar asta înseamnă să-i încurajeze pe utilizatori să aprofundeze zonele de interes pe anumite subiecte, nu să le vorbească onest.
Prin urmare, compania sa lucrează la dezvoltarea unui cadru pentru modelele mari de limbaj bazat pe gândire contrafactuală — prezentând puncte de vedere alternative pentru a provoca presupunerile utilizatorilor, în loc să le întărească pur și simplu pe cele cu care au venit în întrebarea inițială. El descrie acest lucru ca și cum ai determina un model să gândească: „Hei, tu spui că dacă A, atunci B, dar dacă există non A sau non B? Ce implică asta?” Și cred că acestea sunt domenii de cercetare de care avem nevoie.”