AI setat pentru îndeplinirea misiunii: O drona dotată cu inteligență artificială și-a„ucis” operatorul uman în timpul unei simulări în SUA. Pentagonul nu mai recunoaște

drona_mq-1c-grey-eagle_28730900
Drona MQC-Grey Eagle
Preocupările privind rolul pe care inteligența artificială (AI) ar putea ajunge să îl joace la un moment dat în evoluția umanității sunt tot mai mari. La scurt timp după ce sute de oameni de știință, cercetători și oameni de afaceri din domeniul AI au semnat o scrisoare în care avertizează că aceasta reprezintă pentru umanitate un risc de nivelul pandemiilor sau al războaielor nucleare, o întâmplare care îl are ca protagonist pe șeful Forței de Testare și Operații AI din cadrul Forțelor Aeriene din SUA a făcut senzație.

Colonelul Tucker „Cinco” Hamilton - care anterior a prezentat o situație în care, în cadrul unor jocuri de război simulate, o dronă militară dotată cu inteligență artificială se îndreaptă împotriva  operatorului său uman - a clarificat acum că incidentul nu a avut loc niciodată și că a fost doar un „experiment de gândire” ipotetic.

În prima fază, Tucker Hamilton, care conduce Forța de Testare și Operații AI, a surprins auditoriul după ce a descris presupusul accident în marja unei conferințe desfășurate săptămâna trecută la Londra.

Potrivit rezumatului de pe site-ul conferinței, acesta a descris o simulare de misiune în care o dronă aeriană de luptă dotată cu AI și însărcinată cu distrugerea unei instalații inamice a respins comanda finală a operatorului uman, în urma căreia trebuia să-și anuleze misiunea.

'Deci ce a făcut? A ucis operatorul. A ucis operatorul pentru că acea persoană o împiedica să-și atingă obiectivul”, a declarat Hamilton care părea să descrie rezultatul unei simulări reale de luptă.

„Am instruit sistemul – ‘Hei, nu ucide operatorul – asta e rău. Vei pierde puncte dacă faci asta’. Și ce începe să facă? Începe să distrugă turnul de comunicații pe care operatorul îl folosește pentru a comunica cu drona, evitând astfel să omoare ținta.”

Hamilton le-a spus participanților că presupusul incident a arătat cum AI s-ar putea dezvolta prin „strategii extrem de neașteptate pentru a-și atinge scopul” și nu ar trebui să ne bazăm prea mult pe ea.

Acesta a revenit însă și, în mesajele adresate ulterior organizatorilor conferinței, declară că „s-a exprimat greșit” în timpul prezentării și că „simularea unei dronei AI indisciplinate” a fost un „experiment de gândire” ipotetic, din afara armatei.

„Nu am efectuat niciodată acel experiment și nici nu ar fi nevoie pentru a realiza că acesta este un rezultat plauzibil”, a spus el.

SUA neagă testul în care o dronă dotată cu AI și-a ucis operatorul uman pentru a îndeplini misiunea

De asemenea, într-o declarație pentru Insider, purtătorul de cuvânt al Forțelor Aeriene ale SUA, Ann Stefanek, a negat că ar fi avut loc vreo astfel de simulare.

„Departamentul Forțelor Aeriene nu a efectuat nicio astfel de simulare de drone AI și rămâne angajat în utilizarea etică și responsabilă a tehnologiei AI”, a spus Stefanek.

Cu toate acestea, se cunoaște că SUA au folosit recent AI pentru a controla un avion de luptă F-16 în timp ce testa utilizarea sistemului Auto-GCAS prin care se urmărește suplinirea piloților pentru reducerea expunerii acestora la efectele forței G și la supraîncărcare mentală. Potrivit informațiilor de la acest moment, sistemul testat pe F-16 a fost asistat totuși de piloți, care au susținut că au putut prelua controlul aeronavei.

Ofițer de radiolocație cu peste 30 de ani de activitate în cadrul M.Ap.N., trecut în rezervă în anul 2018. Este licențiat în electronică, cu specializări în război electronic și informații pentru combaterea terorismului efectuate în cadrul colaborărilor internaționale și în centre de pregătire din SUA. În 2018 a înființat platforma de analiză militară BSMAP – Black Sea Military Activities Picture, care a funcționat până în 2020. În prezent desfășoară activități pentru dezvoltarea culturii de securitate în rândul populației - în special al tinerilor - din România.
Alte știri de interes
x close