
AI poate accelera războiul, dar arhitectura de securitate trebuie să accelereze și să se aprofundeze în același ritm, construind o nouă generație de capacități. În caz contrar, fragilitatea stabilității strategice va crește în cadrul ciclurilor de decizie de milisecunde ale tehnologiei de război de ultimă generație propulsată de inteligența artificială, arată, într-o analiză, experți citați de Anadolu.
În perioada 4-5 februarie, la A Coruna, Spania, a avut loc summitul REAIM 2026 (Responsible AI in the Military Domain), axat pe utilizarea responsabilă a inteligenței artificiale în domeniul militar. După summiturile anterioare de la Haga în 2023 și Seul în 2024, summitul REAIM din acest an a beneficiat de participarea a 85 de țări.
După summit, a fost pregătită o declarație cuprinzând 20 de principii cheie. 35 dintre țările participante au semnat declarația, în timp ce China și SUA nu au făcut acest lucru, arată agenția de știri turcă.
Principiile asumate în declarația menționată anterior includeau menținerea responsabilității umane pentru armele bazate pe AI, stabilirea unor lanțuri clare de comandă și control și schimbul de informații privind mecanismele naționale de supraveghere. De asemenea, s-a pus accentul pe evaluarea riscurilor, procesele de testare cuprinzătoare și instruirea personalului militar.
La summiturile REAIM anterioare, numeroase țări, conduse de SUA, au adoptat un cadru de principii mai flexibil. Anul acesta, însă, faptul că două țări lider în domeniul tehnologiei AI, SUA și China, nu au semnat declarația și că numărul țărilor care au ratificat-o a fost limitat, a demonstrat cât de limitată este producerea și partajarea unui set de norme și principii acceptate la nivel internațional, arată sursa citată.
În sistemul internațional nu s-a stabilit încă un minim comun în ceea ce privește inteligența artificială. Pe lângă transformarea profundă declanșată de tehnologiile AI pe câmpul de luptă, această situație poate fi considerată și o amenințare la adresa securității.
Inteligența artificială militară în contextul amenințărilor la adresa securității
Utilizarea AI în domeniul militar acoperă o gamă largă de domenii, de la comandă și control și sprijin în luarea deciziilor până la războiul electronic și cibernetic, apărarea antirachetă și vehiculele aeriene, terestre și navale fără pilot.
În scenarii care depășesc capacitatea cognitivă umană sau necesită analiza rapidă a seturilor de date mari și complexe, AI funcționează ca un element-cheie. Progresele tehnologice plasează deja aproape toate nevoile câmpului de luptă modern în această categorie. Cu alte cuvinte, AI duce războiul într-o dimensiune care depășește percepția și reacția umană. În acest nou tip de război, definit în literatura de specialitate ca „hiper-război”, ciclul de luare a deciziilor și de execuție poate fi finalizat în câteva milisecunde.
În acest moment, devine necesar să se ia în considerare controlul uman dintr-o perspectivă mult mai largă decât simplul „deget care apasă pe trăgaci”.
Primul pas în această direcție ar fi proiectarea controlului uman ca o componentă semnificativă și eficientă în toate etapele procesului de utilizare a AI. O astfel de structură ar asigura că responsabilitatea etică și juridică pentru utilizarea inteligenței artificiale rămâne în întregime sub controlul și competența umană. Următorul pas ar fi dezvoltarea de filtre și bariere pentru a împiedica sistemele și procesele gestionate direct sau indirect de AI să se „alimenteze negativ” reciproc, cu alte cuvinte, să interacționeze și să escaladeze conflictul. O astfel de structură de filtrare pe mai multe niveluri ar putea preveni alarmele false, „halucinațiile AI” sau angajamentele nedorite.

Un alt aspect crucial al gestionării riscurilor de securitate internă în inteligența artificială militară este securitatea și integritatea algoritmilor și a seturilor de date pe care le alimentează. Prevenirea contaminării seturilor de date, identificarea condițiilor și momentelor în care algoritmii AI nu pot lua decizii complet autonome, precum și certificarea și monitorizarea algoritmilor și a hardware-ului pe care rulează sunt măsuri importante în acest context.
Cu toate acestea, este important să subliniem că lipsa unui consens minim la nivel global în ceea ce privește AI militară face imposibilă adoptarea de măsuri structurale etice, juridice și normative în acest domeniu, cel puțin pe termen scurt. Deficitul strategic internațional de încredere existent este agravat și mai mult de atractivitatea oportunităților și capacităților oferite de inteligența artificială militară: preocupările exprimate din când în când de diverse grupuri de lobby și state sub titluri precum drepturile omului, confidențialitatea și protecția datelor cu caracter personal devin slabe în fața eficacității crescânde a inteligenței artificiale în operațiunile militare.
Pe de altă parte, însă, putem observa că aceste opinii (n.r. adesea prin intermediul grupurilor și entităților care le susțin) sunt utilizate ca pârghie politică. Nu numai AI în sine, ci și utilizarea sau accesul la capacitățile AI au devenit subiect de dezbatere și negociere la nivel politic, arată Anadolu, care îl citează pe expertul în domeniul apărării, Arda Mevlutoglu.
Reglementarea inteligenței artificiale: limitări și cerințe
În acest moment, este necesar să ne întrebăm cum putem determina dacă un software sau un algoritm AI este sigur sau „uman”. Se propune ca pentru inteligența artificială militară să se înființeze o structură similară cu Agenția Internațională pentru Energie Atomică (AIEA), care supraveghează instalațiile nucleare. Cu toate acestea, trebuie remarcat faptul că codurile care alcătuiesc algoritmul nu lasă urme ca elementele radioactive; urmărirea sursei codului este mult mai dificilă decât supravegherea înființării și funcționării unei instalații nucleare.
Ca soluție, ar putea fi înființate „camere de control algoritmic” în care țările ar testa și verifica sistemele de inteligență artificială fără a dezvălui arhitectura lor fundamentală și componentele confidențiale. Certificarea rezultată din testele efectuate în aceste medii de simulare ar putea stabili un standard atât în domeniul comercial, cât și în cel militar. Cu toate acestea, instituirea și punerea în aplicare a unui astfel de mecanism de testare, verificare și certificare necesită un grad semnificativ de consens și acord internațional.
Prin urmare, este important să subliniem că problema principală nu este dacă AI va fi utilizată pe câmpul de luptă, ci cum, de către cine și în ce limite va fi utilizată. Deși nesemnarea declarației REAIM 2026 nu înseamnă în sine declararea „anarhiei”, aceasta arată în mod clar că elaborarea de norme în domeniul inteligenței artificiale militare nu poate fi considerată independent de competiția dintre marile puteri.

Dacă liderii tehnologici precum SUA și China nu participă la discuții, eforturile de creare a unui cadru etic global vor rămâne inevitabil limitate. Cu toate acestea, această situație nu necesită amânarea procesului de elaborare a normelor, ci mai degrabă adoptarea unei abordări mai realiste și mai multifațetate.
Pe termen scurt, instituirea unui regim universal și obligatoriu pare dificilă. Cu toate acestea, pe termen mediu, ar putea fi posibile măsuri de sporire a transparenței, mecanisme de dialog tehnic care să consolideze încrederea reciprocă și acorduri restrânse, dar concrete, în domenii limitate (n.r. cum ar fi pragurile pentru utilizarea sistemelor letale complet autonome).
La nivel național, instituționalizarea unor măsuri precum supravegherea umană semnificativă, securitatea algoritmică, integritatea datelor și mecanismele de filtrare pe mai multe niveluri este o necesitate urgentă. Acest lucru se datorează faptului că o parte semnificativă a riscurilor generate de inteligența artificială militară nu provine din utilizarea intenționată în mod abuziv, ci din defecte de proiectare, date inexacte, interacțiuni imprevizibile și presiunea pentru viteză.
Citește și:
Inteligența artificială poate accelera războiul; cu toate acestea, arhitectura de securitate trebuie, de asemenea, să accelereze și să se aprofundeze în același ritm, construind o nouă generație de capacități. În caz contrar, fragilitatea stabilității strategice va crește în cadrul ciclurilor de decizie de milisecunde ale hiper-războiului.
Adevărata provocare în domeniul inteligenței artificiale militare este menținerea responsabilității umane și a înțelepciunii politice, păstrând în același timp superioritatea tehnologică. Normele pot rămâne în urmă, dar responsabilitatea finală a umanității nu poate fi amânată. Prin urmare, fiecare măsură tehnică, juridică și etică luată astăzi va modela nu numai natura războiului, ci și viitorul ordinii internaționale.
Editor : C.A.

