Inteligența artificială schimbă războiul: Cum folosește armata SUA tehnologia AI în operațiuni militare

0
2
inteligenta-artificiala-schimba-razboiul:-cum-foloseste-armata-sua-tehnologia-ai-in-operatiuni-militare
Inteligența artificială schimbă războiul: Cum folosește armata SUA tehnologia AI în operațiuni militare

Relatările din presă potrivit cărora armata Statelor Unite a folosit chatbotul de inteligență artificială Claude în operațiuni care au vizat lideri din Venezuela și Iran ridică întrebări despre ritmul în care tehnologia este integrată în planificarea militară. Experții avertizează că utilizarea unor astfel de sisteme în contexte cu miză ridicată rămâne controversată, în condițiile în care modelele AI pot genera rezultate eronate sau nesigure.

Presa americană a relatat că Claude a fost utilizat pentru a ajuta la desfășurarea unei operațiuni din ianuarie care a dus la capturarea liderului Venezuelei, Nicolás Maduro. Ulterior, au apărut informații similare potrivit cărora chatbotul ar fi fost folosit și în pregătirea unei operațiuni care îl viza pe fostul lider suprem al Iranului, ayatollahul Ali Khamenei.

„A fost foarte surprinzător să vedem desfășurarea bruscă a acestor instrumente, mai ales în condițiile în care specialiștii din domeniu consideră că ele nu sunt încă pregătite pentru o astfel de utilizare”, a declarat Heidy Khlaaf, cercetător-șef în domeniul AI la think tankul american AI Now Institute.

„Ne întrebăm dacă aceste modele de inteligență artificială pot avea cu adevărat succes în orice context militar, având în vedere cât de imperfecte sunt”, a spus ea pentru Euronews.

Khlaaf a adăugat că cercetătorii au avertizat în repetate rânduri că modelele lingvistice de mari dimensiuni pot produce rezultate nesigure sau incorecte, ceea ce ridică îngrijorări privind performanța lor în medii cu miză foarte mare, precum operațiunile militare.

Utilizarea modelului Claude vine și în contextul în care administrația Trump promovează o strategie ambițioasă de transformare a armatei SUA într-o structură „AI pe primul loc”, argumentând că adoptarea rapidă a tehnologiei este necesară pentru a concura cu rivali precum China.

Cursa înarmării cu AI

Statele Unite folosesc diverse forme de tehnologie automatizată în armată încă din anii 2010, iar domeniul a fost o prioritate pentru mai mulți președinți, inclusiv pentru Barack Obama și Joe Biden, au declarat experții consultați de Euronews. Primele modele de AI au fost utilizate pentru logistică, mentenanță sau traduceri, potrivit lui Elke Schwarz, profesor de teorie politică la Queen Mary University of London.

Al doilea mandat al lui Trump accelerează însă adoptarea modelelor generative de inteligență artificială, precum ChatGPT al OpenAI sau Claude al Anthropic, într-o „cursă a înarmării cu AI” împotriva adversarilor SUA, spun Schwarz și Khlaaf.

Politicile americane transmit un „sentiment de urgență” în dezvoltarea AI, deoarece este o „tehnologie foarte valoroasă” care ar putea menține SUA în fața rivalilor, afirmă Giorgos Verdi, expert în politici publice la European Council on Foreign Relations.

„Ideea este, de fapt, să aducă AI în tot felul de domenii, inclusiv în cele inofensive, dar și în cele mai periculoase”, a spus Schwarz. Ea a subliniat că administrațiile anterioare au fost mai prudente în stabilirea unor reguli de siguranță privind modul și momentul utilizării acestor tehnologii.

Ca parte a strategiei, a fost creată o bază de date numită genai.mil, care permite funcționarilor guvernamentali să acceseze chatboți AI, inclusiv Gemini de la Google și Grok de la xAI.

Bugetul administrației denumit „Big Beautiful Bill” include, de asemenea, sute de milioane de dolari pentru proiecte militare legate de inteligența artificială. Documentul prevede alocarea a 650 de milioane de dolari pentru inovare militară, inclusiv 145 de milioane de dolari pentru dezvoltarea unor sisteme anti-dronă bazate pe AI.

Alte 250 de milioane de dolari sunt destinate „dezvoltării ecosistemului AI”, iar încă 250 de milioane pentru extinderea capacităților de inteligență artificială la un centru al Cyber Command. Alte 115 milioane de dolari sunt rezervate pentru accelerarea misiunilor de securitate nucleară cu ajutorul AI.

Armata SUA este încă în „faza de testare”

Din cauza „lipsei inerente de transparență”, este dificil de determinat cât de avansate sunt planurile guvernului american, spune Schwarz „Spre deosebire de un anumit tip de muniție sau de un sistem fizic de armament, nu vezi cu adevărat ce este folosit”, a spus ea. „Totul se întâmplă într-o interfață și, în mare parte, într-o zonă invizibilă.”

Schwarz consideră că armata SUA se află într-o „fază de testare”, în care experimentează cu diferite companii de inteligență artificială pentru a înțelege ce pot face aceste sisteme și care sunt limitele lor.

În schimb, Verdi crede că sisteme precum Claude ar fi fost folosite în contextul operațiunilor din Venezuela și Iran pentru sarcini „mai banale”, precum colectarea sau analizarea imaginilor satelitare.

„Un om nu poate analiza fiecare informație care apare. Aici AI poate face asta mult mai rapid”, a spus el. „Apoi oamenii interpretează rezultatele sistemului AI și acționează.”

Temeri legate de armele autonome

Cercetătorii avertizează că rolul tot mai mare al AI în planificarea militară ar putea duce, în cele din urmă, la dezvoltarea unor arme autonome. „Există cu siguranță interesul de a avea măcar opțiunea de a dezvolta arme complet autonome bazate pe AI și, eventual, de a le folosi”, a spus Verdi.

Astfel de arme ar putea identifica, selecta și ataca o țintă fără implicarea unui om în decizia finală, explică Khlaaf. „În loc ca un model lingvistic să ofere o recomandare pe care un om o poate accepta sau respinge, procesul ar deveni complet automatizat”, a spus ea.

Unul dintre principalele argumente pentru dezvoltarea acestor sisteme este teama că SUA ar putea rămâne în urmă dacă un rival ar construi primele astfel de arme, a spus Verdi. Cu toate acestea, nu există informații publice care să arate că China ar fi integrat AI în mod similar în armată.

Capacitățile AI ale altor adversari ai SUA, precum Rusia, Iran sau Coreea de Nord, sunt „și mai puțin sofisticate”, ceea ce face și mai puțin probabilă dezvoltarea unor arme autonome bazate pe AI. În plus, astfel de sisteme ar putea duce la escaladarea conflictelor, a avertizat Verdi.

Un studiu preliminar realizat de King’s College London a arătat că chatboții AI au ales, în aproape toate scenariile simulate de război, să amenințe cu utilizarea armelor nucleare.

Pentagonul se confruntă cu o tranziție dificilă

Verdi spune că este probabil ca SUA să continue să folosească AI în operațiunile sale, deoarece misiunile din Venezuela și Iran au fost „aparent foarte eficiente” în atingerea obiectivelor. Succesul perceput al acestor operațiuni creează riscul ca SUA să renunțe la și mai multe mecanisme de control, precum supravegherea umană, pentru a face tehnologia și mai eficientă, a adăugat el.

Provocarea pentru Departamentul de Război va fi găsirea unui model care să funcționeze la fel de bine ca Claude, a spus Verdi.

Anthropic a afirmat că Claude a fost implementat în rețelele clasificate ale guvernului SUA, utilizat în laboratoarele naționale nucleare și implicat direct în analiza informațiilor pentru Departamentul de Război.

Între timp, Departamentul de Război a semnat un contract cu OpenAI pentru integrarea „sistemelor avansate de inteligență artificială în medii clasificate”, la doar câteva ore după anularea acordului cu Anthropic.

„Cred că Departamentul de Război va avea o tranziție dificilă, dar nu este o sarcină imposibilă”, a spus Verdi, referindu-se la înlocuirea lui Claude cu un alt sistem AI. Informațiile colectate și analizate de Claude vor rămâne probabil în posesia departamentului și ar putea fi folosite de următorul furnizor de tehnologie, a adăugat el.

Editor : M.I.

Citește mai mult

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.