De ce se războiește Pentagonul cu Anthropic: culisele conflictului cu părinții chatbotului AI Claude

0
3
de-ce-se-razboieste-pentagonul-cu-anthropic:-culisele-conflictului-cu-parintii-chatbotului-ai-claude
De ce se războiește Pentagonul cu Anthropic: culisele conflictului cu părinții chatbotului AI Claude

Conflictul cu Departamentul Apărării al SUA privind chatbotul Claude reaprinde dezbaterea privind modul în care AI va fi utilizată în război și cine va fi tras la răspundere, scrie The Guardian, care prezintă un istoric al companiei Anthropic, relația cu Pentagonul și degradarea ei, cauzată de faptul că firma nu vrea ca serviciile sale să fie utilizate pentru supraveghere în masă și arme  automate.

Până de curând, Anthropic era unul dintre numele mai puțin cunoscute din ceea ce s-ar putea numi boom-ul inteligenței artificiale. În ciuda faptului că era evaluată la aproximativ 350 de miliarde de dolari, compania rareori genera titluri senzaționale sau reacții negative din partea publicului, asociate cu OpenAI a lui Sam Altman sau xAI a lui Elon Musk. CEO-ul și cofondatorul său, Dario Amodei, era o figură cunoscută în industrie, dar nu era un nume cunoscut în afara Silicon Valley, iar chatbotul său Claude era mai puțin popular decât ChatGPT.

Această percepție s-a schimbat odată ce Anthropic a devenit actorul central într-o dispută de mare amploare cu Departamentul Apărării, din cauza refuzului companiei de a permite utilizarea lui Claude pentru supravegherea în masă a populației și pentru sisteme de arme autonome care pot ucide oameni fără intervenția umană. În mijlocul unor negocieri tensionate, compania de AI a respins săptămâna trecută termenul limită stabilit de Pentagon pentru încheierea unui acord, într-o mișcare care l-a determinat pe Pete Hegseth, secretarul apărării, să acuze Anthropic de „aroganță și trădare” față de țara sa natală, cerând în același timp ca toate companiile care colaborează cu guvernul SUA să înceteze orice relație comercială cu firma de AI.

Săptămâna care a urmat a adus și mai mult haos. OpenAI a anunțat că a încheiat propriul acord cu Departamentul Apărării, ceea ce a dus la reacții negative din partea angajaților și la acuzațiile lui Amodei la adresa CEO-ului rival Sam Altman că i-ar fi adus „laude în stil dictatorial” lui Donald Trump, pentru care Amodei și-a cerut ulterior scuze. Între timp, Trump a denunțat Anthropic într-un interviu acordat Politico, spunând că „i-a concediat ca pe niște câini”. Joi, Departamentul Apărării a declarat oficial că Anthropic reprezintă un risc pentru lanțul de aprovizionare și a cerut altor companii să întrerupă relațiile cu aceasta – prima dată când o companie americană a fost vizată cu această desemnare –, ceea ce ar avea consecințe financiare grave pentru companie dacă ar fi pusă în aplicare în totalitate.

Conflictul a intensificat o dezbatere nesoluționată cu privire la modul în care AI va fi utilizată în război și cine va fi responsabil pentru rezultat, reprezentând totodată unul dintre cele mai dramatice dezacorduri de până acum între industria tehnologică și administrația Trump. Pe măsură ce armata adoptă rapid tehnologia pentru operațiunile sale, inclusiv în războiul cu Iranul, aceasta a transformat situații anterior ipotetice în teste etice reale pentru companiile de inteligență artificială.

Conflictul dintre Anthropic și Departamentul Apărării este, de asemenea, punctul culminant al ceea ce cercetătorii consideră a fi unele dintre contradicțiile inerente ale companiei de AI. Este o companie fondată pe premisa creării unui viitor sigur pentru AI, care a încheiat totuși parteneriate importante pentru lucrări clasificate cu Pentagonul și gigantul tehnologic de supraveghere Palantir. Conducerea sa se declară profund îngrijorată de riscurile existențiale ale IA, deși recent a renunțat la angajamentul inițial privind siguranța, invocând viteza concurenței din industrie. Compania s-a angajat să fie transparentă, dar, la fel ca alte companii de AI, și-a dezvoltat modelele printr-o cerere rapace de date proprietare, dosarele judecătorești documentând modul în care a condus un efort secret de scanare și distrugere a milioane de cărți fizice pentru a-și antrena chatbotul de AI botezat Claude.

Cu toate acestea, ultimele săptămâni au arătat că există unele limite pe care Anthropic nu pare să le depășească, o raritate în industria tehnologică, care s-a supus în mare măsură administrației Trump și temerii de a rămâne în urma rivalilor din industrie. Consecințele rezistenței sale la cererile Pentagonului au reprezentat până acum o victorie de relații publice pentru Anthropic, Claude câștigând popularitate după ce acordul a eșuat și OpenAI a rămas cu reputația pătată.

Anthropic nu a răspuns la o solicitare de comentarii din partea The Guardian.

Implicațiile pe termen lung pentru Anthropic sunt mai puțin clare, având în vedere că unii contractori din domeniul apărării, precum și departamentul de Stat și Trezoreria SUA au renunțat deja la utilizarea modelelor sale de AI, iar administrația Trump intenționează să pedepsească Anthropic pentru disidența sa. Anthropic a declarat că va contesta în instanță desemnarea riscului lanțului său de aprovizionare, în timp ce Amodei ar fi redeschis negocierile cu Departamentul Apărării în ultimele zile pentru a încerca să ajungă la o soluție.

Compania de AI care pune „siguranța pe primul loc”

Înainte de a intra în conflict cu Sam Altman și Pentagonul, Dario Amodei era unul dintre cercetătorii de frunte ai OpenAI. Amodei s-a alăturat firmei lui Altman în 2016, după o perioadă petrecută la Google, asumându-și un rol important în dezvoltarea modelelor GPT ale OpenAI și devenind în cele din urmă vicepreședinte de cercetare. Sora lui mai mică, Daniela, a ocupat funcția de vicepreședinte pentru siguranță și politici, contribuind la supravegherea dezvoltării etice a modelelor OpenAI.

Pe măsură ce OpenAI și-a dezvoltat rapid tehnologia și Altman și-a consolidat autoritatea asupra companiei, familia Amodei s-a separat în 2021, înainte de lansarea ChatGPT, pentru a fonda Anthropic, luând cu ei și alți angajați ai OpenAI. Ei au numit Anthropic „companie de cercetare și siguranță în domeniul AI”, iar elementul central al noii lor firme era promisiunea de a construi sisteme de AI mai sigure, care să respecte un set detaliat de principii pe care ei le descriu ca fiind o constituție.

În 2024, Amodei a publicat un eseu lung intitulat „Machines of Loving Grace” în care a prezentat o parte din viziunea sa utopică asupra viitorului AI. El a susținut că inteligența artificială ar putea elimina majoritatea tipurilor de cancer, preveni aproape toate formele de boli infecțioase și reduce inegalitatea economică. De asemenea, a prezentat idei vagi despre modul în care AI s-ar integra în toate domeniile, de la luarea deciziilor în sistemul judiciar până la modul în care guvernul ar putea furniza servicii precum prestații de sănătate. Cu privire la democrație, însă, Amodei era mai sceptic.

„Nu văd niciun motiv puternic pentru a crede că AI va promova în mod preferențial sau structural democrația și pacea”, a scris el.

Amodei, care a obținut un doctorat în biofizică la Universitatea Princeton înainte de a fi fascinat de potențialul inteligenței artificiale, era de ani de zile preocupat de riscurile existențiale ale dezvoltării AI și vedea paralele cu crearea armelor nucleare. Una dintre cărțile sale preferate este The Making of the Atomic Bomb (Crearea bombei atomice) de Richard Rhodes, o relatare de aproape 900 de pagini, câștigătoare a premiului Pulitzer, despre modul în care oamenii de știință nucleari au inaugurat o lume nouă și periculoasă prin tehnologia pe care au creat-o.

În timp ce un amestec de disconfort și mândrie legat de faptul că devin noii „Robert Oppenheimer” este comun printre directorii executivi ai companiilor de AI, o parte din atenția acordată de Amodei riscului existențial are legături cu o mișcare utilitaristă cunoscută sub numele de „altruism eficient”, care a devenit populară în Silicon Valley pe parcursul anilor 2010 și a susținut proiecte care ar maximiza binele global. Mișcarea, care a ieșit din vogă după o serie de scandaluri, cum ar fi asocierea sa strânsă cu miliardarul criptomonedelor Sam Bankman-Fried, a inclus și un grup de persoane preocupate de siguranța AI – ideea că una dintre cele mai mari amenințări globale este dezvoltarea AI care s-ar putea întoarce împotriva umanității.

Deși soții Amodei au negat că ar fi adepți ai altruismului eficient, multe dintre principiile de bază ale companiei reflectă limbajul acesteia, cum ar fi promisiunea de a „maximiza rezultatele pozitive pentru umanitate pe termen lung”. Unii dintre primii investitori ai Anthropic, precum cofondatorul Facebook Dustin Moskovitz, aveau, de asemenea, legături cu mișcarea altruismului eficient. Soțul Danielei Amodei, Holden Karnofsky, a fost cofondator și, timp de mai mulți ani, director executiv al uneia dintre cele mai mari organizații filantropice bazate pe altruismul eficient, Open Philanthropy. Când Hegseth a declarat Anthropic drept un risc pentru lanțul de aprovizionare săptămâna trecută, el a criticat, de asemenea, Anthropic pentru că este „învăluit în retorica ipocrită a «altruismului eficient»”.

Mișcarea pentru siguranța AI are critici și în afara Pentagonului, inclusiv cercetători care consideră că preocupările legate de amenințările existențiale din partea inteligenței artificiale sunt adesea o distragere a atenției de la daunele și prejudecățile mai tangibile și banale ale AI.

„Ei vorbeau despre aceste riscuri existențiale și despre deturnarea AI în scopuri de bioterorism. Întotdeauna am considerat că acestea erau fie prea îndepărtate, fie prea greu de atins”, a declarat Sarah Kreps, directoarea Tech Policy Institute de la Universitatea Cornell. „Că nu înțelegea pe deplin riscul.”

Diferențele dintre preocupările mișcării „AI Safety” cu S mare și domeniul mai larg al siguranței și eticii în AI reprezintă o schismă de lungă durată în cadrul industriei. De asemenea, oferă o explicație pentru o parte din disonanța legată de modul în care Anthropic ar putea fi atât de îngrijorată de dezvoltarea AI în beneficiul umanității, permițând în același timp ca modelele sale să fie utilizate de agențiile de informații și apărare în scopuri letale.

„Pare să existe o mică neînțelegere în discurs – că, deoarece Anthropic s-a prezentat în mod clar ca fiind responsabilă, atunci este împotriva utilizării sistemelor sale în război”, a spus Margaret Mitchell, cercetătoare în etica IA și șefă a departamentului de etică la compania de tehnologie Hugging Face. „Dar asta nu este adevărat.”

„Nu este vorba că nu vor să omoare oameni. Ci că vor să se asigure că omoară oamenii potriviți”, a spus Mitchell. „Iar cine sunt oamenii potriviți este decis de guvern.”

De la siguranța pe primul loc la atacuri cu rachete țintite

În timp ce Anthropic s-a angajat să construiască o AI mai sigură, a urmărit un sector diferit al pieței față de rivalii săi. Dacă ChatGPT de la OpenAI este prezentat ca un chatbot orientat către consumatori, pe care mulți oameni îl tratează ca pe un motor de căutare sau un companion AI, Anthropic a orientat Claude mai mult către soluții software pentru întreprinderi și integrarea în infrastructura organizațională a locurilor de muncă. Deși la prima vedere această distincție pare plictisitoare, ea a făcut ca Claude să fie alegerea preferată a multor organizații și a contribuit la transformarea sa în primul model autorizat pentru utilizare clasificată în sistemele militare.

Integrarea Anthropic în armată a început cu un acord din 2024 cu Palantir pentru a permite utilizarea Claude în sistemele sale, care funcționau deja în medii clasificate. Cele două companii au promovat acordul ca o modalitate de a reduce drastic resursele și timpul necesare pentru operațiunile militare și culegerea de informații. În anul următor, Anthropic, împreună cu alte câteva companii importante de AI, a încheiat un acord în valoare de 200 de milioane de dolari cu Departamentul Apărării pentru a utiliza instrumentele lor de AI în operațiuni militare.

De atunci a devenit evident că aceste acorduri nu includeau înțelegeri permanente cu privire la modul în care guvernul putea utiliza IA Anthropic sau la măsurile de siguranță care urmau să fie stabilite pentru modelele sale. Având în vedere accesul indirect al armatei prin intermediul sistemului Palantir, Anthropic avea un control mai redus asupra utilizării tehnologiei sale decât ar fi avut în cazul site-ului web al lui Claude. Această discrepanță a ajuns la apogeu în ultimele luni, când guvernul a solicitat Anthropic să relaxeze restricțiile de siguranță pentru a permite o gamă mai largă de utilizări, declanșând actualul conflict între companie și Pentagon.

Angajarea de către Anthropic, în ultimii ani, a foștilor membri ai echipei lui Biden, opoziția politică a lui Amodei față de Trump și dorința lui Hegseth de a eradica tot ce ține de ideologia woke din armată au adăugat o dimensiune politică la această confruntare. Directorul tehnic al Pentagonului, Emil Michael, pare să aibă și el o aversiune personală față de Amodei, acuzându-l public că este un „mincinos” și că are un „complex al lui Dumnezeu”.

Ceea ce conferă un sentiment de urgență negocierilor este utilizarea lui Claude de către armata SUA într-o gamă largă de operațiuni, inclusiv în misiunea de capturare a liderului venezuelean Nicolás Maduro și în războiul cu Iranul. Washington Post a raportat că armata utilizează sistemul inteligent Maven al Palantir, care are Claude încorporat, pentru a determina ce locuri din Iran să bombardeze și pentru a furniza analize privind atacurile sale.

Deși disputa în care Anthropic s-a angajat cu Pentagonul are elemente specifice AI, ea este, de asemenea, emblematică pentru problemele legate de tehnologiile cu dublă utilizare, potrivit experților, adică produsele care au atât aplicații civile, cât și militare. O tehnologie dezvoltată pentru o bază largă de consumatori și apoi adaptată pentru a fi utilizată în sisteme militare clasificate este destinată să întâmpine probleme, deoarece tehnologia nu este concepută pentru cazuri de utilizare specifice și nu este construită cu parametri specifici pentru utilizare militară. Companiile pot constata că produsul lor este reutilizat în moduri pe care le-ar putea considera inacceptabile din punct de vedere etic, dar pe care nu le pot împiedica.

„Aceeași tehnologie care stă la baza identificării unei păsări într-o imagine stă la baza identificării unui civil care fuge din casa sa”, a dat Mitchell ca exemplu. „Este același tip de model, doar că este ajustat foarte ușor.”

O altă problemă este că companiile de tehnologie nu au o imagine perfectă asupra modului în care tehnologiile lor vor fi utilizate în sisteme clasificate, în timp ce armata nu știe exact cum funcționează tehnologiile proprietare precum Claude de la Anthropic – o problemă pe care profesorul de drept Ashley Deeks a numit-o „cutia neagră dublă”. Chiar și contractele privind utilizarea convenită pot fi neclare, mai ales având în vedere aversiunea administrației Trump față de supravegherea juridică.

„În general, se așteaptă ca părțile la un contract să respecte termenii acestuia”, a spus Deeks, profesor la Facultatea de Drept a Universității din Virginia. „Dar, desigur, contractele trebuie interpretate, iar armata ar putea interpreta o frază într-un mod diferit de cel intenționat de companie.”

Peste această dispută planează și întrebarea mai largă a cui îi revine dreptul de a decide pentru ce este utilizată AI, precum și lipsa unei reglementări detaliate din partea Congresului SUA cu privire la sistemele de arme autonome. Deși nici Anthropic, nici Pentagonul nu consideră că o companie privată ar trebui să aibă putere de decizie asupra aplicațiilor militare ale AI, în prezent compania funcționează ca unul dintre singurele elemente de control asupra ceea ce pare a fi dorința expansivă a armatei de a transforma AI în armă.

„Vrem ca Departamentul Apărării să utilizeze AI pentru sisteme de arme autonome și, dacă da, în ce contexte, cu ce restricții, la ce nivel de încredere, ce nivel de risc suntem dispuși să ne asumăm?”, a spus Deeks. „Ne este greu să înțelegem opinia publică cu privire la modul în care Departamentul Apărării gândește toate aceste aspecte.”

Editor : B.E.

Citește mai mult

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.