OpenAI și Anthropic angajează experți în arme chimice și explozibili pentru a preveni catastrofe generate de inteligența artificială

0
4
openai-si-anthropic-angajeaza-experti-in-arme-chimice-si-explozibili-pentru-a-preveni-catastrofe-generate-de-inteligenta-artificiala
OpenAI și Anthropic angajează experți în arme chimice și explozibili pentru a preveni catastrofe generate de inteligența artificială

Companiile de inteligență artificială OpenAI și Anthropic angajează experți în arme și explozibili pentru a preveni utilizarea periculoasă a tehnologiei lor, pe fondul temerilor tot mai mari legate de riscurile pe care le pot genera sistemele AI avansate.

Anthropic a anunțat într-o postare pe LinkedIn că este în căutarea unui expert în politici privind armele chimice și exploziile, pentru a preveni „utilizarea catastrofală” a tehnologiei sale, prin stabilirea modului în care sistemele sale AI gestionează informațiile sensibile din aceste domenii, relatează Euronews.

Persoana angajată va concepe și monitoriza regulile de siguranță care determină modul în care modelele AI răspund la solicitări legate de arme chimice și explozibili. De asemenea, va interveni rapid în cazul unor situații escaladate identificate în astfel de solicitări.

Candidații trebuie să aibă cel puțin cinci ani de experiență în domeniul apărării împotriva armelor chimice și/sau al explozibililor, precum și cunoștințe despre dispozitive de dispersie radiologică, cunoscute și sub numele de „bombe murdare”. Rolul presupune și dezvoltarea unor noi metode de evaluare a riscurilor, pe care conducerea companiei să le poată utiliza în situații critice.

La rândul său, OpenAI a anunțat la începutul acestei luni că recrutează cercetători pentru echipa sa de „Preparedness”, care monitorizează riscurile catastrofale asociate modelelor AI de ultimă generație.

Compania caută și un specialist în modelarea amenințărilor, responsabil de identificarea, simularea și anticiparea riscurilor majore, precum și de coordonarea perspectivelor tehnice, de guvernanță și de politici privind gestionarea acestor riscuri.

Aceste angajări vin după ce Anthropic a contestat în instanță decizia guvernului american de a o desemna drept „risc pentru lanțul de aprovizionare”, o etichetă care permite autorităților să blocheze contracte sau să interzică colaborarea cu instituțiile federale. Conflictul a început pe 24 februarie, când Departamentul de Război (DOW) a cerut acces nelimitat la chatbotul Claude al Anthropic.

Directorul general Dario Amodei a declarat că astfel de contracte nu ar trebui să includă utilizarea sistemului Claude pentru supraveghere în masă sau integrarea în arme complet autonome.

La scurt timp după disputa cu Anthropic, OpenAI a semnat un acord cu Departamentul de Război pentru utilizarea tehnologiei sale AI în medii clasificate. Compania a precizat că acordul include limite stricte, precum interzicerea utilizării pentru supraveghere în masă sau pentru arme autonome.

Citește și Inteligența artificială schimbă războiul: Cum folosește armata SUA tehnologia AI în operațiuni militare

Editor : M.I.

Citește mai mult

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.