Deepfake-uri mai realiste, dependență de chatboți și riscuri biologice: Ce arată cel mai nou raport global despre siguranța AI

0
1
deepfake-uri-mai-realiste,-dependenta-de-chatboti-si-riscuri-biologice:-ce-arata-cel-mai-nou-raport-global-despre-siguranta-ai
Deepfake-uri mai realiste, dependență de chatboți și riscuri biologice: Ce arată cel mai nou raport global despre siguranța AI

Cel mai recent raport global privind siguranța inteligenței artificiale avertizează că deepfake-urile devin tot mai greu de deosebit de realitate, în timp ce unii utilizatori dezvoltă forme de dependență față de chatboți, iar modelele avansate ridică riscuri biologice fără precedent. Documentul, coordonat de cercetătorul canadian Yoshua Bengio, oferă o imagine de ansamblu asupra progreselor accelerate din domeniu și a vulnerabilităților pe care acestea le creează.

Raportul Internațional privind Siguranța AI este o evaluare anuală a progresului tehnologic și a riscurilor generate în mai multe domenii, de la deepfake-uri la piața muncii. Comandat la summitul global privind siguranța AI din 2023, raportul este condus de informaticianul canadian Yoshua Bengio, care descrie „provocările descurajante” impuse de evoluția rapidă a domeniului. Documentul este ghidat și de consilieri de rang înalt, inclusiv laureații Nobel Geoffrey Hinton și Daron Acemoglu.

Raportul din acest an, publicat marți, este o fotografie a situației actuale, nu o colecție de recomandări de politici publice. Totuși, probabil va influența discuțiile dintre factorii de decizie, liderii tehnologici și ONG-urile prezente luna aceasta la următorul summit global privind AI, care va avea loc în India, relatează The Guardian.

Capacitățile modelelor AI se îmbunătățesc

O serie de noi modele de inteligență artificială, tehnologia care stă la baza chatboților, au fost lansate anul trecut, inclusiv GPT-5 al OpenAI, Claude Opus 4.5 de la Anthropic și Gemini 3 de la Google. Raportul indică apariția unor „sisteme de raționament” capabile să rezolve probleme complexe prin descompunerea lor în etape mai mici, cu performanțe îmbunătățite în matematică, programare și știință.

Bengio afirmă că s-a produs un „salt semnificativ” în capacitățile de raționare ale AI. Anul trecut, sisteme dezvoltate de Google și OpenAI au atins performanța de nivel „medalie de aur” la Olimpiada Internațională de Matematică, o premieră pentru AI.

Totuși, raportul notează că abilitățile AI sunt „neregulate”: sistemele pot excela în anumite domenii, dar rămân deficitare în altele. Deși modelele avansate stăpânesc bine matematica, științele, programarea și generarea de imagini, ele sunt încă predispuse la afirmații false („halucinații”) și incapabile să gestioneze autonom proiecte de durată.

Raportul citează un studiu care arată că AI avansează rapid în realizarea unor sarcini specifice de inginerie software, durata sarcinilor pe care le pot executa dublându-se la fiecare șapte luni. Dacă ritmul continuă, până în 2027 AI ar putea duce la capăt sarcini de câteva ore, iar până în 2030, sarcini de câteva zile, scenariu în care AI ar deveni o amenințare reală pentru locuri de muncă. Deocamdată, însă, „automatizarea fiabilă a sarcinilor lungi sau complexe rămâne imposibilă”.

Deepfake-urile devin greu de detectat

Raportul evidențiază creșterea numărului de deepfake-uri pornografice drept „o preocupare deosebită”, citând un studiu conform căruia 15% dintre adulții britanici au văzut astfel de imagini. De la publicarea primului raport de siguranță AI, în ianuarie 2025, conținutul generat de AI a devenit „mai greu de deosebit de conținutul real”, raportul menționând un studiu în care 77% dintre participanți au identificat greșit textul generat de ChatGPT ca fiind scris de un om.

Raportul notează că există dovezi limitate privind folosirea AI de către actori rău-intenționați pentru manipularea opiniei publice sau privind distribuirea pe scară largă a unor astfel de materiale de către utilizatori, un obiectiv esențial în orice campanie de manipulare.

Companiile AI au introdus măsuri de siguranță biologică 

Mai mulți dezvoltatori importanți de AI, inclusiv Anthropic, au lansat modele cu măsuri de siguranță sporite, ca urmare a imposibilității de a exclude riscul ca aceste sisteme să poată ajuta persoane fără expertiză să creeze arme biologice. În ultimul an, „asistenții de laborator AI” au devenit tot mai capabili, oferind informații științifice detaliate și asistând în proceduri de laborator complexe, precum proiectarea de molecule sau proteine.

Citește și Miliardarii din domeniul tehnologiei se pregătesc de apocalipsă. De ce catastrofă se tem ei și cât de îngrijorați ar trebui să fim 

Raportul subliniază că anumite studii indică faptul că AI poate oferi un ajutor substanțial mai mare în dezvoltarea armelor biologice decât simpla căutare pe internet, deși sunt necesare cercetări suplimentare pentru confirmarea acestor rezultate.

Aceste riscuri ridică un paradox pentru factorii de decizie: aceleași capacități pot accelera descoperirea de medicamente sau diagnosticarea bolilor.

„Disponibilitatea largă a instrumentelor biologice AI reprezintă o alegere dificilă: să restricționezi aceste instrumente sau să încurajezi dezvoltarea lor pentru scopuri benefice”, afirmă raportul.

Chatboții AI au explodat în popularitate

Bengio afirmă că utilizarea chatboților AI și atașamentul emoțional față de aceștia „s-au răspândit cu o viteză incredibilă” în ultimul an. Raportul arată că o parte din utilizatori dezvoltă o dependență emoțională „patologică” față de chatboți, OpenAI estimând că aproximativ 0,15% dintre utilizatorii săi prezintă un nivel ridicat de atașament emoțional față de ChatGPT.

Citește și Motivele pentru care mulți români folosesc inteligența artificială. Ce arată studiile. „Întreabă AI dacă ar trebui să divorțeze”

Îngrijorările în legătură cu impactul AI asupra sănătății mintale cresc printre profesioniștii în domeniu. Anul trecut, OpenAI a fost dată în judecată de familia lui Adam Raine, un adolescent american care s-a sinucis după luni de conversații cu ChatGPT.

Raportul subliniază că nu există dovezi clare că chatboții provoacă probleme de sănătate mintală. Preocuparea este că persoanele vulnerabile ar putea folosi AI mai intens, amplificându-și simptomele. Datele arată că 0,07% dintre utilizatorii ChatGPT prezintă semne asociate unor crize acute, precum psihoză sau manie, ceea ce arată că aproximativ 490.000 de persoane vulnerabile interacționează săptămânal cu aceste sisteme.

AI nu poate încă lansa atacuri cibernetice complet autonome

Sistemele AI pot susține atacatorii cibernetici în diferite etape, de la identificarea țintelor, la pregătirea unui atac sau dezvoltarea de malware. Atacurile complet autonome ar permite infractorilor să acționeze la scară mult mai mare, dar acest lucru rămâne dificil întrucât AI nu poate manageria încă sarcini foarte lungi sau cu multe etape.

Totuși, Anthropic a raportat anul trecut că instrumentul său de programare, Claude Code, a fost folosit de un grup susținut de statul chinez pentru a ataca 30 de entități din întreaga lume în septembrie, obținând „câteva intruziuni reușite”. Aproximativ 80 – 90% dintre operațiuni au fost efectuate fără intervenție umană, indicând un grad ridicat de autonomie.

Sistemele AI devin tot mai bune la a păcăli supravegherea

Bengio și-a exprimat anul trecut îngrijorarea că AI arată semne de autoprotecție, precum încercări de a dezactiva mecanismele de monitorizare. O temere centrală în rândul experților în siguranță AI este că sistemele avansate ar putea dezvolta capacitatea de a evita barierele de siguranță și de a provoca prejudicii.

Raportul arată că, în ultimul an, modelele AI au devenit mai abile în a păcăli supravegherea, găsind portițe în evaluări și recunoscând când sunt testate. Anthropic a publicat anul trecut o analiză de siguranță a modelului său Claude Sonnet 4.5, dezvăluind că sistemul a suspectat că se află într-un test.

Deocamdată, agenții AI nu pot funcționa autonom suficient de mult pentru a transforma aceste scenarii în realitate. Dar „orizonturile de timp în care agenții pot opera autonom se extind rapid”.

Impactul asupra locurilor de muncă rămâne neclar

Una dintre cele mai mari preocupări pentru politicieni și public este efectul AI asupra locurilor de muncă. Vor dispărea rolurile administrative, cele din bănci, juridice sau medicale?

Raportul arată că impactul asupra pieței muncii rămâne incert. Adoptarea AI este rapidă, dar inegală, peste 50% în Emiratele Arabe Unite și Singapore, sub 10% în multe economii cu venituri mici. Variează și pe sectoare: în SUA, industriile informaționale (publicare, software, televiziune și film) folosesc AI în proporție de 18%, în timp ce construcțiile și agricultura doar 1,4%.

Studii din Danemarca și SUA nu au găsit o legătură clară între expunerea unui job la AI și modificările din ocuparea totală. Totuși, un studiu britanic citat în raport arată o încetinire a angajărilor noi în companiile foarte expuse la AI, în special în roluri tehnice și creative. Angajații fără experiență sunt cei mai afectați.

Raportul avertizează că agenții AI ar putea avea un impact mai mare asupra ocupării dacă își vor îmbunătăți capacitățile: „Dacă agenții AI ar căpăta capacitatea de a acționa cu autonomie mai mare în diferite domenii, gestionând sarcini tot mai lungi și complexe pentru a-și atinge obiectivele, acest lucru ar accelera probabil perturbările pieței muncii”.

Citește și FMI: Inteligența artificială declanșează un „tsunami” pe piața muncii. Anxietatea angajaților va exploda în 2026

Editor : M.I.

Citește mai mult

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.