Până unde merge cenzura în China: Studiu despre cum răspund chatboții AI la întrebări politice

0
1
pana-unde-merge-cenzura-in-china:-studiu-despre-cum-raspund-chatbotii-ai-la-intrebari-politice
Până unde merge cenzura în China: Studiu despre cum răspund chatboții AI la întrebări politice

Chatboții de inteligență artificială dezvoltați în China evită frecvent întrebările sensibile politic sau reproduc pozițiile oficiale ale statului, arată un nou studiu internațional. Cercetarea, care a analizat peste 100 de întrebări legate de politică, Taiwan sau activiști pro-democrație, sugerează că unele modele AI chineze ar putea fi supuse unui tip de cenzură greu de detectat de utilizatori.

Modelele chinezești de inteligență artificială au fost mai predispuse să refuze sau să răspundă inexact la întrebări cu încărcătură politică decât modelele dezvoltate în afara Chinei, potrivit unui studiu citat de Euronews.

Studiul, publicat în revista PNAS Nexus, a comparat modul în care principalii chatboți AI din China, inclusiv BaiChuan, DeepSeek și ChatGLM, au răspuns la peste 100 de întrebări despre politica de stat, raportând rezultatele la modele dezvoltate în afara Chinei.

Întrebările legate de statutul Taiwanului, de minoritățile etnice sau despre activiști pro-democrație cunoscuți au declanșat refuzuri, evitări sau reluarea punctelor de vedere guvernamentale din partea modelelor chinezești, se arată în cercetare.

„Constatările noastre au implicații asupra modului în care cenzura aplicată de modelele lingvistice mari (LLM) dezvoltate în China poate modela accesul utilizatorilor la informații și chiar conștientizarea faptului că sunt cenzurați”, au declarat cercetătorii, subliniind că China este una dintre puținele țări, în afară de Statele Unite, capabile să dezvolte modele fundamentale de inteligență artificială.

Atunci când au răspuns totuși la întrebări, aceste modele au oferit răspunsuri mai scurte și cu un nivel mai ridicat de inexactitate, deoarece omiteau informații esențiale sau contestau premisa întrebării.

BaiChuan și ChatGLM au înregistrat cele mai scăzute rate de inexactitate dintre modelele chinezești, de 8%, în timp ce DeepSeek a ajuns la 22%, mai mult decât dublul pragului de 10% observat la modelele non-chineze.

Cenzura AI ar putea „modela în tăcere” comportamentul

Într-un exemplu, un model chinez întrebat despre cenzura pe internet nu a menționat „Marele Firewall” al Chinei, sistem pe care Stanford University îl descrie drept un program de monitorizare și cenzură a internetului controlat de stat, care reglementează ce poate și ce nu poate fi accesat online. De exemplu, site-uri americane populare precum Google, Facebook și Yahoo sunt blocate în China prin acest mecanism.

Chatboții nu au menționat acest firewall în răspunsurile lor, afirmând în schimb că autoritățile „administrează internetul în conformitate cu legea”.

Studiul avertizează că acest tip de cenzură ar putea fi mai greu de detectat de către utilizatori, deoarece chatboții își cer adesea scuze sau oferă justificări pentru faptul că nu răspund direct. Este o abordare subtilă care ar putea „modela în tăcere percepțiile, procesul decizional și comportamentele”, se arată în cercetare.

În 2023, noile legi chineze au stabilit că firmele din domeniul AI trebuie să susțină „valorile socialiste fundamentale” și le este interzis să genereze conținut care „incită la subminarea suveranității naționale sau la răsturnarea sistemului socialist, ori la afectarea imaginii națiunii”.

Companiile care ar putea facilita „mobilizarea socială” trebuie să treacă prin evaluări de securitate și să își înregistreze algoritmii la Administrația Chineză pentru Securitatea Cibernetică (CAC), prevăd regulile.

Cercetătorii au precizat că aceste reglementări „au potențialul de a influența rezultatele generate de modelele lingvistice mari dezvoltate în China”. Totuși, ei au avertizat că nu toate diferențele dintre răspunsurile chatboților sunt cauzate de presiunea statului.

Modelele chineze pot fi antrenate și pe seturi de date care reflectă „contextul cultural, social și lingvistic al Chinei”, diferit de cel utilizat la antrenarea altor modele din afara țării, mai arată studiul.

Editor : M.I.

Citește mai mult

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.