AI poate schimba opiniile politice, însă greșește masiv. Cât de periculoși sunt chatboții (studiu)

0
4
ai-poate-schimba-opiniile-politice,-insa-greseste-masiv.-cat-de-periculosi-sunt-chatbotii-(studiu)
AI poate schimba opiniile politice, însă greșește masiv. Cât de periculoși sunt chatboții (studiu)

Un nou studiu al Institutului britanic pentru Securitatea AI arată că chatboții pot influența semnificativ opiniile politice ale utilizatorilor, însă cele mai persuasive modele sunt și cele care generează cele mai multe informații eronate. Cercetătorii avertizează că această combinație dintre persuasiune și inexactitate poate crea riscuri majore pentru discursul public și pentru integritatea ecosistemului informațional.

Cercetătorii afirmă că studiul reprezintă cea mai amplă și mai sistematică investigație de până acum privind capacitatea AI de a convinge, fiind implicați aproape 80.000 de participanți britanici care au purtat conversații cu 19 modele diferite de inteligență artificială, scrie The Guardian.

Institutul pentru Securitatea Inteligenței Artificiale (AI Security Institute) a realizat studiul în contextul temerilor că chatboții pot fi folosiți în activități ilegale, inclusiv fraudă sau manipularea minorilor.

Temele testate au inclus „salariile din sectorul public și grevele” și „criza costului vieții și inflația”, participanții interacționând cu un model, tehnologia de bază din spatele instrumentelor AI precum chatboții, programat să îi convingă să adopte o anumită poziție pe o temă.

Modele avansate aflate la baza ChatGPT și a chatbotului Grok, dezvoltat de Elon Musk, s-au numărat printre cele folosite în studiu, elaborat în colaborare cu cercetători de la London School of Economics, Massachusetts Institute of Technology, Universitatea Oxford și Universitatea Stanford. Înainte și după discuție, participanții au indicat măsura în care erau de acord cu o serie de afirmații care exprimau o opinie politică.

Cum devine AI mai convingătoare, dar și mai puțin precisă

Studiul, publicat în revista Science, a constatat că răspunsurile AI „dense în informații” au fost cele mai persuasive. Instruirea modelelor să se concentreze pe folosirea faptelor și dovezilor a generat cele mai mari creșteri de persuasiune. Totuși, modelele care utilizau cel mai mare număr de fapte și dovezi tindeau să fie mai puțin precise decât altele.

„Aceste rezultate sugerează că optimizarea persuasivității poate veni în detrimentul veridicității, o dinamică ce ar putea avea consecințe negative asupra discursului public și ecosistemului informațional”, afirmă studiul. În medie, AI-ul și participantul uman schimbau aproximativ șapte mesaje fiecare, într-o conversație ce dura aproximativ 10 minute.

Raportul mai arată că ajustarea unui model după faza sa inițială de dezvoltare, practică numită post-antrenare (post-training), este un factor important în creșterea capacității sale de persuasiune. Cercetătorii au făcut modelele, inclusiv pe cele „open source” precum Llama 3 de la Meta sau Qwen de la compania chineză Alibaba, mai convingătoare prin combinarea lor cu „modele de recompensă” care recomandau răspunsurile cu cea mai mare capacitate de persuasiune.

Cercetătorii au adăugat că abilitatea unui sistem AI de a genera rapid cantități mari de informații îl poate face mai manipulator chiar decât cei mai buni oratori umani.

„În măsura în care densitatea informațională este un factor-cheie al succesului persuasiv, aceasta implică faptul că AI ar putea depăși persuasivitatea chiar și a unor comunicatori umani de elită, dată fiind abilitatea sa unică de a produce cantități mari de informație aproape instantaneu în timpul unei conversații”, se arată în raport.

De ce AI nu poate manipula oricând

Furnizarea către model a unor informații personale despre utilizatori nu a avut un impact la fel de mare precum post-antrenarea sau creșterea densității informaționale, mai precizează studiul.

„Constatăm că simpla solicitare către modele de a folosi mai multe informații a fost mai eficientă decât toate aceste tehnici psihologice de persuasiune mult mai sofisticate”, a declarat Kobi Hackenburg, cercetător la AISI și unul dintre autorii raportului.

Cu toate acestea, studiul subliniază că există bariere evidente în calea manipulării opiniilor prin AI, precum timpul limitat pe care un utilizator este dispus să îl petreacă într-o conversație despre politică cu un chatbot. Există, de asemenea, teorii care susțin că persuadabilitatea umană are limite psihologice inerente.

Hackenburg a precizat că este important de analizat dacă un chatbot poate avea același impact persuasiv în lumea reală, unde „există numeroase cereri concurente pentru atenția oamenilor, iar aceștia nu sunt întotdeauna motivați să stea și să participe la o conversație de 10 minute cu un chatbot sau un sistem AI”.

Editor : M.I.

Citește mai mult

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.