spot_imgspot_img

Studiu: Modelele de inteligenţă artificială, încă departe de a fi transparente

spot_img

Modelele de inteligenţă artificială (AI), care s-au înmulţit după lansarea ChatGPT, nu sunt încă transparente în ceea ce priveşte modul în care au fost concepute şi reprezintă un risc pentru aplicaţiile care le utilizează ca bază tehnică, potrivit unui studiu realizat de Universitatea Stanford şi publicat miercuri, informează AFP.

Conform unui nou indice imaginat şi calculat de cercetători ai acestei universităţi californiene, modelul cel mai transparent, dintre zeci de modele evaluate, este Llama 2, un sistem de inteligenţă artificială lansat de Meta în iulie şi care poate fi reutilizat la liber.

Sistemul a obţinut un scor de doar 54%, în mare parte insuficient, potrivit autorilor studiului.

GPT-4, produsul de referinţă al Open AI, compania finanţată de Microsoft şi care se află în spatele celebrului robot ChatGPT, a obţinut la rândul său un scor de transparenţă de doar 48%.

Iar celelalte modele la modă, cum ar fi Palm-2 de la Google sau Claude 2, al societăţii Anthropic (finanţată de Amazon), apar pe poziţii mai joase ale clasamentului.

Toate modelele ar trebui să încerce să atingă o transparenţă cuprinsă între 80% şi 100%, estimează într-un comunicat Rishi Bommasani, director de cercetare la Stanford, despre modelele care servesc drept ”fundaţie”.

În lipsa transparenţei, este dificil pentru companii ”să ştie dacă pot crea în deplină siguranţă aplicaţii care să se bazeze” pe aceste modele comerciale, iar pentru ”universităţi să se bazeze pe aceste modele în cercetările lor”, au explicat autorii studiului.

Acest lucru complică de asemenea misiunea consumatorilor care ar dori ”să înţeleagă limitele modelelor sau să ceară daune pentru prejudiciile suferite”.

În mod concret, ”cea mai mare parte a companiilor nu comunică gama de conţinuturi protejate de drepturi de autor utilizate pentru antrenarea modelului. Companiile nu divulgă nici utilizarea muncii umane pentru a corija datele de antrenare, ceea ce se poate dovedi foarte problematic”, se mai spune în studiu.

”Nicio companie nu furnizează informaţii asupra numărului de utilizatori care depind de modele lor, nici de statisticile despre ţările sau pieţele care le utilizează”, a mai spus Rishi Bommasani.

Potrivit autorilor, acest indice de transparenţă ar putea în viitor să fie utilizat de decidenţii politici şi de organismele de reglementare. Uniunea Europeană, Statele Unite, China, Regatul Unit sau Canada au anunţat că doresc crearea unor modele AI mai transparente.

spot_img
spot_img
spot_img

Ultimele știri

Marcel Ciolacu: „Varianta Mircea Geoană nu a fost discutată în interiorul partidului până în acest moment”

Preşedintele Partidului Social Democrat, premierul Marcel Ciolacu, a declarat,...

Salina Praid se redeschide, la o lună după ce şi-a sistat activitatea din cauza infiltraţiilor

Salina Praid se redeschide sâmbătă, 15 iunie, la o...
spot_img

Athenaeum Summer Festival: Muzică clasică, jazz, muzică de film şi muzică veche, între 20 şi 29 iunie, la Ateneu

Cea de-a III-a ediţie a Athenaeum Summer Festival, un eveniment care include în program lucrări celebre de muzică clasică, jazz, muzică din filme, muzică...

Marcel Ciolacu: „Varianta Mircea Geoană nu a fost discutată în interiorul partidului până în acest moment”

Preşedintele Partidului Social Democrat, premierul Marcel Ciolacu, a declarat, vineri, după reuniunea Consiliului Politic Naţional al PSD de la Sâmbăta de Sus, că, la...

Salina Praid se redeschide, la o lună după ce şi-a sistat activitatea din cauza infiltraţiilor

Salina Praid se redeschide sâmbătă, 15 iunie, la o lună după ce şi-a sistat activitatea de producţie şi de vizitare, din cauza infiltraţiilor şi...

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.