spot_imgspot_img

Studiu: Modelele de inteligenţă artificială, încă departe de a fi transparente

spot_img

Modelele de inteligenţă artificială (AI), care s-au înmulţit după lansarea ChatGPT, nu sunt încă transparente în ceea ce priveşte modul în care au fost concepute şi reprezintă un risc pentru aplicaţiile care le utilizează ca bază tehnică, potrivit unui studiu realizat de Universitatea Stanford şi publicat miercuri, informează AFP.

Conform unui nou indice imaginat şi calculat de cercetători ai acestei universităţi californiene, modelul cel mai transparent, dintre zeci de modele evaluate, este Llama 2, un sistem de inteligenţă artificială lansat de Meta în iulie şi care poate fi reutilizat la liber.

Sistemul a obţinut un scor de doar 54%, în mare parte insuficient, potrivit autorilor studiului.

GPT-4, produsul de referinţă al Open AI, compania finanţată de Microsoft şi care se află în spatele celebrului robot ChatGPT, a obţinut la rândul său un scor de transparenţă de doar 48%.

Iar celelalte modele la modă, cum ar fi Palm-2 de la Google sau Claude 2, al societăţii Anthropic (finanţată de Amazon), apar pe poziţii mai joase ale clasamentului.

Toate modelele ar trebui să încerce să atingă o transparenţă cuprinsă între 80% şi 100%, estimează într-un comunicat Rishi Bommasani, director de cercetare la Stanford, despre modelele care servesc drept ”fundaţie”.

În lipsa transparenţei, este dificil pentru companii ”să ştie dacă pot crea în deplină siguranţă aplicaţii care să se bazeze” pe aceste modele comerciale, iar pentru ”universităţi să se bazeze pe aceste modele în cercetările lor”, au explicat autorii studiului.

Acest lucru complică de asemenea misiunea consumatorilor care ar dori ”să înţeleagă limitele modelelor sau să ceară daune pentru prejudiciile suferite”.

În mod concret, ”cea mai mare parte a companiilor nu comunică gama de conţinuturi protejate de drepturi de autor utilizate pentru antrenarea modelului. Companiile nu divulgă nici utilizarea muncii umane pentru a corija datele de antrenare, ceea ce se poate dovedi foarte problematic”, se mai spune în studiu.

”Nicio companie nu furnizează informaţii asupra numărului de utilizatori care depind de modele lor, nici de statisticile despre ţările sau pieţele care le utilizează”, a mai spus Rishi Bommasani.

Potrivit autorilor, acest indice de transparenţă ar putea în viitor să fie utilizat de decidenţii politici şi de organismele de reglementare. Uniunea Europeană, Statele Unite, China, Regatul Unit sau Canada au anunţat că doresc crearea unor modele AI mai transparente.

spot_img
spot_img
spot_img

Ultimele știri

Transfer: FC Farul l-a cedat pe Constantin Grameni la Rapid Bucureşti

Cluburile FC Farul Constanța și Rapid București au ajuns...

MApN: Fragmente de dronă de provenienţă rusă, detectate în proximitatea localităţii Periprava

Fragmente de dronă de provenienţă rusă au fost detectate,...
spot_img

Salbă de medalii pentru şahiştii de la CSM Constanţa la Naţionalele pe echipe de copii şi juniori de la Mamaia

La Campionatele Naţionale de şah pe echipe de copii şi juniori de la Mamaia, la categoria Fete 10 ani, CSM Constanța a devenit vicecampioană...

Transfer: FC Farul l-a cedat pe Constantin Grameni la Rapid Bucureşti

Cluburile FC Farul Constanța și Rapid București au ajuns la un acord privind transferul internaționalului U21 Constantin Grameni la formația din Giuleşti. În vârstă de...

MApN: Fragmente de dronă de provenienţă rusă, detectate în proximitatea localităţii Periprava

Fragmente de dronă de provenienţă rusă au fost detectate, luni, 9 septembrie, de către specialişti, în proximitatea localităţii Periprava, transmite Ministerul Apărării Naţionale (MApN). "Echipe...

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.