Capitolul iv - OBLIGAŢII DE TRANSPARENŢĂ PENTRU FURNIZORII ŞI IMPLEMENTATORII ANUMITOR SISTEME DE IA - Regulamentul 1689/13-iun-2024 de stabilire a unor norme armonizate privind inteligenţa artificială şi de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 şi (UE) 2019/2144 şi a Directivelor 2014/90/UE, (UE) 2016/797 şi (UE) 2020/1828 (Regulamentul privind inteligenţa artificială)

Acte UE

Jurnalul Oficial seria L

Neintrat în vigoare
Versiune de la: 12 Iulie 2024
CAPITOLUL IV:OBLIGAŢII DE TRANSPARENŢĂ PENTRU FURNIZORII ŞI IMPLEMENTATORII ANUMITOR SISTEME DE IA
Art. 50: Obligaţii de transparenţă pentru furnizorii şi implementatorii anumitor sisteme de IA
(1)Furnizorii se asigură că sistemele de IA destinate să interacţioneze direct cu persoane fizice sunt proiectate şi dezvoltate astfel încât persoanele fizice în cauză să fie informate că interacţionează cu un sistem de IA, cu excepţia cazului în care acest lucru este evident din punctul de vedere al unei persoane fizice rezonabil de bine informată, de atentă şi de avizată, ţinând seama de circumstanţele şi contextul de utilizare. Această obligaţie nu se aplică sistemelor de IA autorizate prin lege pentru a depista, a preveni, a investiga sau a urmări penal infracţiunile, sub rezerva unor garanţii adecvate pentru drepturile şi libertăţile terţilor, cu excepţia cazului în care aceste sisteme sunt disponibile publicului pentru a denunţa o infracţiune.
(2)Furnizorii de sisteme de IA, inclusiv de sisteme de IA de uz general, care generează conţinut sintetic în format audio, imagine, video sau text, se asigură că rezultatele sistemului de IA sunt marcate într-un format prelucrabil automat şi detectabile ca fiind generate sau manipulate artificial. Furnizorii se asigură că soluţiile lor tehnice sunt eficace, interoperabile, solide şi fiabile, în măsura în care acest lucru este fezabil din punct de vedere tehnic, ţinând seama de particularităţile şi limitările diferitelor tipuri de conţinut, de costurile de punere în aplicare şi de stadiul de avansare general recunoscut al tehnologiei, astfel cum poate fi reflectat în standardele tehnice relevante. Această obligaţie nu se aplică în măsura în care sistemele de IA îndeplinesc o funcţie de asistare pentru editarea standard sau nu modifică în mod substanţial datele de intrare furnizate de implementator sau semantica acestora sau în cazul în care sunt autorizate prin lege să depisteze, să prevină, să investigheze sau să urmărească penal infracţiunile.
(3)Implementatorii unui sistem de recunoaştere a emoţiilor sau ai unui sistem de clasificare biometrică informează persoanele fizice expuse sistemului respectiv cu privire la funcţionarea acestuia şi prelucrează datele cu caracter personal în conformitate cu Regulamentele (UE) 2016/679 şi (UE) 2018/1725 şi cu Directiva (UE) 2016/680, după caz. Această obligaţie nu se aplică sistemelor de IA utilizate pentru clasificarea biometrică şi recunoaşterea emoţiilor, care sunt autorizate prin lege să depisteze, să prevină sau să investigheze infracţiunile, sub rezerva unor garanţii adecvate pentru drepturile şi libertăţile terţilor şi în conformitate cu dreptul Uniunii.
(4)Implementatorii unui sistem de IA care generează sau manipulează imagini, conţinuturi audio sau video care constituie deepfake-uri dezvăluie faptul că respectivul conţinut a fost generat sau manipulat artificial. Această obligaţie nu se aplică în cazul în care utilizarea este autorizată prin lege pentru depistarea, prevenirea, investigarea sau urmărirea penală a infracţiunilor. În cazul în care conţinutul face parte dintr-o operă sau dintr-un program de o vădită natură artistică, creativă, satirică, fictivă sau analogă, obligaţiile de transparenţă prevăzute la prezentul alineat se limitează la divulgarea existenţei unui astfel de conţinut generat sau manipulat într-un mod adecvat, care să nu împiedice afişarea sau receptarea operei.
Implementatorii unui sistem de IA care generează sau manipulează texte publicate cu scopul de a informa publicul cu privire la chestiuni de interes public dezvăluie faptul că textul a fost generat sau manipulat artificial. Această obligaţie nu se aplică în cazul în care utilizarea este autorizată prin lege pentru a depista, a preveni, a investiga sau a urmări penal infracţiunile sau în cazul în care conţinutul generat de IA a fost supus unui proces de verificare editorială sau revizuire umană şi responsabilitatea editorială pentru publicarea conţinutului este deţinută de o persoană fizică sau juridică.
(5)Informaţiile menţionate la alineatele (1)-(4) sunt furnizate persoanelor fizice în cauză într-un mod clar şi distinct, cel târziu în momentul primei interacţiuni sau al primei expuneri. Informaţiile trebuie să respecte cerinţele de accesibilitate aplicabile.
(6)Alineatele (1)-(4) nu aduc atingere cerinţelor şi obligaţiilor prevăzute în capitolul III şi nici altor obligaţii de transparenţă pentru implementatorii de sisteme de IA prevăzute în dreptul Uniunii sau în dreptul intern.
(7)Oficiul pentru IA încurajează şi facilitează elaborarea de coduri de bune practici la nivelul Uniunii pentru a facilita punerea în aplicare efectivă a obligaţiilor privind depistarea şi etichetarea conţinutului generat sau manipulat artificial. Comisia poate să adopte acte de punere în aplicare pentru a aproba respectivele coduri de bune practici în conformitate cu procedura prevăzută la articolul 56 alineatul (6). În cazul în care consideră că codul nu este adecvat, Comisia poate să adopte un act de punere în aplicare care să precizeze normele comune pentru punerea în aplicare a obligaţiilor respective, în conformitate cu procedura de examinare prevăzută la articolul 98 alineatul (2).