Secţiunea 1 - Clasificarea sistemelor de IA ca prezentând un risc ridicat - Regulamentul 1689/13-iun-2024 de stabilire a unor norme armonizate privind inteligenţa artificială şi de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 şi (UE) 2019/2144 şi a Directivelor 2014/90/UE, (UE) 2016/797 şi (UE) 2020/1828 (Regulamentul privind inteligenţa artificială)
Acte UE
Jurnalul Oficial seria L
Neintrat în vigoare Versiune de la: 12 Iulie 2024
SECŢIUNEA 1:Clasificarea sistemelor de IA ca prezentând un risc ridicat
Art. 6: Norme de clasificare pentru sistemele de IA cu grad ridicat de risc
(1)Indiferent dacă un sistem de IA este introdus pe piaţă sau pus în funcţiune independent de produsele menţionate la literele (a) şi (b), respectivul sistem de IA este considerat ca prezentând un grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiţii:
a)sistemul de IA este destinat a fi utilizat ca o componentă de siguranţă a unui produs sau sistemul de IA este el însuşi un produs care face obiectul legislaţiei de armonizare a Uniunii care figurează în anexa I;
b)produsul a cărui componentă de siguranţă în temeiul literei (a) este sistemul de IA sau sistemul de IA în sine ca produs trebuie să fie supus unei evaluări a conformităţii de către o terţă parte, în vederea introducerii pe piaţă sau a punerii în funcţiune a produsului respectiv în temeiul legislaţiei de armonizare a Uniunii care figurează în anexa I.
(2)Sistemele de IA menţionate în anexa III sunt considerate, pe lângă sistemele de IA cu grad ridicat de risc menţionate la alineatul (1), ca prezentând un grad ridicat de risc.
(3)Prin derogare de la alineatul (2), un sistem de IA menţionat în anexa III nu poate fi considerat ca prezentând un grad ridicat de risc dacă nu prezintă un risc semnificativ de a aduce prejudicii sănătăţii, siguranţei sau drepturilor fundamentale ale persoanelor fizice, inclusiv prin faptul că nu influenţează în mod semnificativ rezultatul procesului decizional.
Primul paragraf se aplică în cazul în care oricare dintre următoarele condiţii este îndeplinită:
a)sistemul de IA este destinat să îndeplinească o sarcină procedurală restrânsă;
b)sistemul de IA este destinat să îmbunătăţească rezultatul unei activităţi umane finalizate anterior;
c)sistemul de IA este destinat să depisteze modelele decizionale sau abaterile de la modelele decizionale anterioare şi nu este menit să înlocuiască sau să influenţeze evaluarea umană finalizată anterior, fără o revizuire umană adecvată; sau
d)sistemul de IA este destinat să îndeplinească o sarcină pregătitoare pentru o evaluare relevantă în scopul cazurilor de utilizare enumerate în anexa III.
În pofida primului paragraf, un sistem de IA menţionat în anexa III este întotdeauna considerat ca prezentând un grad ridicat de risc dacă creează profiluri ale persoanelor fizice.
(4)Orice furnizor care consideră că un sistem de IA menţionat în anexa III nu prezintă un grad ridicat de risc documentează evaluarea sa înainte ca sistemul respectiv să fie introdus pe piaţă sau pus în funcţiune. Furnizorul respectiv este supus obligaţiei de înregistrare prevăzute la articolul 49 alineatul (2). La cererea autorităţilor naţionale competente, furnizorul pune la dispoziţie dovezile documentare în sprijinul evaluării.
(5)După consultarea Consiliului european pentru inteligenţa artificială (denumit în continuare "Consiliul IA") şi în termen de cel mult 2 februarie 2026, Comisia furnizează orientări care precizează modalităţile privind punerea în aplicare practică a prezentului articol, în conformitate cu articolul 96, împreună cu o listă cuprinzătoare de exemple practice de cazuri de utilizare a sistemelor de IA care prezintă un grad ridicat de risc şi a celor care nu prezintă un grad ridicat de risc.
(6)Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica alineatul (3) al doilea paragraf de la prezentul articol prin adăugarea de noi condiţii faţă de cele prevăzute la dispoziţia menţionată sau prin modificarea acestora, în cazul în care există dovezi concrete şi fiabile ale existenţei unor sisteme de IA care intră în domeniul de aplicare al anexei III, dar care nu prezintă un risc semnificativ de a aduce prejudicii sănătăţii, siguranţei sau drepturilor fundamentale ale persoanelor fizice.
(7)Comisia adoptă acte delegate în conformitate cu articolul 97 pentru a modifica alineatul (3) al doilea paragraf de la prezentul articol prin eliminarea oricăreia dintre condiţiile prevăzute la dispoziţia menţionată, în cazul în care există dovezi concrete şi fiabile că acest lucru este necesar în scopul menţinerii nivelului de protecţie a sănătăţii, a siguranţei şi a drepturilor fundamentale prevăzut în prezentul regulament.
(8)Orice modificare a condiţiilor prevăzute la alineatul (3) al doilea paragraf, adoptată în conformitate cu alineatele (6) şi (7) de la prezentul articol, nu reduce nivelul general de protecţie a sănătăţii, a siguranţei şi a drepturilor fundamentale prevăzut în prezentul regulament şi asigură corelarea cu actele delegate adoptate în temeiul articolului 7 alineatul (1) şi ţine seama de evoluţiile pieţei şi ale tehnologiei.
Art. 7: Modificări ale anexei III
(1)Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica anexa III prin adăugarea de cazuri de utilizare a sistemelor de IA cu grad ridicat de risc sau prin modificarea unor astfel de cazuri dacă sunt îndeplinite cumulativ următoarele două condiţii:
a)sistemele de IA sunt destinate a fi utilizate în oricare dintre domeniile enumerate în anexa III;
b)sistemele de IA prezintă un risc de a aduce prejudicii sănătăţii şi siguranţei sau un risc de impact negativ asupra drepturilor fundamentale, iar riscul respectiv este echivalent sau mai mare în raport cu riscul de a aduce prejudicii sau de a provoca un impact negativ prezentat de sistemele de IA cu grad ridicat de risc deja menţionate în anexa III.
(2)Atunci când evaluează condiţia prevăzută la alineatul (1) litera (b), Comisia ia în considerare următoarele criterii:
a)scopul preconizat al sistemului de IA;
b)măsura în care a fost utilizat sau este probabil să fie utilizat un sistem de IA;
c)natura şi volumul datelor prelucrate şi utilizate de sistemul de IA, în special dacă sunt prelucrate categorii speciale de date cu caracter personal;
d)măsura în care sistemul de IA acţionează în mod autonom şi posibilitatea ca o persoană să anuleze o decizie sau recomandări care atrag un potenţial prejudiciu;
e)măsura în care utilizarea unui sistem de IA a adus deja prejudicii sănătăţii şi siguranţei, a avut un impact negativ asupra drepturilor fundamentale sau a generat motive de îngrijorare semnificative în ceea ce priveşte probabilitatea unor astfel de prejudicii sau a unui astfel de impact negativ, astfel cum o demonstrează, de exemplu, rapoartele sau acuzaţiile documentate prezentate autorităţilor naţionale competente sau alte rapoarte, după caz;
f)amploarea potenţială a unor astfel de prejudicii sau a unui astfel de impact negativ, în special în ceea ce priveşte intensitatea şi capacitatea sa de a afecta numeroase persoane sau de a afecta în mod disproporţionat un anumit grup de persoane;
g)măsura în care persoanele care sunt potenţial prejudiciate sau afectate de un impact negativ depind de rezultatul produs cu ajutorul unui sistem de IA, în special deoarece, din motive practice sau juridice, nu este posibil în mod rezonabil să se renunţe la rezultatul respectiv;
h)măsura în care există un dezechilibru de putere sau persoanele care sunt potenţial prejudiciate sau afectate de impactul negativ se află într-o poziţie vulnerabilă în raport cu implementatorul unui sistem de IA, în special din cauza statutului, a autorităţii, a cunoştinţelor, a circumstanţelor economice sau sociale sau a vârstei;
i)măsura în care rezultatul produs cu implicarea unui sistem de IA este uşor de corectat sau reversibil, avându-se în vedere soluţiile tehnice disponibile pentru corectare sau reversare şi dat fiind că rezultatele care au un impact negativ asupra sănătăţii, siguranţei sau drepturilor fundamentale nu sunt considerate ca fiind uşor de corectat sau reversibile;
j)amploarea şi probabilitatea beneficiilor implementării sistemului de IA pentru persoane fizice, grupuri sau societate în general, inclusiv îmbunătăţirile posibile ale siguranţei produselor;
k)măsura în care dreptul existent al Uniunii prevede:
(i)măsuri reparatorii eficace în legătură cu riscurile prezentate de un sistem de IA, cu excepţia cererilor de despăgubiri;
(ii)măsuri eficace de prevenire sau de reducere substanţială a acestor riscuri.
(3)Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica lista din anexa III prin eliminarea de sisteme de IA cu grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiţii:
a)sistemul de IA cu grad ridicat de risc în cauză nu mai prezintă riscuri semnificative pentru drepturile fundamentale, sănătate sau siguranţă, ţinând seama de criteriile enumerate la alineatul (2);
b)eliminarea nu reduce nivelul general de protecţie a sănătăţii, siguranţei şi drepturilor fundamentale în temeiul dreptului Uniunii.