Art. 27. - Art. 27: Evaluarea impactului sistemelor de IA cu grad ridicat de risc asupra drepturilor fundamentale - Regulamentul 1689/13-iun-2024 de stabilire a unor norme armonizate privind inteligenţa artificială şi de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 şi (UE) 2019/2144 şi a Directivelor 2014/90/UE, (UE) 2016/797 şi (UE) 2020/1828 (Regulamentul privind inteligenţa artificială)

Acte UE

Jurnalul Oficial seria L

Neintrat în vigoare
Versiune de la: 12 Iulie 2024
Art. 27: Evaluarea impactului sistemelor de IA cu grad ridicat de risc asupra drepturilor fundamentale
(1)Înainte de a implementa un sistem de IA cu grad ridicat de risc, astfel cum este menţionat la articolul 6 alineatul (2), cu excepţia sistemelor de IA cu grad ridicat de risc destinate a fi utilizate în domeniul menţionat la punctul 2 din anexa III, implementatorii care sunt organisme de drept public sau entităţi private care furnizează servicii publice şi implementatorii de sisteme de IA cu grad ridicat de risc menţionate la punctul 5 literele (b) şi (c) din anexa III efectuează o evaluare a impactului asupra drepturilor fundamentale pe care îl poate produce utilizarea unor astfel de sisteme. În acest scop, implementatorii efectuează o evaluare care constă în:
a)o descriere a proceselor implementatorului în care sistemele de IA cu grad ridicat de risc urmează a fi utilizate în conformitate cu scopul lor preconizat;
b)o descriere a perioadei de timp pentru care se intenţionează utilizarea fiecărui sistem de IA cu grad ridicat de risc, precum şi a frecvenţei utilizării respective;
c)categoriile de persoane fizice şi grupurile susceptibile a fi afectate de utilizarea sa în contextul specific;
d)riscurile specifice de prejudicii susceptibile a avea un impact asupra categoriilor de persoane fizice sau a grupurilor de persoane identificate în temeiul literei (c) de la prezentul alineat, ţinând seama de informaţiile comunicate de furnizor în temeiul articolului 13;
e)o descriere a punerii în aplicare a măsurilor de supraveghere umană, în conformitate cu instrucţiunile de utilizare;
f)măsurile care trebuie să fie luate în cazul în care riscurile respective se materializează, inclusiv mecanismele de guvernanţă internă şi mecanismele de tratare a plângerilor.
(2)Obligaţia prevăzută la alineatul (1) se aplică primei utilizări a sistemului de IA cu grad ridicat de risc. În cazuri similare, implementatorul poate să se bazeze pe evaluări ale impactului asupra drepturilor fundamentale efectuate anterior sau pe evaluări existente efectuate de furnizor. În cazul în care consideră că, în timpul utilizării sistemului de IA cu grad ridicat de risc, oricare dintre elementele enumerate la alineatul (1) s-a schimbat sau nu mai este actualizat, implementatorul ia măsurile necesare pentru a actualiza informaţiile.
(3)După efectuarea evaluării menţionate la alineatul (1) de la prezentul articol, implementatorul notifică autorităţii de supraveghere a pieţei rezultatele sale, transmiţând modelul completat menţionat la alineatul (5) de la prezentul articol ca parte a notificării. În cazul menţionat la articolul 46 alineatul (1), implementatorii pot fi scutiţi de această obligaţie de notificare.
(4)În cazul în care oricare dintre obligaţiile prevăzute la prezentul articol este deja respectată ca urmare a evaluării impactului asupra protecţiei datelor efectuate în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680, evaluarea impactului asupra drepturilor fundamentale menţionată la alineatul (1) de la prezentul articol completează respectiva evaluare a impactului asupra protecţiei datelor.
(5)Oficiul pentru IA elaborează un model de chestionar, inclusiv prin intermediul unui instrument automatizat, pentru a-i ajuta pe implementatori să îşi respecte obligaţiile care le revin în temeiul prezentului articol într-un mod simplificat.