Art. 14. - Art. 14: Supravegherea umană - Regulamentul 1689/13-iun-2024 de stabilire a unor norme armonizate privind inteligenţa artificială şi de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 şi (UE) 2019/2144 şi a Directivelor 2014/90/UE, (UE) 2016/797 şi (UE) 2020/1828 (Regulamentul privind inteligenţa artificială)
Acte UE
Jurnalul Oficial seria L
Neintrat în vigoare Versiune de la: 12 Iulie 2024
Art. 14: Supravegherea umană
(1)Sistemele de IA cu grad ridicat de risc sunt proiectate şi dezvoltate astfel încât, prin includerea de instrumente adecvate de interfaţă om-maşină, să poată fi supravegheate în mod eficace de către persoane fizice în perioada în care sunt utilizate.
(2)Supravegherea umană are ca scop prevenirea sau reducerea la minimum a riscurilor pentru sănătate, siguranţă sau pentru drepturile fundamentale, care pot apărea atunci când un sistem de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat sau în condiţii de utilizare necorespunzătoare previzibilă în mod rezonabil, în special în cazurile în care astfel de riscuri persistă în pofida aplicării altor cerinţe prevăzute în prezenta secţiune.
(3)Măsurile de supraveghere sunt proporţionale cu riscurile specifice, cu nivelul de autonomie şi cu contextul utilizării sistemului de IA cu grad ridicat de risc şi se asigură fie prin unul dintre următoarele tipuri de măsuri, fie prin ambele:
a)măsuri identificate şi încorporate, atunci când este fezabil din punct de vedere tehnic, în sistemul de IA cu grad ridicat de risc de către furnizor înainte ca acesta să fie introdus pe piaţă sau pus în funcţiune;
b)măsuri identificate de furnizor înainte de introducerea pe piaţă sau punerea în funcţiune a sistemului de IA cu grad ridicat de risc şi care sunt adecvate pentru a fi puse în aplicare de implementator.
(4)În scopul punerii în aplicare a alineatelor (1), (2) şi (3), sistemul de IA cu grad ridicat de risc este pus la dispoziţia implementatorului astfel încât persoanelor fizice cărora li se încredinţează supravegherea umană să li se permită, în funcţie de următoarele şi proporţional cu acestea:
a)să înţeleagă în mod corespunzător capacităţile şi limitările relevante ale sistemului de IA cu grad ridicat de risc şi să fie în măsură să monitorizeze în mod corespunzător funcţionarea acestuia, inclusiv în vederea depistării şi abordării anomaliilor, disfuncţionalităţilor şi performanţelor neaşteptate;
b)să rămână conştiente de posibila tendinţă de a se baza în mod automat sau excesiv pe rezultatele obţinute de un sistem de IA cu grad ridicat de risc (prejudecăţi legate de automatizare), în special în cazul sistemelor de IA cu grad ridicat de risc utilizate pentru a furniza informaţii sau recomandări pentru deciziile care urmează să fie luate de persoanele fizice;
c)să interpreteze corect rezultatele sistemului de IA cu grad ridicat de risc, ţinând seama, de exemplu, de instrumentele şi metodele de interpretare disponibile;
d)să decidă, în orice situaţie anume, să nu utilizeze sistemul de IA cu grad ridicat de risc sau să ignore, să anuleze sau să inverseze rezultatele sistemului de IA cu grad ridicat de risc;
e)să intervină în funcţionarea sistemului de IA cu grad ridicat de risc sau să întrerupă sistemul prin intermediul unui buton "stop" sau al unei proceduri similare care să permită sistemului să se oprească în condiţii de siguranţă.
(5)În cazul sistemelor de IA cu grad ridicat de risc menţionate în anexa III punctul 1 litera (a), măsurile menţionate la alineatul (3) de la prezentul articol sunt de aşa natură încât să asigure că, în plus, implementatorul nu ia nicio măsură sau decizie pe baza identificării care rezultă din sistem, cu excepţia cazului în care identificarea respectivă a fost verificată şi confirmată separat de cel puţin două persoane fizice care au competenţa, pregătirea şi autoritatea necesare.
Cerinţa unei verificări separate de către cel puţin două persoane fizice nu se aplică sistemelor de IA cu grad ridicat de risc utilizate în scopul aplicării legii sau în domeniul imigraţiei, al controlului la frontiere ori al azilului, în cazurile în care dreptul Uniunii sau dreptul intern consideră că aplicarea acestei cerinţe este disproporţionată.