La data de 13 iunie 2024 a fost adoptat AI Act, prin Regulamentul (UE) 2024/1689 (publicat la 12 iulie 2024), care are ca scop reglementarea utilizării inteligenței artificiale (AI), asigurând un mod de utilizare sigur, transparent și etic. Regulamentul urmărește să garanteze că sistemele de inteligență artificială introduse pe piața europeană și utilizate în UE sunt sigure, respectă drepturile fundamentale și valorile Uniunii și încurajează investițiile și inovația în acest sector în Europa.
Cui i se adresează
Părțile vizate de Regulament sunt:
- Furnizorii și utilizatorii (deployer) de inteligență artificială (AI) în Uniunea Europeană;
- Furnizorii și utilizatorii din afara UE ale căror rezultate generate de sistemele de inteligență artificială sunt destinate utilizării în Uniunea Europeană;
- Importatorii și distribuitorii de sisteme AI.
Totuși, Regulamentul „AI Act” nu se aplică sistemelor de AI utilizate în scopuri militare, de cercetare și dezvoltare științifică, în uzuri neprofesionale, sau, parțial, sistemelor cu licență open source și licență deschisă.
Principalele noutăți ale Regulamentului privind Inteligența artificială
Se introduc o serie de obligații pentru dezvoltatorii de sisteme AI, precum:
- Evaluarea riscurilor: toate sistemele AI trebuie să fie supuse unei evaluări a riscurilor, în funcție de potențialul lor impact decizional;
- Introducerea unor categorii de sisteme AI, împărțite în 4 niveluri, în funcție de nivelul de risc:
- Risc inacceptabil: interzise;
- Risc ridicat: sistemele AI trebuie să respecte cerințe stricte, cum ar fi norme armonizate și obligații de supraveghere din partea autorităților competente;
- Risc limitat: trebuie respectate obligații de transparență, precum furnizarea de informații clare și ușor accesibile utilizatorului final;
- Risc minim: nu sunt supuse unor obligații specifice;Rischio inaccettabile: vietati;
- Marcaj CE: sistemele de inteligență artificială cu risc ridicat trebuie să poarte marcajul CE înainte de a fi introduse pe piață;
- Gestionarea datelor: reguli stricte privind colectarea, gestionarea și stocarea datelor utilizate pentru dezvoltarea și utilizarea sistemelor AI;
- Transparență: obligația furnizorilor de a oferi utilizatorilor finali informații clare și accesibile cu privire la capacitățile, limitările și riscurile potențiale ale sistemului AI.
În ceea ce privește nivelul de risc, exemple de utilizări ale sistemelor de inteligență artificială cu risc ridicat includ:
- Infrastructuri precum energie, transport, apă, gaz și alte rețele esențiale;
- Domeniul educației și formării profesionale;
- Servicii publice esențiale, precum asistența medicală, protecția socială și serviciile financiare;
- Identificarea biometrică a persoanelor în spații publice, supravegherea și controlul;
- Securitatea produselor, precum dispozitivele medicale și vehiculele autonome;
- Sisteme care pot manipula vulnerabilitatea persoanelor, în funcție de vârstă, dizabilități, condiții sociale sau economice;
- Atribuirea de scoruri sociale persoanelor, pe baza comportamentului, caracteristicilor personale sau a evaluărilor care pot conduce la discriminări.
Ce se schimbă pentru companii și aplicarea Regulamentului
Regulamentul, odată intrat în vigoare, va avea un impact atât asupra companiilor, cât și asupra instituțiilor publice și dezvoltatorilor care operează cu sisteme AI. Datele importante sunt:
- 01/08/2024: intrarea în vigoare a Regulamentului (la 20 de zile după publicarea în Monitorul Oficial);
- 02/02/2025: intră în aplicare prevederile privind practicile interzise de utilizare a AI;
- 02/08/2025: se aplică dispozițiile referitoare la autoritățile naționale de notificare, devin aplicabile modelele de AI cu scop general, guvernanța, sancțiunile (cu excepția sancțiunilor financiare pentru furnizorii de modele IA cu scop general) și confidențialitatea informațiilor;
- 02/08/2026: se aplică toate secțiunile Regulamentului, cu excepția celor menționate la punctul următor;
- 02/08/2027: devin aplicabile obligațiile pentru sistemele cu risc ridicat, produse sau componente conform articolului 6, alineatul 1.
Companiile, instituțiile și dezvoltatorii vor trebui așadar să implementeze documentație tehnică adecvată pentru a evalua riscurile, conformitatea, măsurile de siguranță și protecția datelor, pentru a evita riscuri legale și financiare.