O nouă etapă crucială pentru modelele de Inteligență Artificială (AI) de uz general

Regulamentul UE privind Inteligența Artificială (AI Act), prima legislație comprehensivă la nivel mondial dedicată reglementării dezvoltării și utilizării IA, intră într-o nouă fază importantă. Începând cu 2 august 2025, o a doua serie de prevederi devine aplicabilă, aducând obligații semnificative, în special pentru furnizorii de modele de IA de uz general (GPAI) și consolidând cadrul de guvernanță și aplicare a legii.

Deși aplicabilitatea integrală a AI Act este programată pentru 2 august 2026, implementarea sa se desfășoară în etape, permițând companiilor să-și adapteze treptat procesele. Prima serie de dispoziții, care includea prevederi generale privind alfabetizarea în IA și interzicerea anumitor practici considerate a implica riscuri inacceptabile, a intrat în vigoare la 2 februarie 2025.

A doua undă de Prevederi: Ce se schimbă de la 2 August 2025?

Data de 2 august 2025 marchează intrarea în vigoare a unor articole cheie din AI Act, esențiale pentru conturarea peisajului reglementar al IA în Uniunea Europeană. Acestea includ:

  • Reglementări privind organismele notificate (Capitolul III, Secțiunea 4).
  • Dispoziții referitoare la modelele de IA de uz general (GPAI) (Capitolul V).
  • Cadrele de guvernanță (Capitolul VII).
  • Angajamentele de confidențialitate pentru autoritățile de supraveghere și organismele notificate, cu scopul protejării proprietății intelectuale și a secretelor comerciale (Articolul 78).
  • Prevederi generale privind sancțiunile (Articolele 99 și 100) – deși aplicarea specifică a amenzilor pentru GPAI impuse de Comisia Europeană va intra în vigoare abia la 2 august 2026.

Modelele de IA de Uz General (GPAI): Un Punct Central

Unul dintre cele mai importante aspecte ale acestei noi etape este reglementarea modelelor de IA de uz general (GPAI). Acestea sunt definite ca modele IA capabile să îndeplinească o gamă largă de sarcini distincte, indiferent de modul în care sunt puse pe piață, și care pot fi integrate într-o varietate de sisteme sau aplicații. Un exemplu tipic este tehnologia care stă la baza ChatGPT sau a altor instrumente de generare de conținut (imagini, video).

Obligații Cheie pentru Furnizorii de Modele GPAI

Furnizorii de modele GPAI, adică persoanele sau entitățile care dezvoltă sau pun la dispoziție aceste modele pe piața UE, trebuie să respecte o serie de cerințe:

  • Menținerea unei documentații tehnice actualizate, disponibilă la cererea Oficiului UE pentru IA și a autorităților naționale competente.
  • Partajarea informațiilor relevante cu furnizorii de sisteme IA care utilizează modelele lor.
  • Implementarea unei politici de conformitate cu legislația UE privind drepturile de autor.
  • Publicarea unui rezumat al datelor utilizate pentru antrenarea modelului GPAI (Oficiul UE pentru IA lucrează la un șablon).
  • Desemnarea unui reprezentant legal în UE, dacă sediul furnizorului este în afara Uniunii.

Este crucial de reținut că furnizorii de modele GPAI lansate începând cu 2 august 2025 trebuie să se conformeze imediat. Pentru modelele GPAI lansate înainte de această dată, termenul de conformitate este 2 august 2027.

Excepții și Riscuri Sistemice

Anumite obligații nu se aplică modelelor GPAI lansate sub licență gratuită și open-source, cu condiția ca parametrii, arhitectura și informațiile de utilizare să fie disponibile public. Pe de altă parte, modelele GPAI care prezintă "riscuri sistemice" – adică riscuri de daune pe scară largă din partea celor mai avansate modele – sunt supuse unor obligații suplimentare. Acestea includ notificarea obligatorie către Comisia Europeană, evaluarea și atenuarea riscurilor sistemice, monitorizarea incidentelor grave și asigurarea securității cibernetice adecvate.

Codul de Practică Voluntar

La 10 iulie 2025, Oficiul UE pentru IA a publicat un Cod de Practică voluntar pentru furnizorii GPAI. Acesta acoperă transparența, drepturile de autor și siguranța, oferind o cale structurată pentru a demonstra conformitatea cu AI Act. Aderarea la acest cod, după ce este aprobat de Comisia Europeană și statele membre, va reduce sarcina administrativă și va spori securitatea juridică pentru furnizorii de modele IA.

Competența și supravegherea: rolul autorităților naționale

Până la 2 august 2025, statele membre UE au fost așteptate să își desemneze autoritățile naționale competente (inclusiv autorități de notificare și de supraveghere a pieței) și să comunice aceste desemnări Comisiei Europene, făcând publice detaliile de contact. Exemple din statele membre:

  • Romania:  a înființat Consiliul Științific și Etic pentru Inteligență Artificială în cadrul Ministerului Cercetării, Inovării și Digitalizării, format din experți români de renume, inclusiv din diaspora, care oferă expertiză în dezvoltarea politicilor IA.
  • Belgia: BIPT (Institutul Belgian pentru Servicii Poștale și Telecomunicații) este preconizat a fi desemnat regulator național.
  • Olanda: Autoritatea Olandeză pentru Protecția Datelor (AP) și Autoritatea Olandeză pentru Infrastructura Digitală (RDI) au propus să fie autorități de coordonare, cu alte organisme sectoriale (AFM, DNB, etc.) având responsabilități în domeniile lor de expertiză. Este subliniată necesitatea urgentă a unui cadru legal pentru cooperarea inter-agenții.
  • Luxemburg: Proiectul de lege nr. 8476 propune desemnarea CNPD (Comisia Națională pentru Protecția Datelor) ca autoritate națională competentă și punct de contact unic, cu reglementatori sectoriali menținând supravegherea în domeniile lor specifice.

Sancțiuni și Amenzi Conform AI Act

Până la 2 august 2025, statele membre au fost de asemenea așteptate să stabilească reguli mai specifice privind sancțiunile financiare și alte măsuri de aplicare pentru încălcările AI Act. Regulamentul în sine prevede deja amenzi administrative substanțiale:

  • Încălcări ale prevederilor privind sistemele IA interzise pot atrage amenzi de până la 35 de milioane EUR sau 7% din cifra de afaceri globală.
  • Încălcări ale altor prevederi specificate pot duce la amenzi de până la 15 milioane EUR sau 3% din cifra de afaceri globală.
  • Furnizarea de informații incorecte, incomplete sau înșelătoare către organismele notificate sau autoritățile naționale poate fi sancționată cu până la 7,5 milioane EUR sau 1% din cifra de afaceri globală.

În fiecare caz, se aplică suma cea mai mare dintre cele două, cu excepția IMM-urilor, pentru care se aplică suma cea mai mică. Aceste amenzi sunt impuse de instanțele naționale competente sau de reglementatori. Este important de reiterat că, deși obligațiile pentru modelele GPAI au intrat în vigoare la 2 august 2025, sancțiunile specifice pentru neconformitatea furnizorilor de GPAI (care pot fi impuse de Comisia Europeană) vor deveni aplicabile abia la 2 august 2026.

Această nouă etapă în aplicarea AI Act subliniază angajamentul Uniunii Europene de a crea un cadru juridic robust pentru inteligența artificială, echilibrând inovația cu protecția drepturilor fundamentale și siguranța publică. Companiile și dezvoltatorii de IA trebuie să rămână vigilenți și să își adapteze strategiile pentru a asigura conformitatea cu aceste noi reglementări.

Surse: EU AI Act: first regulation on artificial intelligence.

Keywords: Legea UE privind IA, Regulamentul AI Act, modele AI de uz general, riscuri sistemice IA, sancțiuni AI Act, conformitate AI, legislație inteligență artificială, guvernanță IA UE.

0/Post a Comment/Comments