Primele măsuri pentru reglementarea inteligenței artificiale
Eurodeputații au votat poziția de negociere privind inteligența artificială. Unele sisteme care folosesc IA ar putea fi interzise în Uniunea Europeană, odată ce statele membre vor ajunge la un acord.
Lica Manolache, 16.06.2023, 19:50
Parlamentul European (PE) a adoptat în această săptămână poziţia de negociere referitoare la Legea privind inteligența artificială (Actul IA) cu 499 voturi pentru, 28 împotrivă şi 93 abțineri, prin care sunt stabilite norme menite să garanteze o IA sigură şi transparentă.
Reglementările propuse impun responsabilități atât furnizorilor, cât și utilizatorilor în funcție de nivelul de risc asociat cu inteligența artificială. Chiar dacă multe sisteme de IA prezintă un risc minim, acestea trebuie supuse unei evaluări.
Actul IA include împarte sistemele de inteligență artificială în mai multe categorii, în funcție de nivelul de risc la care sunt supuși cei care le accesează. În prima categorie sunt sistemele IA cu “risc inacceptabil”, văzute ca o amenințare pentru oameni, drept pentru care vor fi interzise. Potrivit PE, riscurile inacceptabile sunt:
Manipularea cognitiv-comportamentală a persoanelor sau a anumitor grupuri vulnerabile: de exemplu jucării activate prin voce care încurajează comportamentul periculos la copii;
Scorul social: clasificarea persoanelor în funcție de comportament, statut socio-economic sau caracteristici personale;
Sisteme de identificare biometrică în timp real și la distanță, cum ar fi recunoașterea facială.
Însă, pot exista și unele excepții cum ar fi sistemele de identificare biometrică la distanță ulterioare” – în care identificarea are loc după trecerea unei perioade semnificative de timp. Acestea vor fi permise pentru a urmări infracțiuni grave, dar numai cu aprobarea instanței.
Sistemele cu “risc ridicat”, cele care lezează siguranța sau drepturile fundamentale ale cetățenilor au fost împărțite în două clase de către eurodeputați. Prima clasă include sistemele IA utilizate în produsele care intră sub incidența legislației UE privind siguranța produselor, utilizate pentru jucării, aviație, mașini, dispozitive medicale și ascensoare.
A doua clasă vizează sisteme care trebuie înregistrate într-o bază de date a UE precum:
Identificarea și clasificarea biometrică a persoanelor fizice;
Managementul și operarea infrastructurii critice;
Educație și formare profesională;
Ocuparea forței de muncă, managementul lucrătorilor și accesul la activități independente;
Accesul și folosirea unor servicii private esențiale, precum și a unor servicii și beneficii publice;
Aplicarea legii;
Gestionarea migrației, azilului și controlului la frontieră;
Asistența în interpretarea și aplicarea legii.
O altă categorie vizează sistemele de inteligență artificială cu risc limitat care vor fi obligate să respecte cerințe minime de transparență pentru a permite utilizatorilor să ia decizii informate. Tot aceștia vor putea decide dacă doresc să le continue utilizarea, după interacțiunea cu aplicațiile. Totodată, utilizatorii trebuie să fie informați în momentul interacțiunii cu sistemele IA, cerință ce se aplică inclusiv sistemelor de IA care generează sau manipulează imagini, conținut audio sau video, cum ar fi deepfakes – conținut digital care creează false identități cu aspect realist.
Nu în ultimul rând, poziția Parlamentului European prevede și reglementarea inteligenței artificiale generative, precum popularul ChatGPT care va trebui, de asemenea, să se conformeze cerințelor de transparență. Sisteme de acest tip vor trebui să țină cont de următoarele cerințe:
Menționarea faptului că un conținut a fost generat de IA;
Proiectarea modelului pentru a preveni generarea de conținut ilegal;
Publicarea de rezumate ale datelor protejate prin drepturi de autor utilizate pentru instruire.
Poziția forului legislativ european pune bazele pentru discuțiile ulterioare cu statele membre ale UE ce vor aduce forma finală a legii, obiectul fiind obținerea unui acord în Consiliul UE până la finalul acestui an.