Inteligența artificială studiată la Facultatea de Filosofie din București
Preconizat să se desfășoare în perioada ianuarie 2024 și decembrie 2028, proiectul avataResponsibility analizează posibilitatea responsabilității etice a Inteligenței Artificiale.
Christine Leșcu, 01.11.2023, 10:00
Recent, Facultatea de Filosofie a Universității București, prin Centrul de Cercetare în Etică Aplicată (CCEA), a obținut o finanțare europeană de 1,5 milioane de euro, prin programul Orizont (Horizon), pentru proiectul avataResponsibility. Echipa coordonatoare a obținut aceste fonduri de la Consiliul European pentru Cercetare, în urma câștigării prestigioasei competiții europene ERC Starting Grant, ediția 2023, competiție care are o rată de succes de numai 15%.
Preconizat să se desfășoare în perioada ianuarie 2024 și decembrie 2028, proiectul avataResponsibility analizează posibilitatea responsabilității etice a Inteligenței Artificiale (AI). Amănunte ne oferă acum Mihaela Constantinescu, coordonatoarea proiectului:
Practic, în proiect ne concentrăm pe o zonă de nișă a inteligenței artificiale, a eticii inteligenței artificiale, și anume etica avatarurilor dotate cu inteligență artificială. Și ne uităm nu doar la modul în care sunt utilizate avatarurile cu inteligența artificială, dar și cum sunt proiectate, care ar trebui să fie, de fapt, cerințele din spatele proiectării acestora și eventuale cerințe care țin, mai degrabă, de reglementare și politici publice. Prindem toate aceste dimensiuni, ne uităm la rolul organizațiilor în primul rând pentru că adesea marile corporații sunt cele care dezvoltă astfel de avataruri, fie că vorbim de spațiul digital augmentat sau de varianta robotică din spațiul fizic. Și pornim de la premisa că în următorii 5-10 ani, toate tehnologiile care fac posibile avatarurile vor deveni convergente.
Va lua probabil amploare Internetul lucrurilor sau internet of things despre care vorbim de ceva vreme, adică interacțiunea dintre eventuale entități dotate cu inteligență artificială. Nu va mai fi vorba doar de internetul care conectează oameni. E vorba de internetul care conectează lucruri în spațiul fizic. Dar dincolo de spațiul fizic, vom vorbi și de o realitate augmentată, de pildă, prin intermediul ochelarilor pe care deja îi produc multe companii, ochelari pe care îi purtăm pe stradă și care ne permit o afișare a unor elemente digitale în spațiul fizic. Iar o altă dimensiune care ține de zona strict virtuală a diferitelor forme de metaversuri va ține de proiecția noastră în aceste spații virtuale prin intermediul avatarului, pentru că așa vom putea interacționa în acele spații.
Mai degrabă decât riscul încă neplauzibil ca avatarurile AI să devină autonome din punct de vedere etic, proiectul centrului de cercetare al Facultății de Filosofie își propune să afle în ce măsură cei care programează tipurile de inteligență artificială respectă niște principii morale general valabile. În plus, Mihaela Constantinescu oferă și alte scopuri ale proiectului avataResponsibility:
Care vor fi implicațiile utilizării avatarurilor, de pildă, pentru a vedea, în definitiv, cine poartă responsabilitate morală, cine este blamabil sau, dimpotrivă, poate primi laude pentru ceea ce se întâmplă prin intermediul avatarurilor. Ne uităm foarte atent la ce putem face pentru a nu se pierde această conexiune dintre cine este în spatele unui avatar și ce se întâmplă prin intermediul avatarului, astfel încât responsabilitatea celui care, de fapt, direcționează avatarul să nu se piardă, să devină difuză. (…) Sunt într-adevăr inițiative de cercetare care încearcă să împingă granițele în această zonă de a crea și mai multă autonomie unui avatar. Fie că vorbim de un avatar digital, unul de realitate augmentată sau un avatar robotic. Și noi ne uităm și la limitele care ar trebui impuse, inclusiv prin reglementare, unor astfel de astfel de dezvoltări. (…) Acesta este cadrul de fapt pe care cadrul normativ de responsabilitate morală pe care ne dorim să le livrăm la finalul proiectului, care va dura cinci ani.