L’intelligenza artificiale, studiata alla Facoltà di Filosofia dell’Università di Bucarest
Recentemente, la Facoltà di Filosofia dell'Università di Bucarest, tramite il Centro di Ricerca sull'Etica Applicata (CCEA), ha ottenuto un finanziamento europeo di 1,5 milioni di euro, attraverso il programma Horizon, per il progetto avataResponsibility.
Christine Leșcu, 05.11.2023, 10:10
Recentemente, la Facoltà di Filosofia dell’Università di Bucarest, tramite il Centro di Ricerca sull’Etica Applicata (CCEA), ha ottenuto un finanziamento europeo di 1,5 milioni di euro, attraverso il programma Horizon, per il progetto avataResponsibility. La squadra coordinatrice ha ottenuto questi fondi dal Consiglio Europeo della Ricerca, dopo aver vinto il prestigioso concorso europeo ERC Starting Grant, edizione 2023, che ha una percentuale di successo di solo il 15%. Il progetto avataResponsibility, che dovrebbe svolgersi tra gennaio 2024 e dicembre 2028, esamina la possibilità della responsabilità etica nell’intelligenza artificiale (AI).
Mihaela Constantinescu, la coordinatrice del progetto, ci ha fornito maggiori dettagli. Fondamentalmente, nel progetto ci concentriamo su un ambito di nicchia dell’intelligenza artificiale, l’etica dell’intelligenza artificiale, ovvero l’etica degli avatar dotati di intelligenza artificiale. E non stiamo esaminando solo il modo in cui vengono utilizzati gli avatar con intelligenza artificiale, ma anche il modo in cui sono progettati, quali dovrebbero essere effettivamente i requisiti alla base della loro progettazione e i requisiti attinenti piutosto alla regolamentazione e alle politiche pubbliche. Catturiamo tutte queste dimensioni, guardiamo in primo luogo al ruolo delle organizzazioni, perché spesso sono le grandi aziende a sviluppare tali avatar, sia che si parli dello spazio digitale aumentato che della variante robotica nello spazio fisico. E partiamo dal presupposto che nei prossimi 5-10 anni tutte le tecnologie che rendono possibili gli avatar diventeranno convergenti. Probabilmente prenderà il via l’Internet delle cose, di cui si parla da tempo, cioè l’interazione tra possibili entità dotate di intelligenza artificiale. Non si tratterà più solo di Internet che connette le persone, bensì dell’Internet che connette le cose nello spazio fisico. Ma oltre allo spazio fisico, si parlerà anche di realtà aumentata, ad esempio, attraverso gli occhiali che molte aziende già producono, occhiali che indossiamo per strada e che ci permettono di visualizzare alcuni elementi digitali nello spazio fisico. E un’altra dimensione che appartiene all’ambito strettamente virtuale delle varie forme di metaversi riguarda la nostra proiezione in questi spazi virtuali attraverso l’avatar, perché è così che potremo interagire in quegli spazi, spiega Mihaela Constantinescu.
Piuttosto che il rischio, ancora poco plausibile, che gli avatar dell’intelligenza artificiale diventino autonomi, il progetto del centro di ricerca della Facoltà di Filosofia mira a scoprire in che misura i programmatori di tipi di intelligenza artificiale si attengono a principi morali generalmente validi. Mihaela Constantinescu parla anche di altri scopi del progetto avataResponsibility.
Vogliamo scoprire quali sono le implicazioni dell’uso degli avatar, ad esempio, per vedere, in definitiva, chi ha la responsabilità morale, chi è biasimevole o, al contrario, può ricevere elogi per ciò che accade attraverso gli avatar. Stiamo valutando con molta attenzione cosa possiamo fare per non perdere quella connessione tra chi c’è dietro un avatar e ciò che accade attraverso l’avatar, affinché la responsabilità di chi sta effettivamente dirigendo l’avatar non si perda, non si diffonda . (…) Ci sono davvero iniziative di ricerca che stanno tentando di allargare i confini in quest’area, per creare ancora più autonomia per un avatar, sia che si parli di un avatar digitale, di un avatar di realtà aumentata o di un avatar robotico. E stiamo anche esaminando i limiti che dovrebbero essere imposti, anche attraverso la regolamentazione, a tali sviluppi, conclude la nostra ospite.
Al termine dei cinque anni, il progetto avataResponsibility intende anche fornire raccomandazioni per un quadro normativo per la responsabilità morale dell’intelligenza artificiale.