Quelle responsabilité morale pour l’intelligence artificielle?
Etude à Bucarest sur les aspects éthiques de la réalité virtuelle, des avatars, de la réalité augmentée, des robots, de l'Internet des objets.etc.
Christine Leșcu, 19.11.2023, 07:11
Récemment,
la Faculté de Philosophie de Bucarest, par son Centre de recherche de l’éthique
appliquée, a obtenu un financement européen de 1 million et demi d’euros, via
le programme Horizon, pour développer un projet intitulé «
avataResponsibility ». Les fonds ont été alloués par le Conseil européen
pour la recherche à l’équipe roumaine qui a remporté l’édition 2023 de la
prestigieuse compétition européenne ERC Starting Grant, dont le taux de succès n’est que de 15 %.
Le projet roumain doit se dérouler de janvier 2024 à décembre 2028 et
il se propose d’examiner la responsabilité éthique de l’Intelligence
artificielle.
Mihaela Constantinescu coordinatrice du projet avataResponsibility:
« Pratiquement, ce projet vise une zone de niche de
l’intelligence artificielle, celle de l’éthique de l’intelligence artificielle
et notamment l’éthique des avatars dotés d’une intelligence artificielle. On
examine non seulement la manière dont les avatars sont utilisés par
l’intelligence artificielle, mais aussi la manière dont ils sont conçus et les
normes sur lesquelles devrait reposer leur création, sans oublier les
éventuelles demandes liées à la règlementation et aux politiques publiques à
mettre en place. On se penche donc sur toutes ces dimensions et sur le rôle des
organisations aussi, puisque souvent ce sont les grandes corporations celles
qui développent de tels avatars, que l’on parle du milieu numérique ou de la
variante robotique en milieu physique. O part de l’idée que d’ici 5 à 10 ans,
toutes les technologies qui rendent possibles les avatars seront convergentes.
Sans doute, l’Internet des objets – the internet of things, dont on parle
depuis un certain temps déjà – gagnera en ampleur. Il s’agit là de l’interaction
entre les éventuelles entités dotées d’intelligence artificielle. Il ne sera
plus question uniquement d’Internet en tant que lien entre les gens. Il s’agira
aussi d’Internet en tant que lien entre des objets existant dans l’espace
physique. Mais au-delà de l’espace physique, on parlera aussi d’une réalité
augmentée, par exemple, accessible à l’aide des lunettes produites déjà par de
nombreuses compagnies. Or ces lunettes seront portées dans la vie quotidienne
et afficheront des éléments numériques dans l’espace physique. Bref, c’est à
l’aide des avatars que nous pourrons interagir avec toutes ces réalités
virtuelles ».
Dans très peu de temps, l’univers réel et celui virtuel seront entremêlés dans
notre activité quotidienne.
Mais, puisque le risque qu’un avatar de
l’intelligence artificielle devienne autonome n’est pas encore plausible, les
chercheurs du Centre de la Faculté de
Philosophie de Bucarest se proposent de savoir en quelle mesure les
programmeurs de l’intelligence artificielle respectent les normes morales
généralement valables.
Et ce n’est pas tout. Le projet « avataResponsibility » a plusieurs autres objectifs
Mihaela Constantinescu : « Nous voulons savoir quelles sont les implications de
l’utilisation des avatars. Par exemple, pour voir qui en porte la
responsabilité morale, qui peut être tenu coupable ou au contraire, qui peut
être récompensé pour ce qui se passe à l’aide des avatars. Nous voulons définir
ce qu’il faut faire pour ne pas perdre la connexion entre celui qui se trouve
derrière un avatar et les actions de cet avatar, pour que la responsabilité,
qui appartient en fait à celui qui dirige l’avatar, ne se perde pas, ne se
dissipe pas. Effectivement, il y a des initiatives de recherche qui tentent de
pousser les frontières de cette zone et de donner davantage d’autonomie à un
avatar, qu’il soit numérique, de la réalité augmentée ou un robot. Alors, c’est
à nous d’examiner les limites à leur imposer, y compris par des règlementations
»
A la fin des 5 années d’étude, l’équipe du projet « avataResponsibility » se
propose de fournir au large public des recommandations pour créer un cadre
normatif de la responsabilité morale de l’intelligence artificielle. Apparemment,
l’avenir commence maintenant et il rime avec intelligence artificielle. (Trad. Valentina Beleavski)