Année
2025
Auteurs
PRAT Nicolas, KRISHNAN Ramayya, LALOR John P., ABBASI Ahmed
Abstract
Les progrès rapides dans le développement et l’adoption de l’intelligence artificielle (IA) ont accéléré le besoin d’une IA fiable et responsable (IAFR). Les politiques et cadres nationaux/internationaux de gouvernance et de gestion des risques liés à l’IA ont identifié un ensemble de principes fondamentaux pour l’IAFR, notamment l’équité, la sûreté, la confidentialité, la sécurité, la transparence, l’explicabilité et le déploiement responsable. Les processus/outils d’IA responsable (PIAR) sont des solutions conçues pour opérationnaliser et mettre en œuvre ces principes, servant de couche intermédiaire entre les principes et les processus réels intégrant l’IA. Ces dernières années, la conception des PIAR est apparue comme une voie importante pour les chercheurs en informatique et sciences sociales, les praticiens et les politiques. Nous mettons en évidence six axes de recherche importants pour la conception des PIAR. A l’aide d’une étude de cas réelle, nous décrivons l’importance de chaque axe de recherche et illustrons les défis actuels.
KRISHNAN, R., LALOR, J.P., PRAT, N. et ABBASI, A. (2025). From Policy to Practice: Research Directions for Trustworthy and Responsible Artificial Intelligence “By Design”. IEEE Intelligent Systems, 40(5), pp. 45-51.