Comme les applications d’IA sont de plus en plus omniprésentes, les exigences en matière de responsabilisation et caractère explicable des systèmes d’IA ont augmenté. Malgré certaines évolutions réglementaires, il y a peu d’indications sur ce qui pourrait constituer une « explication » rigoureuse acceptable. En l’absence de clarté sur ce qui pourrait constituer une explication satisfaisante, et avec le développement d’une IA plus complexe, le respect des exigences non définies en matière de caractère explicable représente un défi difficile à relever tant pour les organismes de réglementation que pour le secteur.