« L’IA souffre encore d’un gros défaut : elle a du mal à expliquer ses décisions ! «
> Télécharger l’étude <
> Télécharger l’infographie <
L’IA souffre encore d’un gros défaut : elle a du mal à expliquer ses décisions ! Avec l’omniprésence de l’IA dans nos vies quotidiennes, ce manque d’explicabilité suscite plus de défis et de craintes, parfois exagérés, mais toujours légitimes. L’explicabilité reflète la capacité de transparence, d’interprétation et de certitude d’un algorithme et de ses résultats. En d’autres termes, l’explicabilité indique la confiance du modèle pour la prédiction de l’instance expliquée et décrit fidèlement le fonctionnement du modèle tout en étant compréhensible par un humain. Imaginons que les utilisateurs d’une solution IA sont incapables de comprendre, d’expliquer et de retracer comment l’algorithme est arrivé à un résultat spécifique.
Dans ce cas, on est en présence de ce que l’on appelle communément une « boîte noire », c’est-à-dire que le processus décisionnel de l’IA n’est ni précis, ni transparent, ne fonctionne pas comme prévu et impossible à interpréter. Dans certains cas, il est pratiquement impossible même pour leur créateur de comprendre leur fonctionnement. Résultat, la réputation de l’IA est entamée. Les acteurs organisationnels n’utiliseront plus ses recommandations et n’appliqueront pas ses décisions et risquent de ne pas accorder une grande confiance aux algorithmes de l’IA ce qui peut réduire les chances d’acceptabilité de ces solutions en interne.
On déduit aisément que le futur de l’IA est dans l’explicabilité. Une IA explicable est une des conditions essentielles pour l’adoption et le déploiement d’une IA efficace, responsable et éthique. Avoir un modèle précis, c’est bien, mais avoir un modèle explicable est encore mieux. Pendant de nombreuses années, la performance a été privilégiée par rapport à l’interprétabilité.
Cependant, la future dynamique de l’IA s’appuiera davantage sur l’explicabilité des algorithmes et serait peut-être l’une des mesures clés pour l’adoption des futurs modèles. Au-delà des capacités prédictives et de traitement des données, on attend aussi d’un algorithme IA qu’il puisse expliquer, de façon intelligible pour un humain, pourquoi il a pris exactement la décision « A » et non pas la décision « B ». Sans que l’on puisse démontrer les processus qui ont produit les résultats, l’IA restera perçue comme un espace opaque, un effet de magie qui n’aura pas malheureusement sa place dans les pratiques professionnelles de l’entreprise.
Cette défaillance explicative peut avoir plusieurs sources. Tout d’abord, les données. Ces dernières doivent être à la fois de qualité et sans biais éventuels (voir article de Jean-Marc Guidicelli, Directeur Associé Axys Consultants « Focus sur la Gouvernance des données Achats« ). Une autre difficulté tient à la nature des jeux de données. Par exemple, si les données de production diffèrent des données d’entrainement, les performances d’IA peuvent dériver ou se dégrader. Il est donc nécessaire de s’assurer de la structure et de la volumétrie des données disponibles et qu’il n’existe pas de biais dans les données pour éviter de produire des prédictions erronées.
Ensuite, le choix de la topologie des algorithmes (nombre de couches, nombre de neurones par couches, etc.) peut impacter les niveaux d’explicabilité souhaitée. A la différence des anciens systèmes d’IA basés sur des règles, ceux mis au point grâce au deep learning, ne permettent pas d’avoir une explication précise de la façon dont ils décident. Pour obtenir de grandes capacités prédictives, il est nécessaire de développer une topologie complexe, ce qui ne facilite pas a posteriori la compréhension empirique du cheminement mathématique et statistique du réseau de neurones. Plus les algorithmes deviennent complexes, plus les erreurs se révèlent très difficiles à débusquer.
Chaque décision est motivée par interaction très complexe entre le modèle et la donnée d’entrée, et on ne peut donc pas réduire les problèmes à une suite de justifications simples. Enfin, l’expertise et les connaissances liées à l’IA sont limitées à une poignée d’acteurs (e.g. data scientist), ce qui ralentit l’assimilation des algorithmes à une large composante de l’organisation.
Pour obtenir les résultats souhaités avec une IA explicable, les futurs utilisateurs doivent prendre en considération les points suivants :
- Usage d’algorithmes transparents : s’assurer que l’algorithme est interprétable et que le résultat est compréhensible. C’est en développent cette transparence que la confiance dans les capacités de l’IA se renforcera. Il ne faut pas oublier aussi d’intégrer les enjeux d’impact humain dans la conception même de l’algorithme et de donner l’alerte lorsque les modèles s’écartent des résultats escomptés.
- Augmenter les connaissances des acteurs : s’assurer que l’algorithme est compréhensible suppose que les utilisateurs disposent de connaissances techniques et business pour comprendre ce qui s’est passé lorsque les écarts persistent, décortiquent les composantes de l’algorithme et repèrent les parties défaillantes du processus algorithmique.
- Analyse des biais potentiels : Analysez en amont les jeux de données d’entrainement et nettoyer les données réelles pour réduire au maximum les biais potentiels.
Enfin, bien qu’il existe déjà plusieurs méthodes d’explicabilité fiables et facilement utilisables pour n’importe quel cas d’usage, la recherche dans ce domaine est encore naissante. L’explicabilité de l’IA demeure un verrou scientifique et pratique loin d’être levé et résolu. Les éditeurs comme les chercheurs académiques sont conscients des problèmes soulevés par l’opacité des algorithmes et plusieurs projets de recherche sont en cours, sans qu’une solution particulière ne se distingue.
Comments are closed.