Intelligence Artificielle
L’interprétabilité, un enjeu essentiel pour une IA responsable et de confiance
L’objet de la présentation sera de faire comprendre en quoi l’interprétabilité en intelligence artificielle (ou Machine Learning) est un enjeu essentiel dans nos sociétés.
Nous commencerons par étudier les spécificités des algorithmes de Machine Learning, plus particulièrement le fait que, contrairement aux autres algorithmes, le Machine Learning déduit directement à partir des données un ensemble de règles induites, qui ne sont donc pas créés par l’humain et son expertise.
Ce nouveau paradigme souligne l’importance d’avoir un contrôle humain sur la bonne marche de l’algorithme. L’interprétabilité, par son but d’éclairer ces règles en rendant compte des éléments importants de la prédiction, rentre dans ce cadre.
Nous étudierons ensuite par différents exemples en quoi l’interprétabilité est importante, et les erreurs ou biais qu’elle peut relever. Ces exemples ont été pris dans la réalité, on en trouve certains dans le domaine de la computer vision, d’autres dans des algorithmes de risques de défaut de crédit.
Enfin, nous conclurons notre intervention en insérant l’interprétabilité dans le cadre sociétal. Certaines régulations montrent qu’elle devient un enjeu politique, et par les exemples mentionnés ci-dessus, nous insisterons sur le fait que l’intelligence artificielle est, sous bien des aspects, un enjeu majeur d’un point de vue humain, écologique et éthique.
La suite de l’article et le téléchargement sont réservés aux membres ou aux détenteurs de crédits
Vous êtes membre ou vous avez des crédits ?
Se connecterRejoindre l’IREP
- Accédez à l’ensemble de la base Com’Search
- Participez aux events de l’IREP toute l’année
- Échangez et networkez avec le réseau
Acheter le contenu
Vous pouvez acheter uniquement ce contenu ou des packs de crédits pour plusieurs contenus de la base Com’search.
Acheter le contenu