Aller au contenu

Les modèles d’apprentissage machine sont généralement sensibles aux biais existants dans les jeux de données utilisés pour leur entraînement. C’est à la fois leur force mais aussi une faiblesse dans un certain nombre de cas.

Il peut en effet être souhaitable qu’un modèle n’intègre pas dans ses prédictions des biais présents dans les données. Les risques de discrimination de personnes traitées par des modèles, la reproduction d’archétypes dans le traitement du langage naturel sont des exemples d’enjeux d’équité dans l’utilisation de modèles d’apprentissage machine.

D’autres enjeux portent sur la performance des modèles dans le temps, face aux dérives de la distribution des données de prédiction ou les changements du contexte dans lequel le modèle est utilisé.

Nous rappelons les enjeux autour de ce sujet, les différents types de biais auxquels le data scientist est confronté, et présentons les méthodes à mettre en place pour contrôler ces biais et les outils disponibles pour les mettre en œuvre.

La suite de l’article et le téléchargement sont réservés aux membres ou aux détenteurs de crédits

Vous êtes membre ou vous avez des crédits ?

Se connecter

Rejoindre l’IREP

  • Accédez à l’ensemble de la base Com’Search
  • Participez aux events de l’IREP toute l’année
  • Échangez et networkez avec le réseau
Devenir membre Ou

Acheter le contenu

Vous pouvez acheter uniquement ce contenu ou des packs de crédits pour plusieurs contenus de la base Com’search.

Acheter le contenu

Ses publications