Aller au contenu

Le développement des « large language models » constitue l’une des avancées marquantes de ces deniers mois dans le domaine de l’IA.

Ces modèles, pré entraînés sur des corpus textuels gigantesques, initialement pour prédire le mot suivant dans une phrase (à la manière de la suggestion automatique dans les moteurs de recherche), sont aujourd’hui capables de créer des poèmes, de comprendre la langue au point d’en décoder les expressions les plus idiomatiques.

La finesse de ces modèles peut elle être mise à profit dans le cadre des études, qui demandent à la fois de la profondeur d’analyse et du détail ?

Au cours de cette présentation, nous fournissons des éléments de réponse à cette question en abordant trois types d’usages : la catégorisation de contenus (avec en ligne de mire l’enjeu de la codification des questions ouvertes), le résumé de contenus textuels (pour l’analyse de verbatims), la génération de contenus (pour l’animation de communautés en ligne).

La suite de l’article et le téléchargement sont réservés aux membres ou aux détenteurs de crédits

Vous êtes membre ou vous avez des crédits ?

Se connecter

Rejoindre l’IREP

  • Accédez à l’ensemble de la base Com’Search
  • Participez aux events de l’IREP toute l’année
  • Échangez et networkez avec le réseau
Devenir membre Ou

Acheter le contenu

Vous pouvez acheter uniquement ce contenu ou des packs de crédits pour plusieurs contenus de la base Com’search.

Acheter le contenu

Ses publications