Déficience statistique pour l’estimation de l’inclusion des tâches

Les tâches occupent une place centrale dans l’apprentissage automatique, car elles constituent les objets les plus naturels pour évaluer les capacités des modèles actuels. La tendance est de construire des modèles généraux capables de traiter n’importe quelle tâche. Même si l’apprentissage par transfert et l’apprentissage multitâche tentent d’exploiter l’espace des tâches sous-jacents, il n’existe aucun outil fiable pour étudier sa structure. Cette étude propose un cadre théorique pour définir la notion de tâche et calculer l’inclusion entre deux tâches d’un point de vue statistique. Nous proposons une métrique, l’information suffisante, pour estimer le degré d’inclusion entre les tâches. Nous démontrons sa fiabilité sur des données synthétiques et l’utilisons pour reconstruire empiriquement le pipeline classique de traitement du langage.

Code source sur GitHub, sous licence MIT.