Que signifie "Double Descent"?
Table des matières
Le double déclin est un phénomène qu'on observe en apprentissage automatique, surtout dans l'entraînement des réseaux de neurones. Avant, on pensait que quand un modèle devenait plus complexe, sa performance sur les données s'améliorait jusqu'à un certain point, après lequel ajouter de la complexité nuisait à ses performances. On appelait ça le compromis biais-variance.
Mais le double déclin remet ça en question en montrant qu'après avoir atteint ce sommet, augmenter la complexité peut encore améliorer les performances. Donc, au lieu d'avoir juste un seul creux dans la performance, on a deux "déclins" : d'abord quand le modèle devient trop complexe, puis un second creux quand il devient encore plus complexe. Ça crée une courbe en U dans la performance par rapport à la complexité du modèle.
Ce concept est super important pour comprendre comment les modèles d'apprentissage automatique apprennent et se généralisent à partir des données. Ça met en avant l'équilibre entre mémoriser des exemples spécifiques et pouvoir appliquer cette compréhension à des données nouvelles et inconnues.