Une stratégie pour améliorer la performance et l'équité dans les modèles d'apprentissage fédéré.
― 10 min lire
La science de pointe expliquée simplement
Une stratégie pour améliorer la performance et l'équité dans les modèles d'apprentissage fédéré.
― 10 min lire
CompeteSMoE améliore l'efficacité d'entraînement et la performance dans les modèles de Sparse Mixture of Experts.
― 9 min lire
Méthodes pour réduire le biais des données afin d'améliorer la performance du modèle.
― 7 min lire
Cet article examine l'impact du bruit sur la performance des modèles de langage.
― 9 min lire
Les coresets permettent un calcul efficace en apprentissage automatique tout en gardant la précision.
― 8 min lire
Une nouvelle méthode pour générer des matériaux PBR réalistes en utilisant des modèles d'images RGB.
― 6 min lire
Explorer comment l'entraînement adversarial améliore la robustesse des modèles grâce à la purification des caractéristiques.
― 10 min lire
Explorer les défis et les solutions du hacking de récompense dans l'entraînement des modèles d'IA.
― 9 min lire
Une méthode pour garder des connaissances dans les modèles d'IA tout en s'adaptant à de nouvelles tâches.
― 10 min lire
Une nouvelle approche pour ajuster les modèles améliore l'efficacité et la précision dans les tâches d'apprentissage automatique.
― 8 min lire
Une nouvelle approche pour améliorer les performances du modèle dans différentes conditions de données.
― 6 min lire
Une méthode pour améliorer la mémoire de l'IA en équilibrant l'apprentissage des infos nouvelles et anciennes.
― 8 min lire
Cette étude examine comment les modèles de langage adaptent leurs prédictions en utilisant l'apprentissage en contexte.
― 8 min lire
Une approche simplifiée pour entraîner des modèles d'IA basée sur l'auto-jugement.
― 9 min lire
Cette étude examine comment différentes sources de données affectent les grands modèles de langage.
― 9 min lire
Une étude sur l'efficacité de RLAIF par rapport à l'affinage supervisé pour les modèles de langue.
― 11 min lire
Une nouvelle méthode améliore l'apprentissage automatique en réduisant les corrélations trompeuses.
― 7 min lire
Examiner les tailles d'échantillon nécessaires pour que les modèles spécialisés surpassent les modèles généraux.
― 8 min lire
Apprends comment la distillation des connaissances améliore les modèles plus petits grâce aux insights des plus grands.
― 10 min lire
FedUV améliore les performances des modèles en apprentissage fédéré sur des données non-IID.
― 8 min lire
Une nouvelle approche s'attaque aux étiquettes bruyantes dans les modèles d'apprentissage automatique.
― 8 min lire
Découvrez comment l'échantillonnage négatif facilite l'entraînement des modèles et booste les performances.
― 8 min lire
Une nouvelle méthode aide à mieux apprendre à partir d'étiquettes de données bruyantes en apprentissage automatique.
― 8 min lire
Une nouvelle méthode améliore l'efficacité de l'apprentissage actif en apprentissage automatique.
― 6 min lire
Explorer comment les symétries dans les fonctions de perte influencent la dynamique de l'AGD pendant l'apprentissage profond.
― 9 min lire
Une nouvelle méthode améliore la résilience des modèles face aux exemples adversariaux en ajustant les invites textuelles.
― 7 min lire
RENT améliore les performances du modèle en utilisant des techniques de rééchantillonnage avec des étiquettes bruitées.
― 9 min lire
Une méthode pour améliorer la performance du modèle sur différents groupes de données.
― 8 min lire
Cet article parle du flux de gradient stochastique et de son impact sur l'apprentissage des modèles.
― 7 min lire
DARL propose de nouvelles méthodes pour que les machines apprennent et créent des images efficacement.
― 8 min lire
De nouvelles découvertes remettent en question l'idée que la robustesse de la classification et de l'explication sont liées.
― 9 min lire
Examiner comment le bruit dans les données de pré-entraînement influence la performance du modèle.
― 8 min lire
Une nouvelle approche améliore la performance des étudiants dans l'entraînement des modèles.
― 7 min lire
Une nouvelle approche améliore les performances du modèle face aux changements de distribution et aux attaques adversariales.
― 6 min lire
De nouvelles méthodes visent à améliorer la performance des modèles sur des données inédites.
― 8 min lire
Une étude montre comment la difficulté des tâches influence l'entraînement dans les modèles de diffusion.
― 11 min lire
Une nouvelle méthode renforce la robustesse du modèle tout en gardant de bonnes performances sur des tâches réelles.
― 9 min lire
Apprends comment le reprogrammation des modèles améliore l'apprentissage automatique sans grosses modifs.
― 9 min lire
Le lissage des étiquettes améliore la précision mais peut nuire à la fiabilité de la classification sélective.
― 8 min lire
Cet article parle d'une nouvelle méthode pour améliorer les circuits probabilistes en utilisant des techniques de clustering douces.
― 8 min lire