Un aperçu des préoccupations de sécurité des modèles de langage compressés.
― 8 min lire
La science de pointe expliquée simplement
Un aperçu des préoccupations de sécurité des modèles de langage compressés.
― 8 min lire
SBoRA améliore l'affinage des grands modèles de langage, économisant des ressources et boostant les performances.
― 6 min lire
LoRA améliore la performance des gros modèles de langage tout en économisant des ressources.
― 9 min lire
Une nouvelle méthode simplifie la génération d'images personnalisées à partir de texte.
― 11 min lire
Présentation des matrices Group-and-Shuffle pour un ajustement efficace des modèles neuronaux.
― 7 min lire
Une nouvelle méthode pour améliorer les modèles pré-entraînés en utilisant un réglage fin sélectif.
― 7 min lire
Un nouveau cadre contrôle l'apprentissage en contexte pour éviter les abus dans les modèles d'IA.
― 10 min lire
Une nouvelle méthode combine des vidéos et des données IMU pour améliorer les techniques de reconnaissance d'actions.
― 7 min lire
Une nouvelle méthode qui améliore la performance du modèle grâce à une gestion efficace des valeurs aberrantes.
― 7 min lire
Présentation de l'adaptation par sous-espace aléatoire pour un ajustement efficace des modèles linguistiques.
― 8 min lire
Un projet axé sur l'amélioration de la génération d'histoires en arabe en utilisant des modèles avancés.
― 9 min lire
Stratégies pour améliorer les modèles de machine learning avec des ensembles de données qui changent.
― 9 min lire
Des chercheurs développent des méthodes pour améliorer les modèles de langue pour différentes langues.
― 6 min lire
WeLore rend les modèles de langage larges plus efficaces en simplifiant les matrices de poids.
― 8 min lire
Ce papier étudie comment l'entraînement influence les prédictions des grands modèles de langage.
― 8 min lire
Une étude évalue l'adaptabilité des modèles de langage pour résumer des sujets variés.
― 7 min lire
Découvrez comment l'apprentissage par transfert améliore les résultats des modèles en utilisant des connaissances provenant de tâches connexes.
― 9 min lire
Une étude sur à quel point les LLMs fonctionnent comme des bases de connaissances fiables.
― 6 min lire
Un aperçu de la façon dont les modèles open-source se comparent à leurs homologues commerciaux dans les tâches biomédicales.
― 8 min lire
Examiner les problèmes avec les grands modèles de langage pour prédire les éléments manquants d'une liste.
― 9 min lire
Ce document examine les attaques backdoor et leurs implications sur la sécurité de l'apprentissage automatique.
― 8 min lire
Une nouvelle méthode améliore la détection d'objets dans les images de télédétection.
― 8 min lire
La recherche améliore la capacité des modèles de langage à traiter des infos liées au temps dans les tableaux.
― 6 min lire
Une nouvelle méthode améliore la façon dont les modèles vision-langage s'adaptent pendant les tests.
― 10 min lire
Une nouvelle façon d'évaluer la performance des modèles et la rétention des connaissances.
― 6 min lire
Cette étude améliore la mesure de la tête fœtale par ultrasons grâce à des techniques de deep learning.
― 7 min lire
Une méthode pour améliorer le comportement des modèles de langage contre les sorties nuisibles.
― 8 min lire
Une nouvelle méthode améliore l'adaptabilité des agents RL aux environnements changeants.
― 7 min lire
pRAGe aide à simplifier les termes médicaux pour que les patients comprennent mieux.
― 8 min lire
Cette étude évalue des modèles d'apprentissage automatique pour classifier des pages web liées aux politiques allemandes.
― 12 min lire
Des chercheurs améliorent les modèles PDE neuronaux en utilisant des équations pré-entraînées de plus petite dimension pour de meilleures performances.
― 8 min lire
Examiner comment les réseaux de croyance profonds peuvent apprendre des données et créer des représentations complexes.
― 7 min lire
La recherche améliore les systèmes ASR en utilisant des modèles de langage pour une meilleure précision.
― 9 min lire
XLIP améliore le diagnostic en intégrant des images médicales et des descriptions textuelles.
― 8 min lire
Une nouvelle méthode améliore les modèles 2D en intégrant des caractéristiques 3D pour de meilleures performances.
― 6 min lire
Ce cadre améliore l'accès et l'efficacité des modèles d'IA en utilisant le sharding hybride.
― 9 min lire
MoFO aide les grands modèles de langage à garder leur savoir pendant le fine-tuning sans perdre en performance.
― 6 min lire
De nouvelles méthodes d'entraînement améliorent les LLM pour de meilleures suggestions de produits en ligne.
― 7 min lire
Gemma 2 offre de hautes performances dans un format compact pour les tâches linguistiques.
― 8 min lire
De nouvelles méthodes visent à améliorer la vitesse et l'efficacité des modèles d'apprentissage profond.
― 8 min lire