Un nouveau cadre améliore les tâches de prédiction structurée en PNL en utilisant des invites et de l'inférence.
― 10 min lire
La science de pointe expliquée simplement
Un nouveau cadre améliore les tâches de prédiction structurée en PNL en utilisant des invites et de l'inférence.
― 10 min lire
Explore comment l'approche x-elm améliore le traitement des langues multilingues.
― 8 min lire
Cette étude évalue à quel point les LLMs se souviennent des connaissances structurées des ontologies.
― 6 min lire
Un nouveau système vise à améliorer l'analyse des noms arabes.
― 9 min lire
La recherche améliore la qualité de la traduction en utilisant des méthodes sensibles au contexte et des techniques de raccourcissement de séquences.
― 10 min lire
Cette étude révèle des facteurs clés qui influencent la performance de traduction pour les langues sous-représentées.
― 9 min lire
Ce modèle améliore l'analyse des phrases pour les langues morphologiquement riches grâce à une segmentation et un parsing conjoints.
― 9 min lire
Le prompting EoT améliore les capacités de raisonnement des modèles de langage grâce à une génération de prompts variés.
― 9 min lire
Enquêter sur l'impact de différents optimisateurs sur les tâches de PNL.
― 7 min lire
Cette étude examine si les symboles de la parole appris imitent les modèles de fréquence des mots.
― 7 min lire
Présentation d'une méthode plus rapide pour la synthèse vocale de haute qualité utilisant des modèles de diffusion.
― 8 min lire
Une étude révèle comment la contamination des données affecte la performance des LLM dans les tâches de traduction SQL.
― 9 min lire
Cet article examine comment les modèles de redémarrage incrémental améliorent la compréhension du langage face aux ambiguïtés locales.
― 9 min lire
Une nouvelle méthode pour convertir le langage naturel en Langage de Requête de Corpus pour la recherche linguistique.
― 14 min lire
Une nouvelle méthode améliore l'efficacité du fine-tuning pour les modèles de langue sur diverses tâches.
― 7 min lire
Une nouvelle méthode améliore les embeddings de phrases en utilisant plusieurs invites pour une meilleure précision.
― 7 min lire
Découvre pourquoi la tokenisation est essentielle pour que les ordinateurs comprennent le langage humain.
― 9 min lire
Un aperçu de comment LLaMA-2 traite le langage en utilisant un raisonnement structuré.
― 9 min lire
Cet article explore comment la reformulation améliore la performance des modèles de langage dans la classification de texte.
― 9 min lire
Cette recherche révèle des menaces pour la vie privée dans des modèles de sujets plus simples comme LDA.
― 15 min lire
Cette étude se concentre sur l'amélioration de la correction des erreurs grammaticales en utilisant des erreurs synthétiques.
― 7 min lire
Explorer comment les modèles de langage induisent des structures syntaxiques sans supervision directe.
― 11 min lire
Une nouvelle méthode améliore l'efficacité et la précision du traitement de la langue hébraïque.
― 9 min lire
EXPLORER combine le raisonnement neural et symbolique pour améliorer l'IA dans les jeux textuels.
― 10 min lire
Cet article examine la structure et la représentation des propriétés numériques dans les modèles de langage.
― 8 min lire
Nouveau jeu de données et méthodes améliorent la reconnaissance NER pour le dialecte bavarois.
― 7 min lire
Une approche détaillée pour évaluer la qualité de la traduction automatique avec des métriques de qualité multidimensionnelles.
― 10 min lire
Cette étude compare des méthodes SES pour une lemmatisation améliorée dans plusieurs langues.
― 7 min lire
Une étude révèle les facteurs clés qui influencent l'efficacité de la rétro-traduction.
― 7 min lire
Cette étude examine comment les modèles de langue comprennent des structures grammaticales peu courantes.
― 7 min lire
Une méthode automatisée pour aligner les relations de discours provenant de différents systèmes d'étiquetage.
― 8 min lire
Cette étude se concentre sur le perfectionnement des plus petits modèles de langage pour les langues slaves du Sud.
― 8 min lire
Examiner comment des sous-mots similaires affectent l'apprentissage et la performance des modèles de langue.
― 10 min lire
Un aperçu du rôle de la tokenisation dans le traitement du langage.
― 8 min lire
Ce boulot se concentre sur l'amélioration de la traduction entre l'allemand et les langues bavaroises.
― 8 min lire
SpaceByte propose une approche au niveau des octets pour améliorer la performance des modèles de langage.
― 8 min lire
Cet article parle des méthodes pour générer des séquences de mots en utilisant différents modèles.
― 8 min lire
Des recherches montrent que les tokens précédents peuvent améliorer les résultats des modèles de langage.
― 7 min lire
Un examen de comment les modèles de langage déterminent la vérité des affirmations.
― 8 min lire
Un nouveau modèle améliore la précision des traductions en prédisant les caractéristiques de co-référence.
― 9 min lire