Des recherches montrent que la lumière partiellement cohérente améliore la précision des réseaux de neurones optiques.
Jianwei Qin, Yanbing Liu, Yan Liu
― 7 min lire
La science de pointe expliquée simplement
Des recherches montrent que la lumière partiellement cohérente améliore la précision des réseaux de neurones optiques.
Jianwei Qin, Yanbing Liu, Yan Liu
― 7 min lire
Pool Skip aide les réseaux profonds en s'attaquant aux singularités d'élimination pendant l'entraînement.
Chengkun Sun, Jinqian Pan, Juoli Jin
― 9 min lire
Une plongée dans les réseaux de neurones pour la minimisation de la variation totale dans les images.
Andreas Langer, Sara Behnamian
― 8 min lire
Un aperçu de comment les réseaux de neurones apprennent et s'adaptent avec le temps.
Christian Schmid, James M. Murray
― 6 min lire
Une nouvelle méthode améliore l'apprentissage des petits modèles à partir des plus grands en utilisant la similitude d'espace.
Aditya Singh, Haohan Wang
― 8 min lire
Une nouvelle méthode améliore la vitesse et l'efficacité de l'entraînement des réseaux de neurones en utilisant le nowcasting.
Boris Knyazev, Abhinav Moudgil, Guillaume Lajoie
― 5 min lire
Une nouvelle méthode améliore l'efficacité des réseaux de neurones dans les applications scientifiques.
John Mango, Ronald Katende
― 6 min lire
Un nouveau modèle améliore les prédictions en révisant les suppositions précédentes.
Kei-Sing Ng, Qingchen Wang
― 6 min lire
Cette étude examine l'efficacité des autoencodeurs clairsemés pour comprendre les caractéristiques des modèles de langage.
David Chanin, James Wilken-Smith, Tomáš Dulka
― 8 min lire
Une nouvelle approche pour sécuriser la transmission de messages courts en utilisant des techniques d'apprentissage profond.
Daniel Seifert, Onur Günlü, Rafael F. Schaefer
― 7 min lire
Explorer l'efficacité et les questions autour des réseaux de neurones récurrents dans le traitement de données séquentielles.
Yuling Jiao, Yang Wang, Bokai Yan
― 8 min lire
HEN améliore la récupération de mémoire dans les réseaux de neurones en renforçant la séparabilité des motifs.
Satyananda Kashyap, Niharika S. D'Souza, Luyao Shi
― 7 min lire
Apprends comment les hyperparamètres influencent la performance et la complexité des réseaux de neurones.
Huixin Guan
― 6 min lire
Combiner des réseaux de neurones graphiques et des autoencodeurs variationnels améliore la précision de la classification d'images.
Caio F. Deberaldini Netto, Zhiyang Wang, Luana Ruiz
― 6 min lire
Une nouvelle méthode améliore la performance des SNN tout en économisant de l'énergie grâce à la compression des poids.
Lucas Deckers, Benjamin Vandersmissen, Ing Jyh Tsang
― 7 min lire
Une nouvelle méthode améliore le regroupement des réseaux de neurones pour une meilleure compréhension.
Satvik Golechha, Dylan Cope, Nandi Schoots
― 6 min lire
SGDrop aide les CNN à mieux apprendre avec peu de données en élargissant leur perspective.
David Bertoin, Eduardo Hugo Sanchez, Mehdi Zouitine
― 8 min lire
Explorer comment la structure des données impacte la performance de l'apprentissage automatique.
E. Tron, E. Fioresi
― 6 min lire
Examiner la perte de plasticité dans l'apprentissage continu et le rôle de la netteté.
Max Koster, Jude Kukla
― 7 min lire
De nouvelles méthodes optimisent la quantification des grands modèles de langage, améliorant l'efficacité et la précision.
Yifei Liu, Jicheng Wen, Yang Wang
― 8 min lire
Explorer des cartes invariantes et équivariantes pour améliorer les réseaux de neurones.
Akiyoshi Sannai, Yuuki Takai, Matthieu Cordonnier
― 7 min lire
Des taux d'apprentissage dynamiques et des super ensembles de niveaux renforcent la stabilité dans l'entraînement des réseaux de neurones.
Jatin Chaudhary, Dipak Nidhi, Jukka Heikkonen
― 7 min lire
Présentation d'une nouvelle méthode pour améliorer les modèles de deep learning en réduisant le surajustement.
Bum Jun Kim, Sang Woo Kim
― 7 min lire
Utiliser des réseaux de neurones implicites pour améliorer la mesure de la vitesse du son dans les tissus.
Michal Byra, Piotr Jarosik, Piotr Karwat
― 6 min lire
Un aperçu des résultats du défi Codec-SUPERB et des métriques de performance des codecs.
Haibin Wu, Xuanjun Chen, Yi-Cheng Lin
― 6 min lire
Une nouvelle approche pour régler les problèmes de mémoire en apprentissage automatique.
Indu Solomon, Aye Phyu Phyu Aung, Uttam Kumar
― 7 min lire
Présentation d'un modèle neuronal qui améliore les mesures de similarité de graphes en tenant compte des coûts de modification.
Eeshaan Jain, Indradyumna Roy, Saswat Meher
― 10 min lire
Cette étude analyse à quel point les Transformers peuvent mémoriser des données dans différents contextes.
Tokio Kajitsuka, Issei Sato
― 14 min lire
Examiner comment les modèles SSL mémorisent des points de données et ses implications.
Wenhao Wang, Adam Dziedzic, Michael Backes
― 10 min lire
Une nouvelle méthode améliore l'efficacité du modèle tout en réduisant sa taille.
Vladimír Boža, Vladimír Macko
― 6 min lire
Un nouveau cadre améliore les réseaux neuronaux pour les appareils avec des ressources limitées.
Kam Chi Loong, Shihao Han, Sishuo Liu
― 7 min lire
Cottention propose une alternative économe en mémoire aux méthodes d'attention traditionnelles en apprentissage automatique.
Gabriel Mongaras, Trevor Dohm, Eric C. Larson
― 8 min lire
Un cadre qui fusionne différents types de connaissances pour améliorer les performances du modèle.
Yaomin Huang, Zaomin Yan, Chaomin Shen
― 6 min lire
Cet article examine les MLP et les KAN dans des environnements avec peu de données.
Farhad Pourkamali-Anaraki
― 9 min lire
Un aperçu de comment les CNN apprennent les caractéristiques des images et leurs similitudes universelles.
Florentin Guth, Brice Ménard
― 9 min lire
Analyser la sur-parameterisation dans RMLR et les futures pistes de recherche.
Ziheng Chen, Yue Song, Rui Wang
― 8 min lire
Une étude comparant les menaces à la vie privée dans les réseaux de neurones à impulsion et les réseaux de neurones artificiels.
Jiaxin Li, Gorka Abad, Stjepan Picek
― 6 min lire
MAST améliore l'efficacité dans la formation de plusieurs agents IA grâce à des méthodes sparses.
Pihe Hu, Shaolong Li, Zhuoran Li
― 9 min lire
Un nouveau cadre améliore l'efficacité d'apprentissage dans l'apprentissage continu en ligne.
Xinrui Wang, Chuanxing Geng, Wenhai Wan
― 7 min lire
Les fonctions Zorro offrent des solutions fluides pour améliorer la performance des réseaux de neurones.
Matias Roodschild, Jorge Gotay-Sardiñas, Victor A. Jimenez
― 6 min lire