Présentation d'un modèle neuronal qui améliore les mesures de similarité de graphes en tenant compte des coûts de modification.
Eeshaan Jain, Indradyumna Roy, Saswat Meher
― 10 min lire
La science de pointe expliquée simplement
Présentation d'un modèle neuronal qui améliore les mesures de similarité de graphes en tenant compte des coûts de modification.
Eeshaan Jain, Indradyumna Roy, Saswat Meher
― 10 min lire
Cette étude analyse à quel point les Transformers peuvent mémoriser des données dans différents contextes.
Tokio Kajitsuka, Issei Sato
― 14 min lire
Examiner comment les modèles SSL mémorisent des points de données et ses implications.
Wenhao Wang, Adam Dziedzic, Michael Backes
― 10 min lire
Une nouvelle méthode améliore l'efficacité du modèle tout en réduisant sa taille.
Vladimír Boža, Vladimír Macko
― 6 min lire
Un nouveau cadre améliore les réseaux neuronaux pour les appareils avec des ressources limitées.
Kam Chi Loong, Shihao Han, Sishuo Liu
― 7 min lire
Cottention propose une alternative économe en mémoire aux méthodes d'attention traditionnelles en apprentissage automatique.
Gabriel Mongaras, Trevor Dohm, Eric C. Larson
― 8 min lire
Un cadre qui fusionne différents types de connaissances pour améliorer les performances du modèle.
Yaomin Huang, Zaomin Yan, Chaomin Shen
― 6 min lire
Cet article examine les MLP et les KAN dans des environnements avec peu de données.
Farhad Pourkamali-Anaraki
― 9 min lire
Un aperçu de comment les CNN apprennent les caractéristiques des images et leurs similitudes universelles.
Florentin Guth, Brice Ménard
― 9 min lire
Analyser la sur-parameterisation dans RMLR et les futures pistes de recherche.
Ziheng Chen, Yue Song, Rui Wang
― 8 min lire
Une étude comparant les menaces à la vie privée dans les réseaux de neurones à impulsion et les réseaux de neurones artificiels.
Jiaxin Li, Gorka Abad, Stjepan Picek
― 6 min lire
MAST améliore l'efficacité dans la formation de plusieurs agents IA grâce à des méthodes sparses.
Pihe Hu, Shaolong Li, Zhuoran Li
― 9 min lire
Un nouveau cadre améliore l'efficacité d'apprentissage dans l'apprentissage continu en ligne.
Xinrui Wang, Chuanxing Geng, Wenhai Wan
― 7 min lire
Les fonctions Zorro offrent des solutions fluides pour améliorer la performance des réseaux de neurones.
Matias Roodschild, Jorge Gotay-Sardiñas, Victor A. Jimenez
― 6 min lire
SATA renforce la robustesse et l'efficacité des Vision Transformers pour les tâches de classification d'images.
Nick Nikzad, Yi Liao, Yongsheng Gao
― 5 min lire
On vous présente l'apprentissage en contre-courant comme une alternative naturelle aux méthodes de formation traditionnelles.
Chia-Hsiang Kao, Bharath Hariharan
― 10 min lire
Analyser les effets des méthodes de taille sur la performance et l'interprétabilité de GoogLeNet.
Jonathan von Rad, Florian Seuffert
― 6 min lire
Une nouvelle méthode améliore l'apprentissage du comportement chaotique en utilisant le calcul par réservoir.
Yao Du, Haibo Luo, Jianmin Guo
― 8 min lire
Cet article parle des réseaux de neurones qui mélangent efficacement approximation et généralisation.
Ruiyang Hong, Anastasis Kratsios
― 6 min lire
Explorer de nouvelles méthodes pour réduire la taille des données textuelles de manière efficace.
Swathi Shree Narashiman, Nitin Chandrachoodan
― 7 min lire
Une nouvelle approche des réseaux de neurones utilisant la symétrie et des matrices structurées.
Ashwin Samudre, Mircea Petrache, Brian D. Nord
― 9 min lire
En train de voir comment le calcul quantique s'intègre dans les réseaux de neurones pour l'IA.
Peiyong Wang, Casey. R. Myers, Lloyd C. L. Hollenberg
― 9 min lire
Une nouvelle technique améliore la qualité d'image en imagerie médicale en s'attaquant aux défis des données.
Chao Wang, Alexandre H. Thiery
― 9 min lire
Découvrez comment les SMPNN gèrent efficacement des connexions de données complexes.
Haitz Sáez de Ocáriz Borde, Artem Lukoianov, Anastasis Kratsios
― 7 min lire
Améliorer les prédictions grâce à des sources de données variées et une estimation avancée de l'incertitude.
an Zhang, Ming Li, Chun Li
― 8 min lire
Cette étude examine comment la structure des données affecte l'apprentissage des réseaux de neurones.
Margherita Mele, Roberto Menichetti, Alessandro Ingrosso
― 10 min lire
Cet article explore comment la physique statistique aide à comprendre l'apprentissage des réseaux de neurones.
Hugo Cui
― 8 min lire
Une nouvelle méthode améliore l'efficacité des charges de travail d'attention pour les systèmes IA.
Haibin Wu, Wenming Li, Kai Yan
― 8 min lire
Une nouvelle méthode d'entraînement améliore l'efficacité et la précision de DeepONet pour des prédictions complexes.
Sharmila Karumuri, Lori Graham-Brady, Somdatta Goswami
― 7 min lire
Enquête sur comment les réseaux de neurones reconnaissent des formes avec des morceaux manquants.
Yuyan Zhang, Derya Soydaner, Fatemeh Behrad
― 7 min lire
Présentation du LH-DNN pour une classification hiérarchique améliorée.
Lorenzo Fiaschi, Marco Cococcioni
― 8 min lire
Une nouvelle méthode aide les réseaux de neurones à apprendre plus efficacement et précisément.
Evan Markou, Thalaiyasingam Ajanthan, Stephen Gould
― 5 min lire
Le dropout structuré améliore l'apprentissage du modèle et accélère les processus d'entraînement.
Andy Lo
― 10 min lire
Les modèles 1-bit montrent un gros potentiel en termes d'efficacité et de performance dans l'apprentissage machine.
Majid Daliri, Zhao Song, Chiwun Yang
― 7 min lire
Une nouvelle approche réduit les erreurs dans l'apprentissage des robots à partir des démonstrations humaines.
Peter David Fagan, Subramanian Ramamoorthy
― 10 min lire
Une étude sur l'utilisation de l'apprentissage automatique pour analyser les changements de phase des matériaux.
Diana Sukhoverkhova, Vyacheslav Mozolenko, Lev Shchur
― 7 min lire
Explore des méthodes d'apprentissage locales qui transforment l'entraînement des réseaux de neurones.
Satoki Ishikawa, Rio Yokota, Ryo Karakida
― 8 min lire
Une nouvelle méthode pour identifier des backdoors Trojan dans les réseaux de neurones.
Todd Huster, Peter Lin, Razvan Stefanescu
― 9 min lire
Explore comment les RNN imitent les fonctions cérébrales dans les tâches de résolution de problèmes.
Pavel Tolmachev, Tatiana A. Engel
― 7 min lire
Recherche sur l'optimisation des communications sans fil en utilisant l'apprentissage profond et les antennes PR.
Seungcheol Oh, Han Han, Joongheon Kim
― 6 min lire