Des chercheurs examinent comment plusieurs points de vue améliorent la compréhension des opinions humaines par l'IA.
Benedetta Muscato, Praveen Bushipaka, Gizem Gezici
― 5 min lire
La science de pointe expliquée simplement
Des chercheurs examinent comment plusieurs points de vue améliorent la compréhension des opinions humaines par l'IA.
Benedetta Muscato, Praveen Bushipaka, Gizem Gezici
― 5 min lire
Un aperçu de la reconnaissance ouverte à peu d'exemples et de ses applications.
Byeonggeun Kim, Juntae Lee, Kyuhong Shim
― 7 min lire
Apprends comment le label shift influence le machine learning et découvre des méthodes pour y remédier.
Ruidong Fan, Xiao Ouyang, Hong Tao
― 7 min lire
Un aperçu simple de comment fonctionne les Transformers et leur impact sur la technologie.
Bingqing Song, Boran Han, Shuai Zhang
― 7 min lire
Des données pourries peuvent mener à une mauvaise performance des modèles dans les applis de deep learning.
Mehil B Shah, Mohammad Masudur Rahman, Foutse Khomh
― 8 min lire
Une méthode pour gérer les données bruyantes en apprentissage automatique.
Lechao Cheng, Kaifeng Chen, Jiyang Li
― 8 min lire
Une nouvelle méthode pour optimiser le réglage des hyperparamètres et gérer les coûts dans l'entraînement de l'IA.
Abdelmajid Essofi, Ridwan Salahuddeen, Munachiso Nwadike
― 9 min lire
Des optimisateurs prudents améliorent l'efficacité de l'entraînement des modèles avec des changements minimes.
Kaizhao Liang, Lizhang Chen, Bo Liu
― 5 min lire
LoRA-Mini réduit la complexité tout en gardant la performance du modèle élevée.
Ayush Singh, Rajdeep Aher, Shivank Garg
― 6 min lire
MUSE propose une nouvelle manière de former des modèles d'IA en utilisant des images de plus basse résolution.
Minh-Tuan Tran, Trung Le, Xuan-May Le
― 5 min lire
Apprends à réduire les frais de communication dans les modèles d'apprentissage profond pour améliorer la vitesse d'entraînement.
Satoki Ishikawa, Tal Ben-Nun, Brian Van Essen
― 8 min lire
La recherche met en avant des méthodes pour détecter des attaques par porte dérobée lors du fine-tuning des modèles de langage.
Zhen Sun, Tianshuo Cong, Yule Liu
― 12 min lire
Découvre les avantages d'utiliser EMA dans les modèles de deep learning.
Daniel Morales-Brotons, Thijs Vogels, Hadrien Hendrikx
― 7 min lire
Un aperçu des méthodes d'optimisation bilatérales et de leur impact sur les modèles d'apprentissage automatique.
Congliang Chen, Li Shen, Zhiqiang Xu
― 6 min lire
Découvre comment les nouvelles méthodes de régularisation améliorent la performance des modèles de machine learning et réduisent le surapprentissage.
RuiZhe Jiang, Haotian Lei
― 10 min lire
Un nouveau cadre pour améliorer les modèles d'apprentissage machine dans des environnements de données variés.
Lingfei Deng, Changming Zhao, Zhenbang Du
― 7 min lire
Découvre comment l'Unlearning Fédéré améliore la confidentialité des données tout en entraînant des modèles d'IA.
Jianan Chen, Qin Hu, Fangtian Zhong
― 7 min lire
Les modèles de débruitage ont des soucis avec le bruit adversarial, mais de nouvelles stratégies donnent de l'espoir.
Jie Ning, Jiebao Sun, Shengzhu Shi
― 8 min lire
Améliorer la généralisation de domaine dans des modèles comme CLIP grâce à des têtes d'attention affinées.
Yingfan Wang, Guoliang Kang
― 6 min lire
ALoRE optimise l'entraînement des modèles pour une reconnaissance d'images efficace et des applications plus larges.
Sinan Du, Guosheng Zhang, Keyao Wang
― 8 min lire
Découvrez comment l'OGC aide les modèles d'apprentissage automatique à gérer efficacement les données bruyantes.
Xichen Ye, Yifan Wu, Weizhong Zhang
― 6 min lire
Une nouvelle méthode qui garantit que les modèles linguistiques restent sûrs tout en étant efficaces.
Xin Yi, Shunfan Zheng, Linlin Wang
― 8 min lire
Découvrez comment MIAdam améliore la performance et la généralisation des modèles en deep learning.
Long Jin, Han Nong, Liangming Chen
― 7 min lire
Apprends comment les petits modèles tirent de la force de leurs plus grands mentors.
Gereziher Adhane, Mohammad Mahdi Dehshibi, Dennis Vetter
― 9 min lire
Apprends à améliorer la performance de l'IA en gérant les données bruyantes.
Junyu Luo, Xiao Luo, Kaize Ding
― 8 min lire
Découvrez comment PAMDA améliore l'adaptation de domaine multi-sources pour de meilleures performances des modèles.
Min Huang, Zifeng Xie, Bo Sun
― 9 min lire
Grams propose une nouvelle approche pour optimiser les modèles d'apprentissage automatique.
Yang Cao, Xiaoyu Li, Zhao Song
― 8 min lire
Une nouvelle approche pour améliorer les LMM en se concentrant sur les erreurs plutôt que sur le volume de données.
Barry Menglong Yao, Qifan Wang, Lifu Huang
― 8 min lire
Comprendre les influences des données peut améliorer les modèles d'apprentissage auto-supervisé.
Nidhin Harilal, Amit Kiran Rege, Reza Akbarian Bafghi
― 10 min lire
WarriorCoder crée un espace compétitif pour que les modèles améliorent leurs compétences en codage.
Huawen Feng, Pu Zhao, Qingfeng Sun
― 8 min lire
Découvrez comment MOLLM améliore les LLMs en effaçant efficacement les données nuisibles.
Zibin Pan, Shuwen Zhang, Yuesheng Zheng
― 8 min lire