Uno sguardo alla semplificazione dell'addestramento di grandi modelli usando FSDP e torch.compile.
Ruisi Zhang, Tianyu Liu, Will Feng
― 6 leggere min
Scienza all'avanguardia spiegata semplicemente
Uno sguardo alla semplificazione dell'addestramento di grandi modelli usando FSDP e torch.compile.
Ruisi Zhang, Tianyu Liu, Will Feng
― 6 leggere min
Ottimizza l'uso della GPU per migliorare l'efficienza dell'allenamento dei modelli intelligenti.
Runsheng Benson Guo, Utkarsh Anand, Arthur Chen
― 5 leggere min
MASA offre una soluzione per migliorare la sicurezza nei sistemi di Federated Learning.
Jiahao Xu, Zikai Zhang, Rui Hu
― 4 leggere min
Uno sguardo a varie pratiche agricole e tecnologie a Varanasi.
Ramakant Kumar
― 8 leggere min
HEXA-MoE migliora l'efficienza dell'IA con la collaborazione di esperti e una comunicazione ridotta.
Shuqing Luo, Jie Peng, Pingzhi Li
― 6 leggere min
Un nuovo metodo migliora l'efficienza dei modelli di linguaggio grandi condividendo i compiti tra GPU e CPU.
Xuanlin Jiang, Yang Zhou, Shiyi Cao
― 4 leggere min
Questo articolo parla delle limitazioni e delle strategie per addestrare grandi modelli di intelligenza artificiale.
Ege Erdil, David Schneider-Joseph
― 8 leggere min
xDiT trasforma la velocità di creazione di immagini di alta qualità con una collaborazione intelligente.
Jiarui Fang, Jinzhe Pan, Xibo Sun
― 5 leggere min
Gli scienziati migliorano la ricerca sulla fusione nucleare grazie a framework di calcolo adattabili.
Josef Ruzicka, Christian Asch, Esteban Meneses
― 8 leggere min
Il Federated Learning offre un nuovo modo per proteggere i dati mentre si collabora tra dispositivi.
Chunlu Chen, Ji Liu, Haowen Tan
― 7 leggere min
Un nuovo metodo identifica i dispositivi problematici nell'apprendimento federato per migliorare la velocità e la sicurezza.
Dipanwita Thakur, Antonella Guzzo, Giancarlo Fortino
― 9 leggere min
Un nuovo modo per ridurre i costi nei servizi di intelligenza artificiale usando istanze miste.
Ziming Mao, Tian Xia, Zhanghao Wu
― 4 leggere min
Scopri come un nuovo sistema migliora la privacy dei dati e la velocità di elaborazione per i LLM.
Yifan Tan, Cheng Tan, Zeyu Mi
― 6 leggere min
Scopri come gli agenti comunicano meglio in situazioni caotiche.
Niccolò D'Archivio, Amos Korman, Emanuele Natale
― 6 leggere min
Il nuovo modello semplifica la creazione di grafi diretti aciclici.
Mufei Li, Viraj Shitole, Eli Chien
― 5 leggere min
Scopri come l'apprendimento federato gerarchico protegge i dati mentre consente la collaborazione tra i dispositivi.
Seyed Mohammad Azimi-Abarghouyi, Nicola Bastianello, Karl H. Johansson
― 7 leggere min
Scopri come i nuovi metodi riducono l'uso della memoria negli algoritmi di rilevamento della comunità.
Subhajit Sahu
― 5 leggere min
Scopri come FedGPL aiuta le organizzazioni a collaborare proteggendo la privacy dei loro dati.
Zhuoning Guo, Ruiqian Han, Hao Liu
― 6 leggere min
Impara a gestire i lavoratori lenti in informatica per migliorare l'efficienza.
Tharindu Adikari, Haider Al-Lawati, Jason Lam
― 5 leggere min
Raggruppare i messaggi migliora l'efficienza nel computing moderno.
Kavitha Chandrasekar, Laxmikant Kale
― 7 leggere min
Scopri come AI Metropolis accelera e migliora le interazioni degli agenti nelle simulazioni.
Zhiqiang Xie, Hao Kang, Ying Sheng
― 6 leggere min
Un framework che accelera la programmazione dinamica in bioinformatica, rendendo la ricerca più efficiente.
Yingqi Cao, Anshu Gupta, Jason Liang
― 6 leggere min
Scopri come Web3 e AI stanno cambiando il panorama digitale.
David Hyland-Wood, Sandra Johnson
― 8 leggere min
FLAME migliora la navigazione indoor con servizi di mappatura federata, rispettando la privacy degli utenti.
Sagar Bharadwaj, Luke Wang, Michael Liang
― 7 leggere min
Scopri come ParaGAN migliora l'addestramento dei GAN per risultati più rapidi.
Ziji Shi, Jialin Li, Yang You
― 7 leggere min
Esaminando gli effetti dell'EIP-4844 di Ethereum su costruttori e rollup.
Yue Huang, Shuzheng Wang, Yuming Huang
― 6 leggere min
Questo metodo migliora come i computer condividono conoscenza per un apprendimento migliore.
Yoni Choukroun, Shlomi Azoulay, Pavel Kisilev
― 5 leggere min
Un nuovo approccio per allenare macchine su dispositivi piccoli con meno complessità.
Yequan Zhao, Hai Li, Ian Young
― 6 leggere min
Scopri come TraDE garantisce una gestione efficiente dei microservizi nonostante le richieste in continuo cambiamento.
Ming Chen, Muhammed Tawfiqul Islam, Maria Rodriguez Read
― 6 leggere min
GPUVM migliora la gestione della memoria GPU per una gestione dei dati più veloce.
Nurlan Nazaraliyev, Elaheh Sadredini, Nael Abu-Ghazaleh
― 7 leggere min
Scopri come migliorare i modelli di intelligenza artificiale usando il pipeline e il parallelismo del vocabolario.
Man Tsung Yeung, Penghui Qi, Min Lin
― 5 leggere min
QuanCrypt-FL migliora la sicurezza nel Federated Learning utilizzando tecniche avanzate.
Md Jueal Mia, M. Hadi Amini
― 6 leggere min
Uno sguardo a SuffixDecoding e il suo impatto sull'efficienza dei modelli linguistici.
Gabriele Oliaro, Zhihao Jia, Daniel Campos
― 5 leggere min
Le nuove tecnologie migliorano la diagnosi e il trattamento delle emorragie intracraniche.
Antoine P. Sanner, Jonathan Stieber, Nils F. Grauhan
― 7 leggere min
Scopri come la condivisione dell'energia può far risparmiare e promuovere la sostenibilità.
Abdulrezzak Zekiye, Ozan Sina Bankaoglu, Ouns Bouachir
― 6 leggere min
DART-PIM offre un modo più veloce ed efficiente per mappare il DNA.
Rotem Ben-Hur, Orian Leitersdorf, Ronny Ronen
― 6 leggere min
Un nuovo modo di gestire le risorse informatiche più vicine agli utenti.
Zahra Najafabadi Samani, Matthias Gassner, Thomas Fahringer
― 7 leggere min
Una guida per accelerare l'allenamento di grandi modelli linguistici con parallelismo e gestione della memoria.
Kazuki Fujii, Kohei Watanabe, Rio Yokota
― 5 leggere min
ClipFL migliora l'apprendimento federato rimuovendo i dispositivi rumorosi per ottenere prestazioni migliori.
Mahdi Morafah, Hojin Chang, Chen Chen
― 7 leggere min
Un metodo giusto per scegliere i partecipanti in base alle performance.
J. M. Diederik Kruijssen, Renata Valieva, Kenneth Peluso
― 7 leggere min