Uno studio su come recuperare dagli errori e algoritmi che usano poca memoria per reti dinamiche anonime.
Giuseppe A. Di Luna, Giovanni Viglietta
― 9 leggere min
Scienza all'avanguardia spiegata semplicemente
Uno studio su come recuperare dagli errori e algoritmi che usano poca memoria per reti dinamiche anonime.
Giuseppe A. Di Luna, Giovanni Viglietta
― 9 leggere min
Articoli più recenti
Ching-Chi Lin, Mario Günzel, Junjie Shi
― 6 leggere min
Andrea Borgarelli, Constantin Enea, Rupak Majumdar
― 6 leggere min
Guanzhou Hu, Andrea Arpaci-Dusseau, Remzi Arpaci-Dusseau
― 5 leggere min
Jiahao Xu, Zikai Zhang, Rui Hu
― 6 leggere min
Muhammad Hadir Khan, Bugra Onal, Eren Dogan
― 6 leggere min
Introduzione di algoritmi euristici per migliorare l'efficienza della programmazione dei lavori nei problemi di flowshop.
Matthew Gradwohl, Guidio Sewa, Oke Blessing Oghojafor
― 7 leggere min
Il framework CARIn adatta i modelli di deep learning per le migliori prestazioni sui dispositivi mobili.
Ioannis Panopoulos, Stylianos I. Venieris, Iakovos S. Venieris
― 6 leggere min
RoLoRA migliora l'apprendimento federato con un fine-tuning robusto e comunicazione efficiente.
Shuangyi Chen, Yue Ju, Hardik Dalal
― 6 leggere min
Un nuovo approccio al computing serverless punta a ridurre efficacemente le emissioni di carbonio.
Yankai Jiang, Rohan Basu Roy, Baolin Li
― 6 leggere min
Scopri come la compressione dei modelli migliora l'efficienza dei grandi modelli linguistici.
Dong Liu
― 5 leggere min
Un'analisi completa dell'efficienza e dell'accuratezza di un nuovo algoritmo nella gestione dei dati.
Victor Jarlow, Charalampos Stylianopoulos, Marina Papatriantafilou
― 5 leggere min
Combinare il calcolo quantistico e classico per far avanzare la ricerca scientifica.
Thomas Beck, Alessandro Baroni, Ryan Bennink
― 6 leggere min
Un nuovo metodo migliora la pianificazione dei compiti sui server edge usando algoritmi euristici e calcolo evolutivo.
Wang Yatong, Pei Yuchen, Zhao Yuqi
― 6 leggere min
GreenWhisk si concentra sulla riduzione delle emissioni di carbonio nel cloud computing.
Jayden Serenari, Sreekanth Sreekumar, Kaiwen Zhao
― 6 leggere min
DiOMP combina PGAS e OpenMP per una programmazione efficiente nei sistemi distribuiti.
Baodi Shan, Mauricio Araya-Polo, Barbara Chapman
― 7 leggere min
Nuovo approccio usa l'apprendimento federato per ottimizzare le decisioni di offloading delle attività mobili.
Anwesha Mukherjee, Rajkumar Buyya
― 6 leggere min
Nuove tecniche di compressione accelerano l'addestramento per grandi modelli di linguaggio mantenendo la precisione.
Lang Xu, Quentin Anthony, Qinghua Zhou
― 5 leggere min
Nuovi metodi migliorano l'efficienza del machine learning negli ambienti mobili.
Zhenxiao Zhang, Zhidong Gao, Yuanxiong Guo
― 6 leggere min
Analizzando il consumo energetico nei supercomputer per migliorare l'efficienza.
Luis G. León-Vega, Niccolò Tosato, Stefano Cozzini
― 7 leggere min
Il bilanciamento del carico guidato dall'IA migliora le prestazioni e l'efficienza del cloud.
Kavish Chawla
― 8 leggere min
Un nuovo approccio per un'AI mobile flessibile usando modelli di lingua sul dispositivo.
Wangsong Yin, Rongjie Yi, Daliang Xu
― 5 leggere min
Presentiamo FedFT, un metodo per migliorare la comunicazione nel Federated Learning.
Chamath Palihawadana, Nirmalie Wiratunga, Anjana Wijekoon
― 6 leggere min
Questo articolo analizza come l'integrazione tra Coarray e CUDA Fortran migliora le prestazioni di calcolo.
James McKevitt, Eduard I. Vorobyov, Igor Kulikov
― 7 leggere min
Un compito interessante sull'allineamento delle sequenze di DNA aiuta l'educazione alla programmazione parallela.
Arturo Gonzalez-Escribano, Diego García-Álvarez, Jesús Cámara
― 6 leggere min
Scopri come la Verifica dell'Input del Modello protegge l'accuratezza della simulazione in diversi settori.
Rumyana Neykova, Derek Groen
― 9 leggere min
Un nuovo metodo migliora l'apprendimento collaborativo ottimizzando la selezione dei clienti e il training personalizzato del modello.
Diba Hashemi, Lie He, Martin Jaggi
― 4 leggere min
Esplorare nuovi protocolli per un consenso sicuro in reti decentralizzate usando la tecnologia quantistica.
Longcheng Li, Xiaoming Sun, Jiadong Zhu
― 5 leggere min
Una nuova libreria migliora gli algoritmi MPPI per applicazioni robotiche.
Bogdan Vlahov, Jason Gibson, Manan Gandhi
― 6 leggere min
Un nuovo metodo per addestrare le CNN direttamente su dispositivi mobili e edge.
Pranav Rama, Madison Threadgill, Andreas Gerstlauer
― 10 leggere min
Ottimizzazione dei gemelli digitali tramite modelli di ordine ridotto e calcolo ad alte prestazioni.
S. Ares de Parga, J. R. Bravo, N. Sibuet
― 5 leggere min
Un nuovo metodo migliora la privacy garantendo al contempo buone prestazioni del modello nel Federated Learning.
Kangyang Luo, Shuai Wang, Xiang Li
― 4 leggere min
Inf-MLLM migliora l'efficienza nella gestione di flussi di dati complessi con risorse limitate.
Zhenyu Ning, Jieru Zhao, Qihao Jin
― 5 leggere min
Un metodo innovativo di dati sintetici migliora l'accuratezza dell'imaging medico proteggendo la privacy dei pazienti.
Atrin Arya, Sana Ayromlou, Armin Saadat
― 4 leggere min
Nuove strategie per la collaborazione tra agenti aumentano la fiducia e l'efficienza nelle risposte dell'IA.
Vladyslav Larin, Ivan Nikitin, Alexander Firsov
― 7 leggere min
Un nuovo metodo migliora l'affidabilità e l'efficienza della blockchain nelle reti decentralizzate.
Yibin Xu, Jianhua Shao, Tijs Slaats
― 5 leggere min
FedD2P offre un nuovo modo per l'IoT di addestrare modelli senza risorse pesanti.
S. Kawa Atapour, S. Jamal SeyedMohammadi, S. Mohammad Sheikholeslami
― 5 leggere min
Analizzando le prestazioni dei datacenter HPC con carichi di lavoro ML e tradizionali.
Xiaoyu Chu, Daniel Hofstätter, Shashikant Ilager
― 6 leggere min
Un nuovo approccio all'apprendimento federato che migliora l'accuratezza e l'uso delle risorse.
Dixi Yao
― 6 leggere min
Nuovi algoritmi migliorano il calcolo delle funzioni di Bessel modificate per diverse applicazioni.
Andreas Plesner, Hans Henrik Brandenborg Sørensen, Søren Hauberg
― 5 leggere min
La replica collaborativa senza coordinazione rende il lavoro di gruppo più semplice senza dover messaggiare in continuazione.
Masato Takeichi
― 5 leggere min
Un metodo per gestire meglio le grandi reti nel machine learning.
Yuhe Bai, Camelia Constantin, Hubert Naacke
― 7 leggere min
Esplorando il cambiamento verso metodi centrati sulle GPU per migliorare le prestazioni di calcolo.
Didem Unat, Ilyas Turimbetov, Mohammed Kefah Taha Issa
― 6 leggere min
Il Federated Learning affronta le sfide della privacy dei dati in settori delicati.
Hao Jian Huang, Bekzod Iskandarov, Mizanur Rahman
― 8 leggere min
Un nuovo framework migliora la pianificazione e l'esecuzione dei compiti nell'edge computing.
Xiang Li, Mustafa Abdallah, Yuan-Yao Lou
― 7 leggere min
Un nuovo metodo migliora la privacy dei dati nel machine learning attraverso approcci personalizzati.
Rasoul Jafari Gohari, Laya Aliahmadipour, Ezat Valipour
― 6 leggere min