Scopri come l'ottimizzazione convessa migliora la qualità delle mesh 3D per diverse applicazioni.
Alexander Valverde
― 7 leggere min
Scienza all'avanguardia spiegata semplicemente
Scopri come l'ottimizzazione convessa migliora la qualità delle mesh 3D per diverse applicazioni.
Alexander Valverde
― 7 leggere min
OP-LoRA migliora i modelli AI per compiti specifici, aumentando efficienza e prestazioni.
Piotr Teterwak, Kate Saenko, Bryan A. Plummer
― 6 leggere min
Le reti neurali stanno cambiando il modo in cui studiamo le ampiezze di scattering delle particelle nella fisica.
Mehmet Asim Gumus, Damien Leflot, Piotr Tourkine
― 8 leggere min
Esplora come la classificazione aiuti le macchine ad apprendere in dati ad alta dimensione.
Jonathan García, Philipp Petersen
― 5 leggere min
SparseMap semplifica la gestione dei dati per un'elaborazione efficiente delle reti neurali.
Xiaobing Ni, Mengke Ge, Jiaheng Ruan
― 6 leggere min
Scopri come le reti ricorrenti profonde compongono musica e si adattano attraverso l'allenamento.
John Hertz, Joanna Tyrcha
― 6 leggere min
Scopri il ruolo fondamentale delle teste di attenzione nei grandi modelli di linguaggio.
Amit Elhelo, Mor Geva
― 8 leggere min
Nuove tecniche stanno migliorando l'efficienza dell'addestramento delle reti neurali e la gestione della memoria.
Wadjih Bencheikh, Jan Finkbeiner, Emre Neftci
― 8 leggere min
Scopri i vantaggi dello SGD-SaI nell'addestramento del machine learning.
Minghao Xu, Lichuan Xiang, Xu Cai
― 7 leggere min
Nuovo metodo combina l'AI con la fisica per modelli quantistici migliori.
João Augusto Sobral, Michael Perle, Mathias S. Scheurer
― 6 leggere min
Scopri come l'ottimizzazione graduata migliora le tecniche di deep learning.
Naoki Sato, Hideaki Iiduka
― 6 leggere min
Nuovo approccio super-pixel migliora la comprensione delle decisioni delle reti neurali.
Shizhan Gong, Jingwei Zhang, Qi Dou
― 5 leggere min
Un nuovo approccio migliora la comprensione delle somiglianze tra le reti neurali.
András Balogh, Márk Jelasity
― 6 leggere min
Gli scienziati hanno sviluppato miVAE per analizzare meglio gli stimoli visivi e le risposte neuronali.
Yu Zhu, Bo Lei, Chunfeng Song
― 7 leggere min
Un nuovo modo per migliorare le performance dei modelli linguistici grandi.
Pengxiang Li, Lu Yin, Shiwei Liu
― 5 leggere min
Combinando efficienza e prestazioni, SAFormer ridefinisce le capacità delle reti neurali.
Hangming Zhang, Alexander Sboev, Roman Rybka
― 5 leggere min
Collegare la programmazione logica con le reti neurali per soluzioni AI più veloci.
Arseny Skryagin, Daniel Ochs, Phillip Deibert
― 7 leggere min
Spike2Former trasforma le reti neurali a impulsi per una migliore segmentazione delle immagini.
Zhenxin Lei, Man Yao, Jiakui Hu
― 6 leggere min
Un nuovo metodo migliora le prestazioni degli RNN nell'elaborazione delle sequenze.
Bojian Yin, Federico Corradi
― 6 leggere min
I ricercatori migliorano la mappatura 3D con campi di distanza neurali usando le derivate di secondo ordine.
Akshit Singh, Karan Bhakuni, Rajendra Nagar
― 7 leggere min
Esplorare come i sistemi ricorrenti possano migliorare le prestazioni della segmentazione delle immagini.
David Calhas, João Marques, Arlindo L. Oliveira
― 6 leggere min
Un nuovo metodo prevede le curve di apprendimento in base all'architettura delle reti neurali.
Yanna Ding, Zijie Huang, Xiao Shou
― 9 leggere min
La ricerca mostra che le reti convoluzionali depthwise mantengono filtri generali tra i diversi compiti.
Zahra Babaiee, Peyman M. Kiasari, Daniela Rus
― 7 leggere min
Le reti neurali apprendono dai dati, cambiando il modo in cui i computer prendono decisioni.
Robyn Brooks, Marissa Masden
― 7 leggere min
Scopri un nuovo modo efficace per allenare le reti neurali in modo efficace.
Shyam Venkatasubramanian, Vahid Tarokh
― 6 leggere min
Scopri come semplificare le reti neurali e aumentare la fiducia nelle previsioni.
Govinda Anantha Padmanabha, Cosmin Safta, Nikolaos Bouklas
― 7 leggere min
Un nuovo metodo semplifica l'addestramento delle iperreti per un adattamento più veloce e un'efficienza maggiore.
Eric Hedlin, Munawar Hayat, Fatih Porikli
― 7 leggere min
I ricercatori usano reti neurali per simulare effetti off-shell nella fisica delle particelle.
Mathias Kuschick
― 5 leggere min
Un nuovo metodo che accelera l'addestramento del deep learning senza grandi cambiamenti.
Evgeny Hershkovitch Neiterman, Gil Ben-Artzi
― 6 leggere min
Scopri il potenziale delle semplici reti neurali nel machine learning.
Hippolyte Labarrière, Cesare Molinari, Lorenzo Rosasco
― 6 leggere min
Scopri come i Feedback Contestuali migliorano l'accuratezza e l'adattabilità delle reti neurali.
Jacob Fein-Ashley
― 9 leggere min
FedLEC migliora le prestazioni del federated learning affrontando efficacemente gli sbilanciamenti di etichette.
Di Yu, Xin Du, Linshan Jiang
― 6 leggere min
Un nuovo metodo ottimizza le tabelle di ricerca usando le condizioni 'non importa'.
Oliver Cassidy, Marta Andronic, Samuel Coward
― 6 leggere min
Esplora come i tassi di apprendimento influiscono sull'addestramento e sulle prestazioni dell'IA.
Lawrence Wang, Stephen J. Roberts
― 6 leggere min
Un modello leggero progettato per separare in modo efficace il parlato misto in ambienti rumorosi.
Shaoxiang Dang, Tetsuya Matsumoto, Yoshinori Takeuchi
― 6 leggere min
Incontra RACA, un rivoluzionario nell'AI che riduce il consumo energetico mentre aumenta le prestazioni.
Peng Dang, Huawei Li, Wei Wang
― 7 leggere min
Introducing MscaleFNO, un approccio multi-scala che sta cambiando il modo in cui studiamo le onde e i materiali.
Zhilin You, Zhenli Xu, Wei Cai
― 7 leggere min
Un nuovo metodo migliora la difesa dell'IA contro attacchi adversariali difficili.
Longwei Wang, Navid Nayyem, Abdullah Rakin
― 8 leggere min
Scopri come i network ReLU profondi apprendono e perché l'iniettività è importante.
Mihailo Stojnic
― 7 leggere min
Progettare controllori per stabilità e prestazioni in sistemi complessi.
Clara Lucía Galimberti, Luca Furieri, Giancarlo Ferrari-Trecate
― 8 leggere min