Le innovazioni nei neuroni LIF adattivi migliorano le prestazioni nei compiti temporali e spaziali.
Maximilian Baronig, Romain Ferrand, Silvester Sabathiel
― 7 leggere min
Scienza all'avanguardia spiegata semplicemente
Le innovazioni nei neuroni LIF adattivi migliorano le prestazioni nei compiti temporali e spaziali.
Maximilian Baronig, Romain Ferrand, Silvester Sabathiel
― 7 leggere min
Articoli più recenti
Baris Akbas, Huseyin Taner Yuksel, Aleyna Soylemez
― 7 leggere min
Yang Lu, Felix Zhan
― 5 leggere min
Nicholas Soures, Peter Helfer, Anurag Daram
― 5 leggere min
Chi Chiu So, Siu Pang Yung
― 6 leggere min
Erik B. Terres-Escudero, Javier Del Ser, Pablo Garcia-Bringas
― 6 leggere min
Uno sguardo al miglioramento della programmazione dei treni con agenti di apprendimento continuo.
Achref Jaziri, Etienne Künzel, Visvanathan Ramesh
― 7 leggere min
Presentiamo LFLDNets, un nuovo approccio per la modellazione efficiente di sistemi fisici complessi.
Matteo Salvador, Alison L. Marsden
― 6 leggere min
Questo articolo esamina come l'adattamento della forza delle mutazioni migliori le prestazioni degli algoritmi evolutivi.
Amir Omeradzic, Hans-Georg Beyer
― 6 leggere min
Uno sguardo approfondito alle Gated Recurrent Units nell'apprendimento delle sequenze.
Róbert Csordás, Christopher Potts, Christopher D. Manning
― 6 leggere min
Un nuovo metodo migliora l'accuratezza delle misurazioni del gas usando l'apprendimento automatico e la fisica.
Ruiyuan Kang, Panos Liatsis, Meixia Geng
― 7 leggere min
NeurELA migliora l'ottimizzazione Black-Box attraverso un'analisi del paesaggio in tempo reale e meta-apprendimento.
Zeyuan Ma, Jiacheng Chen, Hongshu Guo
― 6 leggere min
Uno sguardo all'AI efficiente usando SNN e tecnologia IMC.
Abhishek Moitra, Abhiroop Bhattacharjee, Yuhang Li
― 5 leggere min
Un nuovo algoritmo migliora le stime dell'attività cerebrale in ambienti rumorosi complessi.
Yuanhao Li, Badong Chen, Zhongxu Hu
― 6 leggere min
Un nuovo metodo semplifica il modo in cui valutiamo l'incertezza del modello nelle previsioni.
Yi Hung Lim
― 5 leggere min
Esplora il viaggio complesso di come vediamo i colori.
Atsunobu Kotani, Ren Ng
― 7 leggere min
Esplorando le reti neurali polinomiali e le loro applicazioni in vari campi.
Bella Finkel, Jose Israel Rodriguez, Chenxi Wu
― 5 leggere min
Scopri come il calcolo neuromorfico imita l'apprendimento del cervello per un'intelligenza artificiale più efficiente.
Kenneth Stewart, Michael Neumeier, Sumit Bam Shrestha
― 7 leggere min
L'architettura innovativa migliora l'efficienza nel deep learning attraverso il calcolo ottico.
Sijie Fei, Amro Eldebiky, Grace Li Zhang
― 6 leggere min
Un nuovo modello migliora l'accuratezza delle previsioni della velocità del vento in paesaggi difficili.
Sourav Malakar, Saptarsi Goswami, Amlan Chakrabarti
― 5 leggere min
Esaminando come le SNN si confrontano con le ANN nel consumo energetico.
Zhanglu Yan, Zhenyu Bai, Weng-Fai Wong
― 7 leggere min
Analizzando l'impatto dei componenti basati su quaternioni sulle performance di classificazione delle immagini.
Gerardo Altamirano-Gómez, Carlos Gershenson
― 5 leggere min
ART semplifica lo sviluppo di modelli di deep learning con passaggi strutturati e strumenti di debugging.
Sebastian Chwilczyński, Kacper Trębacz, Karol Cyganik
― 5 leggere min
Esplorare l'apprendimento continuo nelle reti neurali attraverso il Neural Tangent Ensemble.
Ari S. Benjamin, Christian Pehle, Kyle Daruwalla
― 8 leggere min
Un nuovo metodo migliora l'efficienza nella separazione dei segnali in diverse applicazioni.
Yoshitatsu Matsuda, Kazunori Yamaguch
― 5 leggere min
Un nuovo simulatore sviluppa agenti capaci di cultura e ragionamento.
Chris Lu, Michael Beukman, Michael Matthews
― 6 leggere min
I partecipanti hanno affrontato compiti complessi di robotica alle Olimpiadi dell'AI usando tecniche avanzate.
Marco Calì, Alberto Sinigaglia, Niccolò Turcato
― 6 leggere min
Presentiamo nuove reti neurali quantistiche che si adattano e imparano dai dati che cambiano.
Alejandro Mayorga, Alexander Yuan, Andrew Yuan
― 5 leggere min
Un nuovo framework aumenta l'efficienza del remote sensing usando tecniche ispirate al cervello.
Dexin Duan, Peilin liu, Fei Wen
― 6 leggere min
Un nuovo approccio migliora la risoluzione di sfide di ottimizzazione complesse con variabili discrete e continue.
Kento Uchida, Ryoki Hamano, Masahiro Nomura
― 5 leggere min
Un nuovo modello offre un'elaborazione del linguaggio a risparmio energetico per i piccoli dispositivi.
Kaiwen Tang, Zhanglu Yan, Weng-Fai Wong
― 5 leggere min
SNNAX semplifica e accelera la simulazione delle Reti Neurali a Spike per i ricercatori.
Jamie Lohoff, Jan Finkbeiner, Emre Neftci
― 5 leggere min
Questo articolo parla di come usare il suono per aiutare i robot a rilevare ostacoli.
Alvaro Ayuso-Martinez, Daniel Casanueva-Morato, Juan Pedro Dominguez-Morales
― 6 leggere min
Uno sguardo a come la sovrapposizione migliora l'efficienza delle reti neurali e la gestione della complessità.
Micah Adler, Nir Shavit
― 7 leggere min
Questo articolo valuta l'efficacia degli autoencoder sparsi nella rappresentazione della conoscenza sulle città.
Maheep Chaudhary, Atticus Geiger
― 5 leggere min
Esplorare l'impatto del codifica predittiva sui metodi di apprendimento delle reti neurali.
Francesco Innocenti, El Mehdi Achour, Ryan Singh
― 6 leggere min
Un nuovo metodo permette una conversione più facile delle ANN in SNN con un minore consumo energetico.
Tong Bu, Maohua Li, Zhaofei Yu
― 8 leggere min
Uno sguardo a come il reservoir computing gestisce più compiti e le sue sfide.
Andrew Flynn, Andreas Amann
― 7 leggere min
Nuovo studio mette in evidenza EEG e IA per una diagnosi precoce dell'Alzheimer.
Akshay Sunkara, Sriram Sattiraju, Aakarshan Kumar
― 6 leggere min
Un framework che usa LLM per migliorare gli algoritmi evolutivi per i MOP.
Yuxiao Huang, Xuebin Lv, Shenghao Wu
― 6 leggere min
Analizzando l'uso di algoritmi coevolutivi per trovare strategie vincenti nei giochi combinatori.
Alistair Benford, Per Kristian Lehre
― 7 leggere min
Neural Spacetimes offrono rappresentazioni innovative per analizzare grafi diretti in diversi campi.
Haitz Sáez de Ocáriz Borde, Anastasis Kratsios, Marc T. Law
― 5 leggere min
Y-Drop migliora il dropout concentrandosi sull'importanza dei neuroni, migliorando le prestazioni del modello.
Efthymios Georgiou, Georgios Paraskevopoulos, Alexandros Potamianos
― 6 leggere min
Questo articolo esplora un nuovo approccio per migliorare le reti neurali usando le equazioni diofantee.
Ronald Katende
― 5 leggere min
Nuovo metodo di ottimizzazione ispirato ai baby tartarughe Olive Ridley punta a risolvere i problemi in modo efficace.
Niranjan Panigrahi, Sourav Kumar Bhoi, Debasis Mohapatra
― 6 leggere min
Un modo nuovo per creare spiegazioni significative per l'analisi dei dati temporali.
Qi Huang, Sofoklis Kitharidis, Thomas Bäck
― 6 leggere min