Esse programa analisa spins pra revelar mudanças de fase em materiais.
Kacper Cybiński, James Enouen, Antoine Georges
― 8 min ler
Ciência de ponta explicada de forma simples
Esse programa analisa spins pra revelar mudanças de fase em materiais.
Kacper Cybiński, James Enouen, Antoine Georges
― 8 min ler
Pesquisas mostram como o aprendizado de características melhora a performance das redes neurais de forma eficaz.
Blake Bordelon, Alexander Atanasov, Cengiz Pehlevan
― 8 min ler
Uma nova abordagem ajuda as redes neurais a aprender com dados que mudam sem esquecer o que já aprenderam antes.
Alexandre Galashov, Michalis K. Titsias, András György
― 5 min ler
Uma nova visão de machine learning usando técnicas quânticas e processamento de dados.
Nathan Haboury, Mo Kordzanganeh, Alexey Melnikov
― 6 min ler
Um olhar sobre como diferentes representações em IA melhoram a compreensão.
Julien Colin, Lore Goetschalckx, Thomas Fel
― 6 min ler
Descubra o impacto do PolyCom nas redes neurais e no desempenho delas.
Zhijian Zhuo, Ya Wang, Yutao Zeng
― 7 min ler
O PropNEAT melhora redes neurais acelerando o treinamento e lidando com dados complexos de forma eficiente.
Michael Merry, Patricia Riddle, Jim Warren
― 6 min ler
KANs oferecem flexibilidade e eficiência em aprendizado de máquina em comparação com MLPs.
Shairoz Sohail
― 6 min ler
Explorando como a comunicação entre neurônios leva a comportamentos sincronizados e caóticos.
Javier Cubillos Cornejo, Miguel Escobar Mendoza, Ignacio Bordeu
― 6 min ler
Uma olhada em como as CNNs interpretam imagens e suas características.
David Chapman, Parniyan Farvardin
― 6 min ler
Uma nova abordagem para melhorar a classificação através da Perda de Distribuição de Distância Angular.
Antonio Almudévar, Romain Serizel, Alfonso Ortega
― 7 min ler
Um olhar sobre a fragmentação da rede e seu impacto no desempenho do modelo.
Coenraad Mouton, Randle Rabe, Daniël G. Haasbroek
― 8 min ler
Aprenda como o design pode melhorar operadores neurais para resolver problemas complexos.
Vu-Anh Le, Mehmet Dik
― 6 min ler
O Annealing Flow oferece técnicas de amostragem melhoradas para distribuições complexas em várias áreas.
Dongze Wu, Yao Xie
― 8 min ler
Explorando equalizadores de redes neurais para sinais de comunicação mais claros.
Vadim Rozenfeld, Dan Raphaeli, Oded Bialer
― 7 min ler
Novo método usa redes neurais não treinadas pra facilitar o alinhamento de imagens.
Quang Luong Nhat Nguyen, Ruiming Cao, Laura Waller
― 6 min ler
Novos modelos ajudam as máquinas a reter conhecimento enquanto aprendem novas tarefas.
Paweł Skierś, Kamil Deja
― 9 min ler
As incorporações de neurônios esclarecem funções complicadas dos neurônios, melhorando a interpretabilidade da IA.
Alex Foote
― 6 min ler
Bayes2IMC melhora Redes Neurais Bayesianas pra tomar decisões melhores em situações incertas.
Prabodh Katti, Clement Ruah, Osvaldo Simeone
― 7 min ler
Explore a paisagem de perda e o papel da regularização em redes neurais.
Sungyoon Kim, Aaron Mishkin, Mert Pilanci
― 5 min ler
Novos métodos melhoram o aprendizado em redes neurais de disparo para IA mais eficiente em energia.
Richard Naud, M. Stuck, X. Wang
― 7 min ler
Pesquisadores revelam como padrões ocultos melhoram o aprendizado da IA com dados complexos.
Charles Arnal, Clement Berenfeld, Simon Rosenberg
― 7 min ler
O ScaleNet melhora a análise de gráficos com técnicas inovadoras para uma classificação de nós melhor.
Qin Jiang, Chengjia Wang, Michael Lones
― 8 min ler
Descubra métodos para diminuir redes neurais para dispositivos menores sem perder desempenho.
Cem Üyük, Mike Lasby, Mohamed Yassin
― 7 min ler
ResidualDroppath melhora a reutilização de características em redes neurais para um aprendizado melhor.
Sejik Park
― 6 min ler
Os Autoencoders Esparsos com Gradiente aumentam a influência das características pra uma melhor compreensão do modelo.
Jeffrey Olmo, Jared Wilson, Max Forsey
― 9 min ler
Explorando como o tamanho do modelo afeta a performance na detecção OOD.
Mouïn Ben Ammar, David Brellmann, Arturo Mendoza
― 5 min ler
Descubra como a matriz Gauss-Newton melhora a eficiência do treinamento de redes neurais.
Jim Zhao, Sidak Pal Singh, Aurelien Lucchi
― 7 min ler
Saiba como identificar neurônios chave melhora a tomada de decisão e a eficiência da IA.
Emirhan Böge, Yasemin Gunindi, Erchan Aptoula
― 5 min ler
ChannelDropBack melhora modelos de aprendizado profundo reduzindo o overfitting durante o treinamento.
Evgeny Hershkovitch Neiterman, Gil Ben-Artzi
― 6 min ler
Uma visão simplificada do deep learning através de redes lineares profundas.
Govind Menon
― 6 min ler
Cientistas usam redes neurais informadas por física pra melhorar as soluções das equações de mudança de fase.
Mustafa Kütük, Hamdullah Yücel
― 6 min ler
xIELU oferece uma alternativa promissora às funções de ativação tradicionais em deep learning.
Allen Hao Huang
― 8 min ler
Explorando os avanços em computação óptica e a busca por dispositivos compactos.
Yandong Li, Francesco Monticone
― 7 min ler
Um olhar sobre GNNs e GTs e o papel das codificações posicionais.
Florian Grötschla, Jiaqing Xie, Roger Wattenhofer
― 6 min ler
FxTS-Net melhora as previsões em tempo fixo usando Equações Diferenciais Ordinárias Neurais.
Chaoyang Luo, Yan Zou, Wanying Li
― 9 min ler
Uma olhada nas complexidades de treinar redes neurais de forma eficaz.
Berfin Simsek, Amire Bendjeddou, Daniel Hsu
― 8 min ler
Entendendo a eficiência do Mamba e o método ProDiaL para ajuste fino.
Seokil Ham, Hee-Seon Kim, Sangmin Woo
― 6 min ler
Descubra como o EAST otimiza redes neurais profundas por meio de métodos de poda eficazes.
Andy Li, Aiden Durrant, Milan Markovic
― 6 min ler
Cientistas usam redes neurais pra estudar núcleos atômicos e suas funções de onda.
J. Rozalén Sarmiento, A. Rios
― 6 min ler