TAKFL otimiza o compartilhamento de conhecimento no aprendizado federado para as diferentes capacidades dos dispositivos.
Mahdi Morafah, Vyacheslav Kungurtsev, Hojin Chang
― 7 min ler
Ciência de ponta explicada de forma simples
TAKFL otimiza o compartilhamento de conhecimento no aprendizado federado para as diferentes capacidades dos dispositivos.
Mahdi Morafah, Vyacheslav Kungurtsev, Hojin Chang
― 7 min ler
Este estudo melhora a eficiência do aprendizado federado usando servidores de borda pra uma melhor gestão de recursos.
Zhidong Gao, Yu Zhang, Yanmin Gong
― 7 min ler
Faro otimiza a alocação de recursos para modelos de ML em ambientes limitados.
Beomyeol Jeon, Chen Wang, Diana Arroyo
― 9 min ler
Uma nova abordagem ajuda os satélites a reduzir o uso da bateria e aumentar a vida útil.
Nasrin Razmi, Bho Matthiesen, Armin Dekorsy
― 6 min ler
Um novo método protege o aprendizado descentralizado de ataques de contaminação de dados.
Chao Feng, Alberto Huertas Celdrán, Zien Zeng
― 8 min ler
Inteligência de borda e computação quântica melhoram redes de satélite e terrestre pra mais eficiência.
Siyue Huang, Lifeng Wang, Xin Wang
― 7 min ler
Intel SHMEM melhora a comunicação entre GPUs, permitindo aplicações de alto desempenho de forma eficiente.
Alex Brooks, Philip Marshall, David Ozog
― 8 min ler
Apresentando uma solução de armazenamento feita sob medida para blockchains de consórcio como o Hyperledger Fabric.
Narges Dadkhah, Xuyang Ma, Katinka Wolter
― 10 min ler
Estratégias inovadoras melhoram a detecção de eventos raros em sistemas de aprendizado federado.
Razin Farhan Hussain, Mohsen Amini Salehi
― 7 min ler
FLeNS melhora o aprendizado federado ao equilibrar a velocidade de aprendizado e a eficiência da comunicação.
Sunny Gupta, Mohit Jindal, Pankhi Kashyap
― 7 min ler
Aprenda como o procedimento de Lanczos filtrado melhora os cálculos de autovalores usando GPUs.
Jared L. Aurentz, Vassilis Kalantzis, Yousef Saad
― 7 min ler
Uma nova maneira de agendar tarefas não preemptivas de forma eficiente.
Marek Vlk, Marek Jaros, Zdenek Hanzalek
― 7 min ler
Uma olhada em como simplificar o treinamento de modelos grandes usando FSDP e torch.compile.
Ruisi Zhang, Tianyu Liu, Will Feng
― 6 min ler
Otimize o uso da GPU pra melhorar a eficiência do treino de modelos inteligentes.
Runsheng Benson Guo, Utkarsh Anand, Arthur Chen
― 6 min ler
A MASA oferece uma solução pra aumentar a segurança em sistemas de Aprendizado Federado.
Jiahao Xu, Zikai Zhang, Rui Hu
― 5 min ler
Um olhar sobre várias práticas agrícolas e tecnologias em Varanasi.
Ramakant Kumar
― 9 min ler
HEXA-MoE melhora a eficiência da IA com colaboração de especialistas e menos comunicação.
Shuqing Luo, Jie Peng, Pingzhi Li
― 7 min ler
Um novo método melhora a eficiência de modelos de linguagem grandes, compartilhando tarefas entre GPU e CPU.
Xuanlin Jiang, Yang Zhou, Shiyi Cao
― 4 min ler
Esse artigo fala sobre limitações e estratégias no treinamento de grandes modelos de IA.
Ege Erdil, David Schneider-Joseph
― 8 min ler
xDiT transforma a velocidade de gerar visuais de alta qualidade com uma colaboração inteligente.
Jiarui Fang, Jinzhe Pan, Xibo Sun
― 6 min ler
Cientistas melhoram a pesquisa em fusão nuclear com frameworks de computação adaptáveis.
Josef Ruzicka, Christian Asch, Esteban Meneses
― 9 min ler
O Aprendizado Federado oferece uma nova forma de proteger dados enquanto colabora entre dispositivos.
Chunlu Chen, Ji Liu, Haowen Tan
― 8 min ler
Um novo método identifica dispositivos problemáticos em aprendizado federado pra melhorar a velocidade e a segurança.
Dipanwita Thakur, Antonella Guzzo, Giancarlo Fortino
― 9 min ler
Uma nova abordagem pra cortar custos em serviços de IA usando instâncias mistas.
Ziming Mao, Tian Xia, Zhanghao Wu
― 5 min ler
Descubra como um novo sistema melhora a privacidade dos dados e a velocidade de processamento para LLMs.
Yifan Tan, Cheng Tan, Zeyu Mi
― 7 min ler
Aprenda como os agentes se comunicam melhor em cenários caóticos.
Niccolò D'Archivio, Amos Korman, Emanuele Natale
― 6 min ler
Novo modelo simplifica a criação de grafos acíclicos direcionados.
Mufei Li, Viraj Shitole, Eli Chien
― 6 min ler
Aprenda como o aprendizado federado hierárquico protege os dados enquanto permite a colaboração entre dispositivos.
Seyed Mohammad Azimi-Abarghouyi, Nicola Bastianello, Karl H. Johansson
― 8 min ler
Saiba como novos métodos reduzem o uso de memória em algoritmos de detecção de comunidades.
Subhajit Sahu
― 6 min ler
Saiba como o FedGPL ajuda as organizações a colaborarem enquanto protegem a privacidade dos seus dados.
Zhuoning Guo, Ruiqian Han, Hao Liu
― 7 min ler
Aprenda a lidar com trabalhadores lentos na computação pra aumentar a eficiência.
Tharindu Adikari, Haider Al-Lawati, Jason Lam
― 5 min ler
Agrupar mensagens melhora a eficiência na computação moderna.
Kavitha Chandrasekar, Laxmikant Kale
― 8 min ler
Descubra como a AI Metropolis agiliza e melhora as interações dos agentes nas simulações.
Zhiqiang Xie, Hao Kang, Ying Sheng
― 6 min ler
Uma estrutura que acelera a programação dinâmica em bioinformática, tornando a pesquisa mais eficiente.
Yingqi Cao, Anshu Gupta, Jason Liang
― 7 min ler
Descubra como o Web3 e a IA estão mudando o cenário digital.
David Hyland-Wood, Sandra Johnson
― 8 min ler
FLAME melhora a navegação interna com serviços de mapeamento federados, respeitando a privacidade do usuário.
Sagar Bharadwaj, Luke Wang, Michael Liang
― 8 min ler
Descubra como o ParaGAN melhora o treinamento de GANs para resultados mais rápidos.
Ziji Shi, Jialin Li, Yang You
― 8 min ler
Analisando os efeitos do EIP-4844 do Ethereum sobre os construtores e rollups.
Yue Huang, Shuzheng Wang, Yuming Huang
― 6 min ler
Esse método melhora como os computadores compartilham conhecimento pra aprender melhor.
Yoni Choukroun, Shlomi Azoulay, Pavel Kisilev
― 6 min ler
Uma nova abordagem pra treinar máquinas em dispositivos pequenos com menos complexidade.
Yequan Zhao, Hai Li, Ian Young
― 7 min ler