Um novo framework melhora a conclusão de gráficos de conhecimento com tipos de dados diversos.
― 9 min ler
Ciência de ponta explicada de forma simples
Um novo framework melhora a conclusão de gráficos de conhecimento com tipos de dados diversos.
― 9 min ler
Uma nova abordagem pra melhorar os mapas de saliência baseados em gradiente pra dar uma interpretada melhor nos modelos.
― 6 min ler
Um sistema melhora a privacidade no compartilhamento de dados para aplicações de visão computacional.
― 11 min ler
Aprenda sobre ataques adversariais e seu impacto nos modelos de aprendizado de máquina.
― 8 min ler
Um método pra aumentar a confiabilidade do classificador contra manipulação de dados.
― 6 min ler
Uma nova abordagem pra melhorar modelos de deep learning contra ataques adversariais.
― 7 min ler
Um novo método de treinamento melhora a capacidade das redes neurais de avaliar incertezas.
― 7 min ler
Um novo modelo melhora a recuperação de imagens para diagnóstico de histopatologia mamária.
― 12 min ler
Novo método melhora o desempenho das redes neurais contra ataques adversariais.
― 10 min ler
Um novo método pra melhorar o treinamento adversarial de redes neurais profundas.
― 6 min ler
Um estudo sobre como melhorar a robustez contra ataques em modelos de linguagem.
― 7 min ler
Novos métodos melhoram a segurança dos modelos de linguagem sem perder a funcionalidade.
― 8 min ler
O AdvUnlearn melhora a segurança na geração de imagens, juntando unlearning com treinamento adversarial.
― 6 min ler
Novo método tem como objetivo melhorar a segurança da geração de texto para imagem.
― 8 min ler
Uma olhada em como exemplos adversariais desafiam modelos de IA.
― 7 min ler
Uma nova abordagem melhora a justiça na identificação de discurso de ódio entre grupos diversos.
― 9 min ler
Um novo método melhora a detecção de falhas em máquinas por meio de um aprendizado de características mais eficaz.
― 7 min ler
Apresentando o PART, um método pra aumentar a precisão e a robustez dos modelos de aprendizado de máquina.
― 6 min ler
Uma nova abordagem para o treinamento adversarial melhora o desempenho e a segurança dos sistemas de IA.
― 7 min ler
Este artigo analisa melhorias em SSMs para resistência contra perturbações adversariais.
― 7 min ler
Apresentando o ProFeAT pra aumentar a robustez do modelo contra ataques adversariais.
― 7 min ler
A ADEP quer melhorar a segurança prevendo efeitos adversos de vários medicamentos.
― 8 min ler
Esse estudo investiga os limites de precisão e robustez em modelos de aprendizado de máquina.
― 7 min ler
Uma abordagem nova pra criar dados sintéticos sem preocupações com a privacidade.
― 8 min ler
Esse artigo fala sobre desaprendizado de características e seu impacto na privacidade e equidade em aprendizado de máquina.
― 7 min ler
Um novo modelo enfrenta preconceitos e melhora as previsões de preço das ações usando dados diversos.
― 6 min ler
Novas ideias sobre classificadores robustos melhoram a capacidade deles de resistir a ataques.
― 8 min ler
Combinar redes neurais com criptografia melhora os métodos de comunicação segura.
― 6 min ler
Analisando a vulnerabilidade das redes neurais a pequenas mudanças nos dados de entrada.
― 9 min ler
Analisando ataques adversariais e a robustez do modelo em segmentação semântica.
― 7 min ler
Explorando riscos e estratégias de defesa para modelos de linguagem grandes.
― 8 min ler
Nova arquitetura ViT melhora a precisão enquanto resiste a ameaças adversariais.
― 7 min ler
Esse artigo analisa métodos pra proteger sistemas de qualidade de imagem contra ataques adversariais.
― 7 min ler
Um novo método melhora a resiliência dos agentes de RL contra mudanças prejudiciais nos inputs.
― 8 min ler
Um novo método melhora o aprendizado a partir de dados complexos usando proximais de Wasserstein.
― 7 min ler
O treinamento adversarial melhora a precisão na detecção de palavras-chave em fala sintética e real.
― 6 min ler
Novos métodos melhoram o reconhecimento de voz em ambientes barulhentos.
― 5 min ler
O CLAT melhora a robustez do modelo contra ataques adversariais, mantendo a precisão em imagens normais.
― 5 min ler
Novos métodos melhoram a defesa dos modelos de machine learning contra ataques adversariais.
― 6 min ler
Uma técnica pra ajudar os robôs a se recuperarem de ataques sem sair da missão.
― 6 min ler