Um jeito de manter a privacidade enquanto compartilha estatísticas de tráfego urbano.
― 6 min ler
Ciência de ponta explicada de forma simples
Um jeito de manter a privacidade enquanto compartilha estatísticas de tráfego urbano.
― 6 min ler
Esse artigo explora estratégias pra proteger a privacidade individual em aprendizado de máquina.
― 8 min ler
Aprenda como a privacidade diferencial protege os dados individuais enquanto permite uma análise útil.
― 6 min ler
Uma nova abordagem pra IA combina modelos de linguagem com programas simbólicos pra uma melhor interpretabilidade.
― 9 min ler
Aprenda as melhores práticas para desenvolver modelos de IA de maneira responsável e eficaz.
― 6 min ler
Uma olhada nas categorias de risco da IA e na necessidade de políticas unificadas.
― 7 min ler
Novos métodos revelam sérias ameaças à privacidade devido ao compartilhamento de dados de localização.
― 7 min ler
Este artigo analisa se os grandes modelos de linguagem têm crenças e intenções.
― 6 min ler
Discutindo a justiça a longo prazo na tecnologia e seu impacto social.
― 9 min ler
AAggFF apresenta estratégias adaptativas para um desempenho equitativo de modelos em Aprendizado Federado.
― 7 min ler
Ferramentas como a OxonFair ajudam a garantir a justiça nas decisões da IA.
― 8 min ler
Pesquisas mostram como é fácil remover as funções de segurança dos modelos Llama 3.
― 6 min ler
Pesquisas mostram como ajustes nos prompts podem melhorar as respostas da IA para diferentes culturas.
― 6 min ler
Esse artigo analisa os riscos ligados aos LLMs e sugere formas de melhorar a segurança.
― 5 min ler
Uma nova estrutura tem como objetivo detectar e corrigir erros nos resultados de LVLM.
― 8 min ler
Este estudo examina questões de privacidade e métodos de proteção para classificadores de IA.
― 6 min ler
Esse estudo avalia como os modelos de IA entendem diferentes culturas.
― 5 min ler
Um novo método de defesa pra aumentar a segurança em modelos de difusão de texto pra imagem.
― 5 min ler
A NFARD oferece métodos inovadores pra proteger os direitos autorais de modelos de aprendizado profundo.
― 8 min ler
Este estudo foca em reduzir o viés de gênero em modelos de linguagem de IA através de uma linguagem inclusiva.
― 7 min ler
Melhorando a confiança e a conformidade em modelos de linguagem através de atribuição precisa de fontes.
― 7 min ler
Este estudo revela que os LLMs preferem suas próprias respostas do que o conteúdo escrito por humanos.
― 4 min ler
Estudo mostra que tanto humanos quanto IA têm dificuldade pra se reconhecer.
― 7 min ler
Analisando como a linguagem influencia as visões de gênero através de preconceitos em modelos de IA.
― 4 min ler
A CEIPA ajuda a descobrir vulnerabilidades em modelos de linguagem grandes pra aumentar a segurança deles.
― 7 min ler
Analisando os riscos e medidas de segurança para robôs com IA.
― 8 min ler
Analisando o impacto dos LLMs nos estereótipos sociais e formas de melhorar os resultados.
― 6 min ler
Estudo revela riscos surpreendentes de compartilhar dados sensíveis com chatbots.
― 9 min ler
Analisando privacidade diferencial e regressão NTK pra proteger dados dos usuários em IA.
― 8 min ler
Explorando privacidade diferencial pra proteger informações sensíveis em aplicações de IA.
― 6 min ler
A Honest Computing foca em confiança e ética no tratamento de dados.
― 11 min ler
Uma estrutura que permite aos donos dos dados verificarem o uso não autorizado dos seus dados em ML.
― 8 min ler
Esse método melhora a privacidade enquanto aumenta a precisão do modelo em IA.
― 7 min ler
Explorando técnicas pra remover dados de forma eficaz dos modelos de IA.
― 9 min ler
Analisando os efeitos sociais e ambientais dos modelos de fundação de IA.
― 7 min ler
Analisando a privacidade diferencial em processamento de linguagem natural pra uma proteção de dados melhor.
― 9 min ler
Analisando como ferramentas de IA podem reforçar preconceitos na triagem de currículos.
― 6 min ler
O método CrossWalk melhora a equidade nas embeddings de nós enquanto considera informações sensíveis.
― 6 min ler
Explicações enganosas de IA podem influenciar crenças, complicando a luta contra a desinformação.
― 6 min ler
Este artigo examina a eficácia dos métodos atuais de verificação de desvinculação em máquinas.
― 7 min ler