Melhorando a confiança e a conformidade em modelos de linguagem através de atribuição precisa de fontes.
― 7 min ler
Ciência de ponta explicada de forma simples
Melhorando a confiança e a conformidade em modelos de linguagem através de atribuição precisa de fontes.
― 7 min ler
Este estudo revela que os LLMs preferem suas próprias respostas do que o conteúdo escrito por humanos.
― 4 min ler
Estudo mostra que tanto humanos quanto IA têm dificuldade pra se reconhecer.
― 7 min ler
Analisando como a linguagem influencia as visões de gênero através de preconceitos em modelos de IA.
― 4 min ler
A CEIPA ajuda a descobrir vulnerabilidades em modelos de linguagem grandes pra aumentar a segurança deles.
― 7 min ler
Analisando os riscos e medidas de segurança para robôs com IA.
― 8 min ler
Analisando o impacto dos LLMs nos estereótipos sociais e formas de melhorar os resultados.
― 6 min ler
Estudo revela riscos surpreendentes de compartilhar dados sensíveis com chatbots.
― 9 min ler
Analisando privacidade diferencial e regressão NTK pra proteger dados dos usuários em IA.
― 8 min ler
Explorando privacidade diferencial pra proteger informações sensíveis em aplicações de IA.
― 6 min ler
A Honest Computing foca em confiança e ética no tratamento de dados.
― 11 min ler
Uma estrutura que permite aos donos dos dados verificarem o uso não autorizado dos seus dados em ML.
― 8 min ler
Esse método melhora a privacidade enquanto aumenta a precisão do modelo em IA.
― 7 min ler
Explorando técnicas pra remover dados de forma eficaz dos modelos de IA.
― 9 min ler
Analisando os efeitos sociais e ambientais dos modelos de fundação de IA.
― 7 min ler
Analisando a privacidade diferencial em processamento de linguagem natural pra uma proteção de dados melhor.
― 9 min ler
Analisando como ferramentas de IA podem reforçar preconceitos na triagem de currículos.
― 6 min ler
O método CrossWalk melhora a equidade nas embeddings de nós enquanto considera informações sensíveis.
― 6 min ler
Explicações enganosas de IA podem influenciar crenças, complicando a luta contra a desinformação.
― 6 min ler
Este artigo examina a eficácia dos métodos atuais de verificação de desvinculação em máquinas.
― 7 min ler
Examinando como os T2Is retratam identidades de casta e reforçam estereótipos.
― 8 min ler
Estudo revela possíveis vazamentos de informações pessoais por VLMs.
― 6 min ler
Analisando o papel da IA contestável para justiça e responsabilidade.
― 7 min ler
Uma nova estrutura melhora o alinhamento dos modelos de linguagem com as preferências dos usuários.
― 8 min ler
A pesquisa explora como estimar estatísticas respeitando as necessidades de privacidade dos usuários.
― 7 min ler
Um novo conjunto de dados destaca os preconceitos em modelos de fala baseados em gênero e idade.
― 8 min ler
Chatbots de IA podem criar falsas memórias, o que levanta preocupações em ambientes legais.
― 7 min ler
Novos métodos melhoram o reconhecimento facial enquanto lidam com preocupações de privacidade.
― 7 min ler
Um método pra melhorar a detecção de deepfakes, diminuindo os preconceitos nos dados.
― 5 min ler
Analisando como os modelos de linguagem lidam com preconceitos sociais em opiniões.
― 7 min ler
Um novo método reduz os preconceitos em modelos de imagem e texto de forma eficaz.
― 7 min ler
Um novo método melhora a detecção de prompts prejudiciais em modelos de linguagem.
― 7 min ler
Uma olhada nas principais diferenças entre IA Explicável e IA Interpretável.
― 9 min ler
Explorando o desaprender certificado e seu papel na proteção da privacidade dos dados.
― 7 min ler
Analisando os preconceitos sociais em modelos de linguagem e motores de busca em chinês.
― 5 min ler
Uma nova abordagem pra melhorar a justiça e a precisão no reconhecimento facial.
― 5 min ler
Analisando como as identidades sociais afetam os preconceitos em modelos de linguagem.
― 6 min ler
Estudo revela vulnerabilidades em modelos de IA por causa de ataques de backdoor.
― 6 min ler
Um novo conjunto de dados busca melhorar a compreensão do viés de gênero na IA.
― 7 min ler
Analisando como a responsabilidade e o seguro podem mitigar os riscos da IA.
― 6 min ler