Estudo revela possíveis vazamentos de informações pessoais por VLMs.
― 6 min ler
Ciência de ponta explicada de forma simples
Estudo revela possíveis vazamentos de informações pessoais por VLMs.
― 6 min ler
Analisando o papel da IA contestável para justiça e responsabilidade.
― 7 min ler
Uma nova estrutura melhora o alinhamento dos modelos de linguagem com as preferências dos usuários.
― 8 min ler
A pesquisa explora como estimar estatísticas respeitando as necessidades de privacidade dos usuários.
― 7 min ler
Um novo conjunto de dados destaca os preconceitos em modelos de fala baseados em gênero e idade.
― 8 min ler
Chatbots de IA podem criar falsas memórias, o que levanta preocupações em ambientes legais.
― 7 min ler
Novos métodos melhoram o reconhecimento facial enquanto lidam com preocupações de privacidade.
― 7 min ler
Um método pra melhorar a detecção de deepfakes, diminuindo os preconceitos nos dados.
― 5 min ler
Analisando como os modelos de linguagem lidam com preconceitos sociais em opiniões.
― 7 min ler
Um novo método reduz os preconceitos em modelos de imagem e texto de forma eficaz.
― 7 min ler
Um novo método melhora a detecção de prompts prejudiciais em modelos de linguagem.
― 7 min ler
Uma olhada nas principais diferenças entre IA Explicável e IA Interpretável.
― 9 min ler
Explorando o desaprender certificado e seu papel na proteção da privacidade dos dados.
― 7 min ler
Analisando os preconceitos sociais em modelos de linguagem e motores de busca em chinês.
― 5 min ler
Uma nova abordagem pra melhorar a justiça e a precisão no reconhecimento facial.
― 5 min ler
Analisando como as identidades sociais afetam os preconceitos em modelos de linguagem.
― 6 min ler
Estudo revela vulnerabilidades em modelos de IA por causa de ataques de backdoor.
― 6 min ler
Um novo conjunto de dados busca melhorar a compreensão do viés de gênero na IA.
― 7 min ler
Analisando como a responsabilidade e o seguro podem mitigar os riscos da IA.
― 6 min ler
Uma ferramenta ajuda os usuários a confirmar se seus dados foram usados em modelos de aprendizado profundo.
― 6 min ler
Pesquisas mostram como informações falsas afetam a confiabilidade e precisão dos modelos de linguagem.
― 6 min ler
Explorando preocupações sobre privacidade ao ajustar modelos de difusão com dados pessoais.
― 7 min ler
Analisando questões de segurança importantes relacionadas a modelos de linguagem grandes em IA.
― 7 min ler
Uma nova abordagem de IA promove o pensamento crítico e a criatividade pra reduzir a dependência.
― 10 min ler
Este artigo examina o viés em sistemas TTI e o papel das embeddings.
― 6 min ler
Analisando as questões de privacidade ligadas a SDKs de terceiros em aplicativos móveis.
― 5 min ler
Uma nova abordagem pra aumentar a transparência nas respostas e tomadas de decisão da IA.
― 8 min ler
A ARTAI tem como objetivo avaliar os impactos sociais dos sistemas de recomendação e aumentar a transparência.
― 7 min ler
Explorando Ataques de Preferência Reversa e seu impacto na segurança do modelo.
― 6 min ler
Explorando como dados sintéticos protegem a privacidade enquanto liberam o acesso à pesquisa.
― 7 min ler
Novos métodos melhoram Modelos de Linguagem Grande através de um processamento de informação mais eficiente.
― 6 min ler
Examinando os problemas de aumentar modelos de IA além do necessário.
― 10 min ler
Um novo método pra proteger os direitos individuais contra o uso indevido de imagens em animações.
― 6 min ler
Equilibrando privacidade e performance em IA com técnicas inovadoras de desaprendizagem.
― 6 min ler
Este estudo analisa como as pessoas diferenciam rostos reais de rostos gerados por IA.
― 6 min ler
Analisando os problemas na reportagem de incidentes de IA pra melhorar as práticas e a compreensão.
― 7 min ler
Técnicas para proteger dados sensíveis em aprendizado de máquina.
― 6 min ler
Investigando as preocupações de qualidade e segurança do código gerado por IA.
― 9 min ler
Um estudo revela os motivos por trás do uso secreto de IA e destaca a necessidade de transparência.
― 10 min ler
Um estudo mostra que empurrões funcionam pra manchetes, mas não pra vídeos deepfake fofinhos.
― 6 min ler