Esse estudo apresenta um novo método pra identificar as imagens de treinamento chave em visuais gerados por IA.
― 9 min ler
Ciência de ponta explicada de forma simples
Esse estudo apresenta um novo método pra identificar as imagens de treinamento chave em visuais gerados por IA.
― 9 min ler
Explorando técnicas pra reduzir preconceitos em modelos de linguagem avançados.
― 8 min ler
Um novo método enfrenta ameaças escondidas em grandes modelos de linguagem.
― 8 min ler
Esse artigo explora a justiça e a estabilidade em modelos de aprendizado de máquina que são afetados por suas previsões.
― 10 min ler
Este artigo discute métodos para melhorar o alinhamento da IA com várias culturas.
― 8 min ler
Avaliação de estratégias para gerenciar questões de direitos autorais em modelos de linguagem.
― 8 min ler
Esse workshop analisa estereótipos de gênero na IA através da ótica dos preconceitos sociais.
― 10 min ler
Melhorando como as máquinas respondem a perguntas visuais por meio de raciocínio estruturado.
― 7 min ler
Uma olhada em métodos pra reduzir o viés em decisões automatizadas usando Aprendizado de Representação Justa.
― 8 min ler
Este artigo discute métodos para reduzir o viés em conjuntos de dados de imagem e texto de IA.
― 6 min ler
FairPFN usa transformadores pra promover justiça nas previsões de aprendizado de máquina.
― 7 min ler
Novo método analisa como os dados de treino afetam as saídas do modelo de IA.
― 9 min ler
Novo índice mostra progresso na transparência dos modelos de IA entre os desenvolvedores.
― 9 min ler
Analisando o papel da atribuição de crédito em aprendizado de máquina e problemas de direitos autorais.
― 7 min ler
Entendendo a importância de auditar explicações de machine learning para confiança.
― 8 min ler
Debiasing seletivo tem como objetivo melhorar a justiça nas previsões de aprendizado de máquina.
― 6 min ler
Esse estudo fala sobre como lidar com preconceitos em modelos de geração de imagens, melhorando a inclusão.
― 6 min ler
Este artigo mostra como os VLMs refletem estereótipos de gênero em tarefas do dia a dia.
― 6 min ler
A pesquisa foca em melhorar a segurança em grandes modelos de linguagem por meio de técnicas de alinhamento.
― 7 min ler
A PointNCBW oferece um jeito seguro de verificar a posse de conjuntos de dados de nuvem de pontos.
― 6 min ler
Um estudo sobre como melhorar os métodos para avaliar ataques de Inferência de Membro em modelos de linguagem.
― 6 min ler
Explore a necessidade de um sistema de feedback aberto pra melhorar as respostas da IA.
― 6 min ler
Um novo método pra gerar dados sintéticos sem viés pra aplicações de IA.
― 8 min ler
Novos métodos melhoram como os modelos de linguagem esquecem conhecimento indesejado.
― 7 min ler
Apresentando explicações alterfatuais pra aumentar a transparência dos modelos de IA.
― 8 min ler
Analisando o tratamento dos trabalhadores de dados na IA e seu impacto na justiça.
― 9 min ler
Analisando a importância da justiça em sistemas de IA que impactam vidas.
― 6 min ler
Uma nova abordagem para valorizar dados destaca sua singularidade para aprendizado de máquina.
― 7 min ler
Insights e orientações para a criação responsável de conjuntos de dados em aprendizado de máquina.
― 6 min ler
Analisando como fatores sociais influenciam os resultados de machine learning na saúde.
― 8 min ler
Explorando as lacunas atuais nas práticas de transparência de dados em sistemas de IA.
― 8 min ler
Analisando o impacto da IA e dos sistemas de crédito clínico na privacidade e direitos dos pacientes.
― 9 min ler
Explora a ascensão e o impacto dos Modelos Fundamentais na inteligência artificial.
― 6 min ler
Uma estrutura pra identificar e reduzir preconceitos em dados visuais para modelos de IA.
― 8 min ler
Um novo framework tem como objetivo descobrir preconceitos em cenários de interpretação de papéis de modelos de linguagem.
― 8 min ler
Um novo método tem como objetivo reduzir o viés nas previsões dos modelos de linguagem.
― 10 min ler
Os desenvolvedores podem melhorar a privacidade dos apps analisando melhor as avaliações dos usuários com técnicas avançadas.
― 6 min ler
Uma nova abordagem lida com os preconceitos em modelos de imagem-texto de forma eficaz.
― 7 min ler
Um projeto pretende dar aos artistas controle sobre suas contribuições criativas para a IA.
― 6 min ler
Descubra como os dados de voz emocionais estão transformando a tecnologia de verificação de fala.
― 7 min ler