A busca por uma IA explicável foca na transparência e na confiança nas decisões.
― 6 min ler
Ciência de ponta explicada de forma simples
A busca por uma IA explicável foca na transparência e na confiança nas decisões.
― 6 min ler
Analisando como os modelos de linguagem de IA refletem preconceitos contra comunidades marginalizadas.
― 7 min ler
Uma técnica nova verifica a exposição dos dados de treino em modelos de difusão.
― 6 min ler
Essa pesquisa apresenta um método pra identificar gráficos reais e gerados.
― 6 min ler
Um novo método usa busca de arquitetura neural pra melhorar a detecção de falsificações faciais.
― 8 min ler
Explorando a importância da participação pública na IA e seus desafios.
― 8 min ler
Um olhar sobre o viés de gênero na IA e seu impacto na sociedade.
― 10 min ler
Os apps móveis muitas vezes não são claros na coleta de dados, o que afeta a confiança dos usuários.
― 10 min ler
Esse artigo explora o impacto do viés de gênero na análise de sentimentos com BERT.
― 5 min ler
Explorando a natureza das crenças em grandes modelos de linguagem.
― 5 min ler
A explicabilidade na IA é super importante pra confiar em áreas críticas como saúde.
― 6 min ler
A cooperação internacional é fundamental pra lidar com os riscos e benefícios da IA.
― 7 min ler
Pequenos preconceitos na IA podem resultar em grandes injustiças.
― 8 min ler
Esse artigo explora a ligação entre atribuições de recursos e explicações contrafactuais na IA.
― 7 min ler
Analisando os riscos e os desafios de explicação dos ataques adversariais em modelos de IA.
― 8 min ler
Explorando os riscos de privacidade e estratégias pra gerenciar vazamento de dados em modelos de linguagem.
― 5 min ler
Este artigo analisa métodos para testar modelos de linguagem em relação a preconceitos.
― 5 min ler
A diversidade no design de IA é super importante pra evitar viés e promover a justiça.
― 7 min ler
Esse artigo fala sobre como criar hashmaps justos pra uma gestão de dados equitativa.
― 7 min ler
Apresentando um jeito seguro de identificar texto gerado por máquinas.
― 9 min ler
Analisando como os preconceitos na IA afetam as sugestões de emprego para diferentes grupos.
― 6 min ler
Uma olhada em quão empático o ChatGPT realmente é.
― 6 min ler
Analisando os desafios e as oportunidades da privacidade diferencial na análise de dados.
― 7 min ler
Analisando os riscos de reidentificação em decisões judiciais anonimizadas usando modelos de linguagem.
― 7 min ler
Explorando um novo método pra proteger a privacidade em pesquisas causais sem perder a precisão.
― 6 min ler
Um novo conjunto de dados traz informações sobre viés na tecnologia de linguagem.
― 8 min ler
Usando perplexidade pra identificar entradas arriscadas em modelos de linguagem.
― 5 min ler
Pesquisas analisam como o ChatGPT lida com preconceitos em discussões polêmicas.
― 9 min ler
Examinando os riscos ligados aos principais modelos de visão computacional e sua eficácia.
― 6 min ler
Uma abordagem estruturada para criar conjuntos de dados eficazes para análise de discurso de ódio.
― 9 min ler
Um estudo revela preconceito de gênero em IA em várias culturas.
― 6 min ler
Esse estudo investiga os preconceitos em modelos de linguagem usando aprendizado baseado em prompts.
― 6 min ler
Fairness as a Service enfrenta o viés em sistemas de aprendizado de máquina de forma segura.
― 7 min ler
Explorando a necessidade de explicações claras na tomada de decisão da IA, especialmente em modelos quânticos.
― 7 min ler
Uma nova estrutura busca esclarecer a tomada de decisão da IA para os humanos.
― 7 min ler
Um estudo sobre como os usuários interpretam as explicações da IA e suas limitações.
― 11 min ler
Explorando como os atacantes usam modelos de linguagem grandes para extrair conhecimento.
― 7 min ler
Um estudo sobre como identificar textos gerados por humanos e por máquinas e suas fontes.
― 7 min ler
A sanitização do conhecimento ajuda a proteger informações sensíveis em modelos de linguagem.
― 7 min ler
Analisando a eficácia de marcas d'água contra ataques adaptativos em imagens deepfake.
― 6 min ler