Investigando como os LLMs interagem com os pensamentos e sentimentos humanos.
― 9 min ler
Ciência de ponta explicada de forma simples
Investigando como os LLMs interagem com os pensamentos e sentimentos humanos.
― 9 min ler
Esse artigo fala sobre métodos pra deixar os resultados dos modelos de linguagem mais justos.
― 7 min ler
Um jeito de prevenir o uso indevido de modelos de texto pra imagem, sem deixar de lado as aplicações legais deles.
― 7 min ler
Pesquisas mostram que há vulnerabilidades na abordagem de privacidade de texto do aprendizado federado.
― 6 min ler
Melhorando modelos pra entender as interações cotidianas entre humanos e objetos com abordagens inovadoras.
― 6 min ler
Uma olhada na importância da segurança em sistemas de IA e interações com usuários.
― 10 min ler
Um método novo melhora a compreensão dos resultados dos modelos de linguagem.
― 5 min ler
Explorando segurança, confiabilidade e questões éticas em modelos de linguagem.
― 8 min ler
Analisando a dificuldade da IA com a honestidade e seu impacto na confiança dos usuários.
― 9 min ler
Este artigo analisa como a IA pode impactar grupos marginalizados e formas de melhorar os resultados.
― 8 min ler
Explore os desafios de privacidade causados por ataques de inferência em modelos de aprendizado de máquina.
― 9 min ler
Explorando aprendizado federado e desfazer aprendizado pra privacidade do usuário e integridade do modelo.
― 5 min ler
Explorando as complexidades de alinhar sistemas de IA com os diversos interesses humanos.
― 7 min ler
Esse artigo analisa como modelos de difusão melhoram tarefas de geração e manipulação de imagens.
― 8 min ler
Analisando como a justiça em aprendizado de máquina pode evoluir ao longo das decisões e do tempo.
― 7 min ler
Esse artigo fala sobre os desafios do "machine unlearning" e uma nova abordagem pra equilibrar privacidade e precisão.
― 6 min ler
Esse artigo explora técnicas e desafios na detecção de mídias deepfake.
― 7 min ler
Estudo revela preconceitos nas recomendações de contratação de IA com base nos nomes dos candidatos.
― 8 min ler
As características dos usuários influenciam as respostas dos modelos de linguagem e a segurança deles.
― 7 min ler
Analisando como o viés cultural afeta a compreensão de imagens pela IA.
― 10 min ler
Um jeito de manter a privacidade enquanto compartilha estatísticas de tráfego urbano.
― 6 min ler
Esse artigo explora estratégias pra proteger a privacidade individual em aprendizado de máquina.
― 8 min ler
Aprenda como a privacidade diferencial protege os dados individuais enquanto permite uma análise útil.
― 6 min ler
Uma nova abordagem pra IA combina modelos de linguagem com programas simbólicos pra uma melhor interpretabilidade.
― 9 min ler
Aprenda as melhores práticas para desenvolver modelos de IA de maneira responsável e eficaz.
― 6 min ler
Uma olhada nas categorias de risco da IA e na necessidade de políticas unificadas.
― 7 min ler
Novos métodos revelam sérias ameaças à privacidade devido ao compartilhamento de dados de localização.
― 7 min ler
Este artigo analisa se os grandes modelos de linguagem têm crenças e intenções.
― 6 min ler
Discutindo a justiça a longo prazo na tecnologia e seu impacto social.
― 9 min ler
AAggFF apresenta estratégias adaptativas para um desempenho equitativo de modelos em Aprendizado Federado.
― 7 min ler
Ferramentas como a OxonFair ajudam a garantir a justiça nas decisões da IA.
― 8 min ler
Pesquisas mostram como é fácil remover as funções de segurança dos modelos Llama 3.
― 6 min ler
Pesquisas mostram como ajustes nos prompts podem melhorar as respostas da IA para diferentes culturas.
― 6 min ler
Esse artigo analisa os riscos ligados aos LLMs e sugere formas de melhorar a segurança.
― 5 min ler
Uma nova estrutura tem como objetivo detectar e corrigir erros nos resultados de LVLM.
― 8 min ler
Este estudo examina questões de privacidade e métodos de proteção para classificadores de IA.
― 6 min ler
Esse estudo avalia como os modelos de IA entendem diferentes culturas.
― 5 min ler
Um novo método de defesa pra aumentar a segurança em modelos de difusão de texto pra imagem.
― 5 min ler
A NFARD oferece métodos inovadores pra proteger os direitos autorais de modelos de aprendizado profundo.
― 8 min ler
Este estudo foca em reduzir o viés de gênero em modelos de linguagem de IA através de uma linguagem inclusiva.
― 7 min ler