Entendendo técnicas pra driblar segurança em modelos de linguagem.
― 6 min ler
Ciência de ponta explicada de forma simples
Entendendo técnicas pra driblar segurança em modelos de linguagem.
― 6 min ler
Explorando o uso de marcas d'água pra lidar com questões de copyright em modelos de linguagem.
― 7 min ler
Um novo conjunto de dados sintético permite detecção precisa de cabeças e modelagem 3D.
― 12 min ler
Um estudo detalhado sobre como os modelos memorizam texto e suas implicações.
― 6 min ler
Uma análise de como as pesquisas impactam a pesquisa em IA, valores e engajamento público.
― 11 min ler
Esse projeto tem como objetivo identificar e reduzir o viés em modelos de linguagem em várias línguas europeias.
― 5 min ler
Um mergulho profundo na importância de interpretar modelos de PNL.
― 5 min ler
Analisando os métodos de preparação de dados para o treinamento de modelos.
― 6 min ler
Uma nova abordagem pra avaliar a confiabilidade dos métodos que explicam a tomada de decisão da IA.
― 9 min ler
Analisando questões de fairness em algoritmos de detecção de anomalias em imagens faciais.
― 7 min ler
Explorando o esquecimento de máquinas e seu papel em melhorar a segurança e a privacidade da IA generativa.
― 9 min ler
Explorando os preconceitos humanos e seu impacto na justiça da IA.
― 9 min ler
Novos métodos detectam e respondem à memorização em conteúdo gerado por IA.
― 9 min ler
Explorando princípios para relacionamentos éticos entre as pessoas e seus dados.
― 7 min ler
Novos métodos enfrentam problemas de cópia em modelos de geração de imagem.
― 6 min ler
Analisando preconceitos e justiça em grandes modelos de linguagem.
― 7 min ler
Explorando o papel e os desafios dos LLMs na engenharia do conhecimento.
― 8 min ler
Estudo revela lacunas na representação de usuários marginalizados do Stable Diffusion.
― 7 min ler
Um novo modelo pra troca de rostos realista usando técnicas avançadas.
― 8 min ler
Uma visão geral dos riscos e métodos relacionados à segurança de modelos de linguagem.
― 6 min ler
Uma olhada no viés e na justiça na tecnologia de visão computacional.
― 9 min ler
Modelos de linguagem maiores mostram mais vulnerabilidade a comportamentos de dados prejudiciais.
― 7 min ler
Métodos inovadores para aumentar a justiça em modelos de linguagem grandes.
― 8 min ler
Analisando os riscos de jailbreak de muitos disparos em modelos de linguagem em italiano.
― 4 min ler
Ataques de shuffling revelam vulnerabilidades nas avaliações de justiça em IA usando métodos como SHAP.
― 7 min ler
Esse artigo analisa como diferentes contextos afetam os resultados dos testes de justiça em IA.
― 6 min ler
Descubra as últimas novidades nos modelos de texto para imagem e como eles estão impactando as coisas.
― 9 min ler
Apresentando o BMFT: um método pra melhorar a justiça em machine learning sem precisar dos dados de treino originais.
― 5 min ler
A SAGE-RT cria dados sintéticos pra melhorar as avaliações de segurança de modelos de linguagem.
― 6 min ler
Um estudo sobre detecção de viés em modelos de PNL e suas implicações.
― 8 min ler
Esse estudo analisa traços de personalidade de um modelo de linguagem em nove idiomas.
― 6 min ler
O MIA-Tuner tenta resolver problemas de privacidade nos dados de treinamento de LLM.
― 6 min ler
Esse estudo analisa como os preconceitos afetam as respostas dos modelos de linguagem e propõe soluções.
― 8 min ler
Técnicas pra proteger fotos pessoais de uso indevido por modelos generativos.
― 7 min ler
Explorando como inputs externos moldam as respostas de modelos de linguagem grandes.
― 7 min ler
O REFINE-LM usa aprendizado por reforço pra reduzir o viés em modelos de linguagem de forma eficaz.
― 5 min ler
Um novo método melhora o rastreamento de vazamentos de privacidade em grandes modelos de linguagem.
― 9 min ler
Um olhar crítico sobre o impacto da IA na ciência e na compreensão.
― 6 min ler
Como a rotulagem de IA afeta a aceitação e percepção dos usuários em veículos.
― 5 min ler
Analisando o impacto da IA generativa no conhecimento e nas comunidades marginalizadas.
― 7 min ler