Uma nova abordagem protege os modelos de linguagem de manipulações prejudiciais na entrada.
― 7 min ler
Ciência de ponta explicada de forma simples
Uma nova abordagem protege os modelos de linguagem de manipulações prejudiciais na entrada.
― 7 min ler
Um estudo revela o ataque WordGame, explorando as fraquezas nas medidas de segurança dos LLMs.
― 6 min ler
Um método novo melhora a compreensão dos resultados dos modelos de linguagem.
― 5 min ler
Uma nova abordagem pra aumentar a resistência das GNNs contra barulho e ataques.
― 8 min ler
Novos métodos como o PromptFix ajudam a proteger modelos de linguagem de ameaças ocultas.
― 6 min ler
Um estudo sobre o PlagBench e seu papel na detecção de plágio em saídas de LLM.
― 5 min ler
FADAS melhora o aprendizado federado permitindo atualizações assíncronas dos clientes enquanto mantém a privacidade dos dados.
― 6 min ler
Pesquisadores propõem um método pra melhorar modelos médicos sem comprometer a privacidade dos dados.
― 5 min ler
Um sistema para aprendizado seguro de IA na saúde sem compartilhar dados dos pacientes.
― 10 min ler
Novo método permite ataques de backdoor sem dados limpos ou mudanças no modelo.
― 7 min ler
Descubra como correlação e coskewness revelam relações ocultas nos dados.
― 7 min ler