Analisando a ascensão e os riscos dos prompts de jailbreak em modelos de linguagem.
― 7 min ler
Ciência de ponta explicada de forma simples
Analisando a ascensão e os riscos dos prompts de jailbreak em modelos de linguagem.
― 7 min ler
Novos métodos buscam combater a toxicidade online usando técnicas de aprendizado por prompt.
― 8 min ler
Um estudo revela vulnerabilidades em modelos de linguagem atualizados contra ataques adversariais.
― 6 min ler
Métodos de adaptação em tempo de teste enfrentam vulnerabilidades por ataques de envenenamento, o que desafiou a eficácia deles.
― 8 min ler
LLMs customizados levantam preocupações de segurança, principalmente com ataques de backdoor por instrução.
― 7 min ler
Analisando as ameaças que os agentes autônomos de modelos de linguagem trazem e suas fraquezas.
― 7 min ler
Analisando os efeitos das atualizações na segurança, viés e autenticidade na geração de imagens.
― 8 min ler