Um olhar sobre os riscos de vazamento de prompts em grandes modelos de linguagem e métodos de prevenção.
Zi Liang, Haibo Hu, Qingqing Ye
― 6 min ler
Ciência de ponta explicada de forma simples
Um olhar sobre os riscos de vazamento de prompts em grandes modelos de linguagem e métodos de prevenção.
Zi Liang, Haibo Hu, Qingqing Ye
― 6 min ler
LoRD melhora a eficiência em ataques de extração de modelo em grandes modelos de linguagem.
Zi Liang, Qingqing Ye, Yanyun Wang
― 7 min ler