Memória na IA: Os Desafios de Esquecer
Aprenda como os modelos de IA têm dificuldade com memória e os impactos do esquecimento enviesado.
Megan Ung, Alicia Sun, Samuel J. Bell, Bhaktipriya Radharapu, Levent Sagun, Adina Williams
― 8 min ler
Índice
- Qual é a desse negócio de Memória?
- A Ordem das Tarefas Importa
- A Nova Palavra da Moda: Esquecimento Viesado
- Desenhando o Processo de Treinamento
- Experimentando com Tarefas
- Esquecimento Desigual Entre Grupos
- Efeitos da Similaridade das Tarefas
- A Taxa de Aprendizado e o Esquecimento
- Mitigando o Esquecimento com Repetição de Dados
- Direções Futuras
- A Conclusão
- Fonte original
- Ligações de referência
No mundo da inteligência artificial, especialmente nos modelos de linguagem grandes (LLMs), rolam umas paradas bem interessantes nos bastidores. Uma das maiores preocupações nessa área é um negócio chamado "ajuste em cadeia", que pode levar a erros. Esses erros geralmente estão relacionados a como os modelos esquecem coisas que aprenderam antes. Pois é, até as máquinas podem ter problemas de memória!
Qual é a desse negócio de Memória?
Quando falamos de memória em máquinas, não estamos falando do seu tio esquecido que não consegue lembrar onde deixou as chaves. Na verdade, estamos falando de um fenômeno chamado "Esquecimento Catastrófico." Isso acontece quando um modelo aprende algo novo e, no processo, esquece de algo que já entendia. Pense nisso como tentar lembrar um número de telefone novo enquanto esquece o aniversário do seu melhor amigo.
No caso dos LLMs, esse esquecimento pode ser especialmente problemático. Imagina um assistente de chat que começa sabendo ser legal e seguro, e depois de treinar para responder perguntas sobre física quântica, de repente não consegue mais ter uma conversa sem ofender alguém. Não é nada bom, né?
A Ordem das Tarefas Importa
Uma coisa legal que dá pra tirar dessa questão é que a ordem em que as tarefas são ensinadas ao modelo importa. Se você treina um modelo de linguagem para ser bom em responder perguntas científicas complexas e depois tenta torná-lo educado e seguro, tem uma boa chance de ele esquecer as boas maneiras. Ele passa de gênio nerd pra gênio rabugento que não consegue se dar bem com os outros.
Em um estudo, os pesquisadores descobriram que quando os modelos passaram por treinamento de segurança e viés depois de aprender capacidades, eles frequentemente esqueciam mais as regras de segurança do que se a ordem do treinamento fosse invertida. É como ensinar uma criança matemática antes de ensinar como se comportar à mesa. Você pode acabar com um gênio da matemática que não passa no teste de "pode passar o sal, por favor".
A Nova Palavra da Moda: Esquecimento Viesado
Como se o "esquecimento catastrófico" não fosse o bastante, os pesquisadores também identificaram um novo termo: "esquecimento viesado." Isso acontece quando certos grupos ou tipos de informações são esquecidos mais do que outros. Por exemplo, um modelo pode se sair bem em tarefas de segurança para alguns grupos, mas esquecer tudo quando se trata de outros, como seu tio esquecido com as chaves. Ele pode lembrar do aniversário de alguns amigos, enquanto esquece completamente de outros.
As implicações aqui são bem sérias. Se um modelo esquece como tratar certos grupos demográficos de forma justa, pode acabar produzindo saídas enviesadas ou prejudiciais. É como ter uma festa onde todo mundo é convidado, exceto algumas pessoas que misteriosamente não estão na lista. Não é legal!
Processo de Treinamento
Desenhando oPara combater esses problemas de memória, os pesquisadores estão pensando em como desenhar melhor o processo de treinamento. Eles acham que a Taxa de Aprendizado, a velocidade com que um modelo aprende, e como as tarefas são organizadas podem ter um papel crucial. Se você mudar um pouco as coisas e ensinar o modelo numa ordem diferente ou com velocidades diferentes, pode ajudar ele a reter mais do que aprendeu.
Imagine ensinar seu cachorro a sentar e ficar antes de ensinar ele a rolar. Se ele aprende a rolar primeiro, pode esquecer o básico de ser um bom cachorro. O mesmo princípio vale para os LLMs. Ao examinar os efeitos de vários métodos de treinamento, os pesquisadores esperam encontrar uma combinação que permita que os modelos fiquem mais espertos sem exagerar na memória.
Experimentando com Tarefas
Em um estudo, os pesquisadores usaram várias tarefas para ver o impacto do treinamento sobre viés e segurança. Eles examinaram dois conjuntos: tarefas de segurança, que ajudam a garantir que os modelos não produzam conteúdo prejudicial ou enviesado, e tarefas de capacidade, que testam a habilidade dos modelos de realizar funções complexas, como responder perguntas.
Eles descobriram que as tarefas de segurança eram mais propensas a serem esquecidas quando ensinadas depois das tarefas de capacidade. É como ensinar uma criança cálculo avançado e depois esperar que ela lembre de dizer "obrigado". Não funciona assim!
Esquecimento Desigual Entre Grupos
O estudo também destacou que o esquecimento não é uniforme entre diferentes grupos demográficos. Alguns grupos podem sofrer mais com o esquecimento enviesado do que outros. Por exemplo, se você tem um modelo que entende como interagir com várias comunidades, ele ainda pode falhar em nuances culturais específicas, levando a mal-entendidos. É como tentar fazer uma piada em uma língua estrangeira. Às vezes, a piada simplesmente não funciona, e você acaba sendo a piada.
Os pesquisadores descobriram que grupos particularmente marginalizados podem estar mais em risco de ter suas tarefas de segurança esquecidas. Então, se um modelo aprende a ser gentil e respeitoso, mas esquece tudo o que aprendeu sobre um demográfico, pode levar a sérios problemas. É crucial que os sistemas de IA sejam equitativos e justos entre todos os demográficos.
Efeitos da Similaridade das Tarefas
Outra descoberta interessante é que a similaridade das tarefas pode afetar o esquecimento. Quando as tarefas compartilham características, como formato e tipo de conteúdo, os modelos têm mais chances de manter seu conhecimento. Se você pensar bem, se seus problemas de matemática sempre forem sobre fatias de pizza, você pode se sair melhor do que se de repente mudarem para ciência de foguetes.
Nos estudos realizados, os pesquisadores descobriram que quando duas tarefas compartilhavam similaridades, os modelos retinham mais conhecimento. É um pouco como aprender a dirigir um carro pode ajudar quando você muda para dirigir um ônibus. Quanto mais similar a tarefa, mais fácil é conectar os pontos na sua cabeça.
A Taxa de Aprendizado e o Esquecimento
A velocidade com que um modelo aprende também influencia o esquecimento. Ao treinar LLMs, os pesquisadores testaram várias taxas de aprendizado para ver como elas impactavam a memória. Surpreendentemente, usar uma taxa de aprendizado maior durante o treinamento inicial pode ajudar a reduzir o esquecimento. Essa descoberta sugere que modelos treinados rapidamente conseguem lembrar melhor do que aqueles treinados devagar.
Imagine estudar para um teste a noite toda versus estudar um pouquinho a cada dia. Quem estuda de uma vez pode esquecer o que memorizou assim que o teste termina. Em contraste, quem espaçou seus estudos pode reter mais conhecimento a longo prazo. Esse princípio se aplica aos nossos modelos também!
Repetição de Dados
Mitigando o Esquecimento comDepois de perceber que o esquecimento é uma questão significativa, os pesquisadores exploraram maneiras de mitigar isso. Eles descobriram que revisitar os dados de treinamento iniciais pode ajudar a restaurar o que foi esquecido. Em essência, eles tentaram voltar às tarefas de segurança depois de treinar nas tarefas de capacidade, e até um pouquinho dos dados de segurança originais fez uma diferença notável.
Imagine se você voltasse a escola para um curso de refresco. Só um pouquinho de revisão poderia ativar sua memória. A mesma estratégia funciona para os LLMs. Ao fornecer um pouco dos dados de treinamento anteriores, os modelos poderiam recuperar seu conhecimento perdido enquanto ainda se saem bem nas novas tarefas.
Direções Futuras
Esse trabalho abre possibilidades empolgantes para como vamos treinar os LLMs no futuro. Encontrar formas de fazer os modelos lembrarem melhor vai ajudar a criar uma IA mais segura e confiável. Os pesquisadores pretendem explorar maneiras mais complexas de encadear as tarefas e testar uma variedade de tarefas além de responder perguntas. Quem sabe, talvez haja um universo inteiro de tarefas que os modelos possam aprender!
Os pesquisadores também esperam incentivar uma maior conscientização sobre a importância da justiça no treinamento. Se esses modelos vão fazer parte da nossa vida diária, eles precisam tratar todo mundo de forma igual. Garantir que nenhum grupo seja esquecido ou tratado injustamente é vital para o uso responsável da tecnologia de IA.
A Conclusão
Resumindo, o estudo do ajuste em cadeia e do esquecimento enviesado em modelos de linguagem grandes é tanto importante quanto divertido. Embora os modelos possam esquecer seu treinamento, as maneiras como os ensinamos podem impactar muito a memória deles. Uma pequena mudança na ordem, velocidade e métodos pode fazer uma grande diferença na retenção de conhecimento da IA.
À medida que continuamos a trabalhar com esses modelos, é essencial lembrar a lição da justiça e igualdade. Assim como gostaríamos de garantir que todos tenham um lugar à mesa durante um encontro com amigos, devemos garantir que cada grupo seja representado e tratado com respeito pelos modelos de IA. Afinal, ninguém gosta de ser deixado de fora, especialmente quando se trata de tecnologia feita para nos ajudar!
Título: Chained Tuning Leads to Biased Forgetting
Resumo: Large language models (LLMs) are often fine-tuned for use on downstream tasks, though this can degrade capabilities learned during previous training. This phenomenon, often referred to as catastrophic forgetting, has important potential implications for the safety of deployed models. In this work, we first show that models trained on downstream tasks forget their safety tuning to a greater extent than models trained in the opposite order. Second, we show that forgetting disproportionately impacts safety information about certain groups. To quantify this phenomenon, we define a new metric we term biased forgetting. We conduct a systematic evaluation of the effects of task ordering on forgetting and apply mitigations that can help the model recover from the forgetting observed. We hope our findings can better inform methods for chaining the finetuning of LLMs in continual learning settings to enable training of safer and less toxic models.
Autores: Megan Ung, Alicia Sun, Samuel J. Bell, Bhaktipriya Radharapu, Levent Sagun, Adina Williams
Última atualização: Dec 24, 2024
Idioma: English
Fonte URL: https://arxiv.org/abs/2412.16469
Fonte PDF: https://arxiv.org/pdf/2412.16469
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.