Simple Science

Ciência de ponta explicada de forma simples

# Informática# Aprendizagem de máquinas# Computação Neural e Evolutiva

Aumentando a Eficiência do AutoML com Discriminadores Binários

Um novo método pra buscas de programas de machine learning mais rápidas e melhores.

― 11 min ler


Acelerando o AutoML comAcelerando o AutoML comDiscriminadores Binárioslearning.buscas de componentes de machineAbordagem inovadora pra melhorar as
Índice

No campo do aprendizado de máquina, tem um processo chamado AutoML que automatiza o design dos programas de aprendizado de máquina. Um desafio nessa área é como criar programas de aprendizado de máquina melhores de forma automática. Tradicionalmente, métodos como Evolução têm sido usados para encontrar programas melhores. No entanto, outra abordagem-usar aprendizado pra guiar essa busca-não tem sido tão eficaz ou bem entendida para problemas difíceis. O objetivo é acelerar a busca e melhorar o desempenho dos programas resultantes.

A Proposta

A gente sugere um novo jeito de guiar a evolução dos programas de aprendizado de máquina usando um discriminador binário. Essa ferramenta é treinada pra dizer qual programa é melhor quando recebendo duas opções. Usando esse discriminador, conseguimos evitar avaliações caras e acelerar o processo de encontrar bons programas.

Nosso método é flexível o suficiente pra incluir vários componentes de aprendizado de máquina, como otimizadores simbólicos, arquiteturas de redes neurais, funções de perda de aprendizado por reforço e equações de regressão simbólica. Todos esses componentes podem ser representados usando uma estrutura similar conhecida como gráfico acíclico direcionado (DAG). Combinando essa representação com técnicas avançadas, conseguimos acelerar significativamente a busca por programas de aprendizado de máquina melhorados.

Entendendo a Busca por Arquitetura Neural

A busca por arquitetura neural (NAS) é um foco central no AutoML, onde o objetivo é encontrar o melhor design para redes neurais. No entanto, também tem um interesse crescente em procurar componentes de aprendizado de máquina mais amplos além das arquiteturas de rede. Isso inclui encontrar programas de aprendizado inteiros, funções de perda usadas no aprendizado por reforço e métodos de otimização. Os espaços de busca para esses componentes geralmente são maiores e menos restritos, o que complica o processo de busca.

Criar programas bons nesses espaços mais amplos é desafiador. O tamanho muito grande do espaço de busca significa que encontrar candidatos eficazes pode ser difícil. Mudanças pequenas costumam levar a uma queda significativa no desempenho, tornando a identificação de programas de alta qualidade mais complexa.

Métodos de Busca Atuais

Por muitos anos, a evolução regularizada tem sido um método de busca popular nessas áreas devido à sua simplicidade e eficácia. Uma tática comum usada nesse contexto é chamada de cache de equivalente funcional (FEC). Essa abordagem ajuda evitando avaliações repetidas de candidatos similares, o que significa que pode economizar tempo.

Ainda assim, o FEC não leva em conta nenhum insight aprendido de candidatos avaliados anteriormente. Nossa pergunta é se conseguimos criar métodos de aprendizado que capturem o conhecimento mais amplo de todos os programas que já foram vistos, melhorando assim a eficiência da busca.

O Papel dos Preditores de Desempenho

Preditores de desempenho têm sido úteis pra acelerar a busca em muitos cenários de NAS. Esses preditores geralmente usam modelos de regressão que são treinados pra estimar o desempenho de uma determinada arquitetura com base em sua representação única. Os melhores candidatos podem ser classificados de acordo com essas previsões, o que ajuda a evitar o desperdício de recursos computacionais em opções menos promissoras.

Outra ideia é treinar preditores de relação binária que determinam qual dos dois candidatos é melhor. Pesquisas mostraram que esses modelos binários podem superar modelos de regressão na classificação de candidatos de forma eficaz. Nosso objetivo é explorar a aplicação desses preditores de desempenho em espaços de busca maiores e mais primitivos.

Desafios com Modelos de Regressão

Trabalhos anteriores sobre NAS frequentemente usam apenas um pequeno número de candidatos amostrados aleatoriamente pra treinar preditores de desempenho. Isso pode levar a um desempenho forte em candidatos conhecidos, mas dificulta a generalização para candidatos não vistos. Em espaços de busca mais complexos, técnicas de busca aleatória muitas vezes falham porque não capturam dados representativos suficientes necessários pra uma generalização eficaz.

Em contraste, nós propomos uma abordagem de treinamento online para preditores de relação binária. Isso significa que, conforme a busca avança, o modelo vai atualizando continuamente sua compreensão de quais programas são melhores, com base em pares de candidatos descobertos.

Novo Algoritmo de Mutação

A gente introduz uma abordagem nova que combina nossos preditores binários com a evolução pra melhorar o processo de busca. A ideia central é pontuar mutações continuamente e só manter aquelas que mostram promessa em comparação com seus candidatos pais. Assim, conseguimos pular opções inferiores e focar naquelas que provavelmente vão gerar melhores resultados.

Nosso método leva a uma convergência mais rápida no processo evolutivo, permitindo que a gente alcance níveis de desempenho mais altos em várias tarefas. Por exemplo, demonstramos um aumento de 3,7 vezes em uma área de otimização de aprendizado de máquina e um aumento de quatro vezes em outro contexto.

Importância do Trabalho

A importância dessa pesquisa tá na sua capacidade de proporcionar buscas mais rápidas e eficientes pra uma ampla gama de componentes de aprendizado de máquina. Treinando nossos preditores binários usando uma arquitetura baseada em gráfico, conseguimos aplicar esse método efetivamente em diferentes tipos de componentes.

Através de uma série de experimentos, mostramos como nosso método proposto se sai melhor que os métodos tradicionais em contextos desafiadores. Colocamos ênfase especial nas estratégias de mutação inovadoras e na eficácia dos preditores binários em comparação com modelos de regressão.

Pesquisas Relacionadas

Vários estudos investigaram o uso de preditores de desempenho em NAS pra melhorar a eficiência da busca. As abordagens mais eficazes envolvem treinar modelos que selecionam os candidatos de arquitetura mais promissores pra uma avaliação mais profunda. Alguns métodos se baseiam em modelos de regressão treinados pra prever o desempenho com base em dados codificados, enquanto outros focam em modelos binários pares que avaliam desempenho relativo.

No entanto, a pesquisa sobre combinar esses modelos preditores com evolução ainda é limitada. Nosso trabalho contribui pra preencher essa lacuna usando preditores binários pra comparar candidatos filhotes com seus pais. Essa comparação específica encoraja uma busca que prioriza a melhoria.

Buscando Componentes Gerais de ML

Houve uma mudança notável de foco em direção à busca por vários componentes de aprendizado de máquina além de apenas arquiteturas neurais. Isso inclui os espaços de busca compostos por operadores mais primitivos que não dependem de fortes restrições desenhadas por humanos. Essa situação cria espaços de busca muito maiores e mais desafiadores, com recompensas mais escassas. Técnicas de busca tradicionais podem não ser eficazes, ressaltando assim a necessidade de modelos preditivos.

A gente mostra que modelos preditivos podem melhorar a eficiência da busca nesses espaços de busca baseados em primitivos maiores, fornecendo um impulso complementar significativo às técnicas existentes.

Aprendendo na Síntese de Programas

Muitas estratégias tentam aprender modelos que otimizam objetos discretos. Alguns trabalhos usam aprendizado por reforço pra isso, enquanto outros combinam modelos generativos com processos evolutivos. Desenvolver modelos generativos dentro de grandes espaços combinatórios apresenta dificuldades, por isso nossa abordagem de discriminador binário oferece uma solução mais simples e eficaz.

Representação de Busca

Um componente chave da nossa abordagem é como representamos vários componentes de aprendizado de máquina. Transformamos esses componentes em uma estrutura de gráfico acíclico direcionado (DAG). Esse gráfico contém nós de entrada, nós de operação e nós de saída, permitindo que desenvolvamos uma estrutura unificada.

Uma vez que codificamos uma tarefa de aprendizado de máquina em um DAG, calculamos embeddings pra cada nó e borda de acordo com sua identidade. Através dessa representação, conseguimos utilizar técnicas avançadas baseadas em gráfico pra aprimorar nosso modelo de preditor binário.

Treinando o Preditor

O treinamento do nosso preditor binário envolve uma rede neural de duas camadas que processa pares de candidatos pra identificar qual é melhor. Esse modelo é treinado continuamente, permitindo que ele melhore ao longo do tempo conforme novos candidatos são introduzidos. Usando um ponto de parada definido no processo de treinamento, conseguimos treinar nosso modelo de forma eficiente e mantê-lo útil pra buscas em andamento.

Combinando Modelos Binários com Evolução

O processo que usamos pra combinar o preditor binário com a evolução é vital pra melhorar o desempenho. A evolução regularizada consiste em duas fases principais: inicializar uma população de candidatos e selecionar e mutar repetidamente os candidatos de melhor desempenho.

Em vez de simplesmente gerar uma lista de candidatos e classificá-los depois, comparamos os filhos recém-gerados diretamente com seus pais. Essa estratégia favorece uma busca mais direcionada, melhorando a eficiência geral do processo evolutivo.

Configuração Experimental

No nosso trabalho experimental, testamos nosso método em várias tarefas de benchmark, cada uma projetada pra avaliar a velocidade e a eficiência da nossa busca evolutiva. Diferentes populações e tamanhos de torneio foram usados em experimentos específicos, e avaliamos nosso método em comparação com bases já estabelecidas.

Descobrimos que nosso preditor binário pode acelerar significativamente o processo evolutivo, levando a uma convergência mais rápida em candidatos de alto desempenho. Isso foi consistente em várias tarefas, mostrando a flexibilidade e o poder do método.

Resultados e Observações

Através dos nossos experimentos, observamos que nosso método proposto geralmente supera técnicas tradicionais. Em todas as tarefas, nosso método consistentemente mostrou uma convergência mais rápida e um desempenho geral melhor em comparação com as técnicas padrão de evolução regularizada.

Em particular, notamos melhorias significativas em tarefas mais complexas, onde os métodos tradicionais lutavam pra encontrar candidatos ótimos. Isso sugere que nossa abordagem é particularmente adequada pra enfrentar espaços de busca desafiadores.

Importância da Precisão do Modelo

Embora o uso de um bom preditor possa melhorar os esforços de busca local, isso não garante um desempenho de longo prazo melhorado. Exploramos o impacto da precisão do preditor na eficiência do processo evolutivo.

Nas nossas descobertas, destacamos como um preditor perfeito levaria à convergência mais rápida. Por outro lado, um preditor impreciso diminuiria a busca e levaria a um desempenho pior no geral. Isso reforça a necessidade de ter um modelo preditor confiável e eficaz.

Escolhas de Design no Preditor

Analisamos várias escolhas de design que afetam o desempenho do preditor binário. Por exemplo, comparamos a eficácia de preditores binários com modelos de regressão. Os resultados indicaram que preditores binários superaram significativamente modelos de regressão em várias tarefas.

Também exploramos diferentes arquiteturas de rede neural gráfica pra determinar qual fornecia os melhores resultados nesse contexto. Nossas descobertas sugeriram que algumas arquiteturas eram mais eficazes em alcançar uma convergência mais rápida do que outras.

Conclusões

Nós propusemos um novo método pra acelerar o processo de evolução na busca por componentes de aprendizado de máquina. Combinando discriminadores binários aprendidos com técnicas evolutivas, conseguimos buscar eficientemente uma gama de componentes, incluindo funções de perda e métodos de otimização.

Nossa abordagem demonstra vantagens significativas sobre métodos tradicionais, provando ser notavelmente eficaz em cenários de busca complexos. À medida que avançamos, certamente há oportunidades pra melhorar o aprendizado de representação, além de explorar métodos de otimização alternativos.

O potencial de usar aprendizado pra aprimorar a busca por componentes de aprendizado de máquina é promissor. A abordagem pode criar um ciclo de melhoria contínua, levando a soluções de aprendizado de máquina automatizadas cada vez melhores.

Direções Futuras

Olhando pra frente, trabalhos futuros poderiam se concentrar em aprimorar técnicas de aprendizado de representação pra garantir melhor generalização em várias tarefas. Também poderíamos explorar como modelos generativos podem ser implementados pra sugerir candidatos promissores na busca por componentes de aprendizado de máquina.

Com a constante evolução da tecnologia e métodos, a interseção de aprendizado de máquina e processos automatizados está cheia de potencial. O método que propusemos abre muitas avenidas para mais pesquisas, particularmente no contexto de melhorar a automação no design de aprendizado de máquina.

Aproveitando técnicas avançadas em aprendizado e evolução, podemos ajudar a criar sistemas mais eficientes pra aprendizado de máquina automatizado, levando, em última análise, a um desempenho melhor em várias aplicações.

Fonte original

Título: Guided Evolution with Binary Discriminators for ML Program Search

Resumo: How to automatically design better machine learning programs is an open problem within AutoML. While evolution has been a popular tool to search for better ML programs, using learning itself to guide the search has been less successful and less understood on harder problems but has the promise to dramatically increase the speed and final performance of the optimization process. We propose guiding evolution with a binary discriminator, trained online to distinguish which program is better given a pair of programs. The discriminator selects better programs without having to perform a costly evaluation and thus speed up the convergence of evolution. Our method can encode a wide variety of ML components including symbolic optimizers, neural architectures, RL loss functions, and symbolic regression equations with the same directed acyclic graph representation. By combining this representation with modern GNNs and an adaptive mutation strategy, we demonstrate our method can speed up evolution across a set of diverse problems including a 3.7x speedup on the symbolic search for ML optimizers and a 4x speedup for RL loss functions.

Autores: John D. Co-Reyes, Yingjie Miao, George Tucker, Aleksandra Faust, Esteban Real

Última atualização: 2024-02-08 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2402.05821

Fonte PDF: https://arxiv.org/pdf/2402.05821

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes