Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Aprendizaje automático# Computación Neuronal y Evolutiva

Mejorando la eficiencia de AutoML con discriminadores binarios

Un nuevo método para búsquedas de programas de aprendizaje automático más rápidas y mejores.

― 12 minilectura


Aceleración de AutoML conAceleración de AutoML conDiscriminadores Binariosautomático.búsquedas de componentes de aprendizajeEnfoque innovador para mejorar las
Tabla de contenidos

En el campo del aprendizaje automático, hay un proceso llamado AutoML que automatiza el diseño de programas de aprendizaje automático. Un reto en esta área es cómo crear mejores programas de aprendizaje automático de forma automática. Tradicionalmente, se han usado métodos como la Evolución para encontrar mejores programas. Sin embargo, otro enfoque -usar el aprendizaje para guiar esta búsqueda- no ha sido tan efectivo ni tan comprendido en problemas difíciles. El objetivo es hacer la búsqueda más rápida y mejorar el rendimiento de los programas resultantes.

La Propuesta

Sugerimos una nueva forma de guiar la evolución de programas de aprendizaje automático usando un discriminador binario. Esta herramienta se entrena para decir cuál programa es mejor cuando se le dan dos opciones. Al usar este discriminador, podemos evitar evaluaciones costosas y acelerar el proceso de encontrar buenos programas.

Nuestro método es lo suficientemente flexible como para incluir varios componentes de aprendizaje automático, como optimizadores simbólicos, arquitecturas de redes neuronales, funciones de pérdida de aprendizaje por refuerzo y ecuaciones de regresión simbólica. Todos estos componentes pueden representarse usando una estructura similar conocida como un grafo acíclico dirigido (DAG). Al combinar esta representación con técnicas avanzadas, podemos acelerar significativamente la búsqueda de programas de aprendizaje automático mejorados.

Entendiendo la Búsqueda de Arquitecturas Neuronales

La búsqueda de arquitecturas neuronales (NAS) es un enfoque central en AutoML, donde el objetivo es encontrar el mejor diseño para redes neuronales. Sin embargo, también hay un interés creciente en buscar componentes de aprendizaje automático más amplios más allá de solo arquitecturas de red. Esto incluye encontrar programas de aprendizaje enteros, funciones de pérdida utilizadas en aprendizaje por refuerzo y métodos de optimización. Los espacios de búsqueda para estos componentes son típicamente más grandes y menos restringidos, lo que complica el proceso de búsqueda.

Crear buenos programas en estos espacios más amplios es un desafío. El tamaño muy grande del espacio de búsqueda significa que encontrar candidatos efectivos puede ser difícil. Cambios menores a menudo conducen a una caída significativa en el rendimiento, lo que hace que la identificación de programas de alta calidad sea más compleja.

Métodos de Búsqueda Actuales

Durante muchos años, la evolución regularizada ha sido un método de búsqueda popular en estas áreas debido a su simplicidad y efectividad. Una táctica común utilizada en este contexto se llama caching de equivalentes funcionales (FEC). Este enfoque ayuda al evitar evaluaciones repetidas de candidatos similares, lo que significa que puede ahorrar tiempo.

Sin embargo, FEC no tiene en cuenta ninguna información aprendida de candidatos evaluados previamente. Nuestra pregunta es si podemos crear métodos de aprendizaje que capturen el conocimiento más amplio de todos los programas que se han visto hasta la fecha, mejorando así la eficiencia de búsqueda.

El Rol de los Predictores de rendimiento

Los predictore s de rendimiento han sido útiles para acelerar la búsqueda en muchos escenarios de NAS. Estos predictore s usan típicamente modelos de regresión que están entrenados para estimar el rendimiento de una arquitectura dada basada en su representación única. Los mejores candidatos pueden ser clasificados según estas predicciones, lo que ayuda a prevenir el desperdicio de recursos computacionales en opciones menos prometedoras.

Otra idea es entrenar predictores de relaciones binarias que determinan cuál de los dos candidatos es mejor. La investigación ha demostrado que estos modelos binarios pueden superar a los modelos de regresión al clasificar candidatos de manera efectiva. Nuestro objetivo es explorar la aplicación de estos predictores de rendimiento en espacios de búsqueda más grandes y primitivos.

Desafíos con los Modelos de Regresión

Trabajos previos sobre NAS a menudo solo utilizan un pequeño número de candidatos muestreados aleatoriamente para entrenar a los predictores de rendimiento. Esto puede llevar a un rendimiento fuerte en candidatos conocidos pero dificulta la generalización a candidatos no vistos. En espacios de búsqueda más complejos, las técnicas de búsqueda aleatoria a menudo fallan porque no capturan suficientes datos representativos necesarios para una generalización efectiva.

En contraste, proponemos un enfoque de entrenamiento en línea para los predictores de relaciones binarias. Esto significa que a medida que avanza la búsqueda, el modelo actualizará continuamente su comprensión de cuáles programas son mejores, basándose en pares de candidatos descubiertos.

Nuevo Algoritmo de Mutación

Introduce un enfoque novedoso que combina nuestros predictores binarios con la evolución para mejorar el proceso de búsqueda. La idea principal es puntuar las mutaciones de forma continua y solo mantener aquellas que muestran promesa en comparación con sus candidatos padres. De esta manera, podemos saltar opciones inferiores y concentrarnos en aquellas que probablemente produzcan mejores resultados.

Nuestro método conduce a una convergencia más rápida en el proceso evolutivo, permitiéndonos alcanzar niveles de rendimiento más altos en una variedad de tareas. Por ejemplo, hemos demostrado una aceleración de 3.7 veces en un área de optimización de aprendizaje automático y una aceleración de cuatro veces en otro contexto.

Significado del Trabajo

La importancia de esta investigación radica en su capacidad para proporcionar búsquedas más rápidas y eficientes para una amplia gama de componentes de aprendizaje automático. Al entrenar a nuestros predictores binarios usando una arquitectura basada en grafos, podemos aplicar este enfoque de manera efectiva en diferentes tipos de componentes.

A través de una serie de experimentos, mostramos cómo nuestro método propuesto funciona mejor que los métodos tradicionales en contextos desafiantes. Ponemos énfasis particular en las nuevas estrategias de mutación y la efectividad de los predictores binarios en comparación con los modelos de regresión.

Investigación Relacionada

Varios estudios han investigado el uso de predictores de rendimiento en NAS para mejorar la eficiencia de búsqueda. Los enfoques más efectivos involucran el entrenamiento de modelos que seleccionan los candidatos de arquitectura más prometedores para su posterior evaluación. Algunos métodos se basan en modelos de regresión entrenados para predecir el rendimiento basado en datos codificados, mientras que otros se centran en modelos binarios por pares que evalúan el rendimiento relativo.

Sin embargo, la investigación sobre la combinación de estos modelos de predicción con la evolución aún es limitada. Nuestro trabajo contribuye a llenar este vacío al usar predictores binarios para comparar candidatos descendientes con sus padres. Esta comparación específica fomenta una búsqueda que prioriza la mejora.

Búsqueda de Componentes Generales de ML

Ha habido un cambio notable en el enfoque hacia encontrar varios componentes de aprendizaje automático más allá de solo arquitecturas neuronales. Esto incluye los espacios de búsqueda compuestos de operadores más primitivos que no dependen de fuertes restricciones diseñadas por humanos. Esta situación crea espacios de búsqueda mucho más grandes y desafiantes, con recompensas más escasas. Las técnicas de búsqueda tradicionales pueden no ser efectivas, enfatizando así la necesidad de modelos predictivos.

Mostramos que los modelos predictivos pueden mejorar la eficiencia de búsqueda en estos espacios de búsqueda basados en lo primitivo más grandes, proporcionando un impulso complementario significativo a las técnicas existentes.

Aprendizaje en la Síntesis de Programas

Muchas estrategias buscan aprender modelos que optimizan sobre objetos discretos. Algunos trabajos utilizan el aprendizaje por refuerzo para lograr esto, mientras que otros combinan modelos generativos con procesos evolutivos. Desarrollar modelos generativos dentro de grandes espacios combinatorios presenta dificultades, por lo que nuestro enfoque de discriminador binario ofrece una solución más simple y efectiva.

Representación de la Búsqueda

Un componente clave de nuestro enfoque es cómo representamos varios componentes de aprendizaje automático. Transformamos estos componentes en una estructura de grafo acíclico dirigido (DAG). Este grafo contiene nodos de entrada, nodos de operación y nodos de salida, lo que nos permite desarrollar un marco unificado.

Una vez que codificamos una tarea de aprendizaje automático en un DAG, computamos embeddings para cada nodo y arista de acuerdo con su identidad. A través de esta representación, podemos utilizar técnicas avanzadas basadas en grafos para mejorar nuestro modelo de predictor binario.

Entrenando al Predictor

El entrenamiento de nuestro predictor binario implica una red neuronal de dos capas que procesa pares de candidatos para identificar cuál es mejor. Este modelo se entrena de forma continua, lo que permite que mejore con el tiempo a medida que se introducen nuevos candidatos. Usando un punto de parada definido en el proceso de entrenamiento, podemos entrenar nuestro modelo de manera eficiente y mantenerlo útil para búsquedas en curso.

Combinando Modelos Binarios con Evolución

El proceso que usamos para combinar el predictor binario con la evolución es vital para mejorar el rendimiento. La evolución regularizada consiste en dos fases principales: inicializar una población de candidatos y seleccionar y mutar repetidamente los candidatos de mayor rendimiento.

En lugar de simplemente generar una lista de candidatos y clasificarlos después, comparamos la descendencia recién generada directamente contra sus padres. Esta estrategia fomenta una búsqueda más dirigida, mejorando la eficiencia general del proceso evolutivo.

Configuración Experimental

En nuestro trabajo experimental, probamos nuestro método en varias tareas de benchmarking, cada una diseñada para evaluar la velocidad y eficiencia de nuestra búsqueda evolutiva. Se utilizaron diferentes poblaciones y tamaños de torneo en experimentos específicos, y evaluamos nuestro método contra líneas base establecidas.

Descubrimos que nuestro predictor binario puede acelerar significativamente el proceso evolutivo, llevando a una convergencia más rápida hacia candidatos de alto rendimiento. Esto fue consistente en múltiples tareas, mostrando la flexibilidad y potencia del método.

Resultados y Observaciones

A través de nuestros experimentos, observamos que nuestro método propuesto generalmente superó las técnicas tradicionales. En todas las tareas, nuestro método mostró consistentemente una convergencia más rápida y un mejor rendimiento general en comparación con las técnicas de evolución regularizada estándar.

En particular, notamos mejoras significativas en tareas más complejas, donde los métodos tradicionales lucharon por encontrar candidatos óptimos. Esto sugiere que nuestro enfoque es particularmente adecuado para enfrentar espacios de búsqueda desafiantes.

Importancia de la Precisión del Modelo

Si bien el uso de un buen predictor puede mejorar los esfuerzos de búsqueda local, no garantiza un mejor rendimiento a largo plazo. Exploramos el impacto de la precisión del predictor en la eficiencia del proceso evolutivo.

En nuestros hallazgos, destacamos cómo un predictor perfecto conduciría a la convergencia más rápida. Por el contrario, un predictor inexacto ralentizaría la búsqueda y llevaría a un rendimiento más pobre en general. Esto refuerza la necesidad de tener un modelo de predictor confiable y efectivo.

Opciones de Diseño en el Predictor

Analizamos varias elecciones de diseño que afectan el rendimiento del predictor binario. Por ejemplo, comparamos la efectividad de los predictores binarios con los modelos de regresión. Los resultados indicaron que los predictores binarios superaron significativamente a los modelos de regresión en varias tareas.

También exploramos diferentes arquitecturas de redes neuronales basadas en grafos para determinar cuál proporcionaba los mejores resultados en este contexto. Nuestros hallazgos sugirieron que algunas arquitecturas eran más efectivas para lograr una convergencia más rápida que otras.

Conclusiones

Hemos propuesto un nuevo método para acelerar el proceso evolutivo en la búsqueda de componentes de aprendizaje automático. Al combinar discriminadores binarios aprendidos con técnicas evolutivas, podemos buscar de manera eficiente una variedad de componentes, incluidas funciones de pérdida y métodos de optimización.

Nuestro enfoque demuestra ventajas significativas sobre los métodos tradicionales, resultando notablemente efectivo en escenarios de búsqueda complejos. A medida que avanzamos, ciertamente hay oportunidades para mejorar el aprendizaje de representación, así como explorar métodos de optimización alternativos.

El potencial de usar el aprendizaje para mejorar la búsqueda de componentes de aprendizaje automático es prometedor. El enfoque podría crear un ciclo de mejora continua, llevando a soluciones de aprendizaje automático automatizadas cada vez mejores.

Direcciones Futuras

Mirando hacia adelante, el trabajo futuro podría centrarse en refinar las técnicas de aprendizaje de representación para asegurar una mejor generalización en varias tareas. También podríamos explorar cómo podrían implementarse modelos generativos para sugerir candidatos prometedores en la búsqueda de componentes de aprendizaje automático.

Con la constante evolución de la tecnología y los métodos, la intersección entre el aprendizaje automático y los procesos automatizados está lista para la exploración. El método que hemos propuesto abre muchas avenidas para más investigaciones, particularmente en el contexto de mejorar la automatización en el diseño de aprendizaje automático.

Al aprovechar técnicas avanzadas en aprendizaje y evolución, podemos ayudar a crear sistemas más eficientes para el aprendizaje automático automatizado, llevando en última instancia a un mejor rendimiento en aplicaciones diversas.

Fuente original

Título: Guided Evolution with Binary Discriminators for ML Program Search

Resumen: How to automatically design better machine learning programs is an open problem within AutoML. While evolution has been a popular tool to search for better ML programs, using learning itself to guide the search has been less successful and less understood on harder problems but has the promise to dramatically increase the speed and final performance of the optimization process. We propose guiding evolution with a binary discriminator, trained online to distinguish which program is better given a pair of programs. The discriminator selects better programs without having to perform a costly evaluation and thus speed up the convergence of evolution. Our method can encode a wide variety of ML components including symbolic optimizers, neural architectures, RL loss functions, and symbolic regression equations with the same directed acyclic graph representation. By combining this representation with modern GNNs and an adaptive mutation strategy, we demonstrate our method can speed up evolution across a set of diverse problems including a 3.7x speedup on the symbolic search for ML optimizers and a 4x speedup for RL loss functions.

Autores: John D. Co-Reyes, Yingjie Miao, George Tucker, Aleksandra Faust, Esteban Real

Última actualización: 2024-02-08 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2402.05821

Fuente PDF: https://arxiv.org/pdf/2402.05821

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares