Esta investigación investiga el papel de las variables latentes en el rendimiento de los Transformers.
― 8 minilectura
Ciencia de vanguardia explicada de forma sencilla
Esta investigación investiga el papel de las variables latentes en el rendimiento de los Transformers.
― 8 minilectura
La investigación presenta un método para mejorar la toma de decisiones en agentes de modelos de lenguaje.
― 10 minilectura
Examinando cómo los modelos recurrentes pueden aproximar funciones según los prompts.
― 6 minilectura
FastGAS mejora la eficiencia al seleccionar ejemplos para el aprendizaje en contexto usando un enfoque basado en gráficos.
― 9 minilectura
Un estudio que revela los factores que influyen en el aprendizaje en contexto en Transformers.
― 8 minilectura
Este artículo revisa métodos para mejorar la generación de diálogos en modelos de lenguaje.
― 6 minilectura
Nuevos métodos mejoran el rendimiento de los modelos de lenguaje a través de una mejor selección de ejemplos.
― 9 minilectura
Un nuevo enfoque para clasificar datos tabulares usando transformadores ICL muestra resultados prometedores.
― 7 minilectura
Una mirada más cercana a cómo los Transformers aprenden de ejemplos en diferentes contextos.
― 9 minilectura
Examinando la efectividad del razonamiento en modelos de lenguaje grandes.
― 9 minilectura
Este artículo revisa cómo los LLMs se desempeñan en tareas de razonamiento silogístico.
― 6 minilectura
Un nuevo método reescribe textos para una mejor comprensión en diferentes niveles de lectura.
― 6 minilectura
L-ICV mejora el rendimiento en preguntas visuales usando menos ejemplos.
― 7 minilectura
Este artículo examina formas de mejorar las habilidades de planificación en modelos de lenguaje grandes.
― 9 minilectura
Técnicas para mejorar modelos de IA usando retroalimentación de contrapartes menos capaces.
― 7 minilectura
Un nuevo método mejora la selección de ejemplos y la optimización de instrucciones para modelos de lenguaje grandes.
― 7 minilectura
Examinando los obstáculos que enfrentan los LLM en la traducción de idiomas de bajo recurso.
― 8 minilectura
Los estudios destacan las habilidades de aprendizaje en contexto en modelos de lenguaje grandes.
― 7 minilectura
IDAICL mejora las predicciones al perfeccionar la calidad de las demostraciones en el aprendizaje en contexto.
― 6 minilectura
Este estudio examina cómo los datos visuales y textuales afectan el rendimiento del modelo.
― 8 minilectura
Este artículo examina las limitaciones del aprendizaje en contexto en modelos de lenguaje grandes.
― 7 minilectura
Una visión general de cómo operan los modelos de lenguaje como Transformers y su importancia.
― 7 minilectura
Explorando las limitaciones del aprendizaje en contexto en los modelos de lenguaje.
― 6 minilectura
Este documento propone un método para convertir ICL en pesos de modelo para mejorar el rendimiento.
― 7 minilectura
Un estudio sobre las capacidades de aprendizaje de los modelos de lenguaje grandes en tareas de aritmética modular.
― 9 minilectura
Un estudio revisa qué tan bien los chatbots entienden la simetría en el lenguaje.
― 6 minilectura
Un nuevo marco controla el aprendizaje en contexto para prevenir el mal uso en modelos de IA.
― 9 minilectura
DG-PIC mejora el análisis de nubes de puntos para varias aplicaciones sin necesidad de reentrenar.
― 6 minilectura
Nuevo método optimiza la segmentación de imágenes al diversificar ejemplos de contexto.
― 7 minilectura
Un nuevo método permite a los modelos de lenguaje generar sus propios datos de entrenamiento para un mejor rendimiento.
― 6 minilectura
Investigando cómo los transformers aprenden y generalizan a partir de tareas composicionales.
― 7 minilectura
Aprende cómo el aprendizaje en contexto mejora los modelos predictivos usando múltiples conjuntos de datos.
― 8 minilectura
Explorando cómo los modelos de lenguaje abordan tareas de razonamiento de manera efectiva.
― 6 minilectura
Explorando cómo los LLMs rinden en tareas compuestas que combinan tareas más simples.
― 9 minilectura
Un nuevo enfoque combina modelos de lenguaje y prompts para obtener mejores insights legales.
― 8 minilectura
Un estudio revela información sobre el rendimiento del aprendizaje en contexto en diferentes arquitecturas de modelos.
― 6 minilectura
Los investigadores estudian cómo los modelos aprenden del contexto usando tareas de regresión polinómica.
― 7 minilectura
Descubre cómo GPT-3 transforma datos no estructurados en información estructurada.
― 8 minilectura
Investigación sobre cómo mejorar la traducción de lenguas de pocos recursos usando técnicas de selección de ejemplos.
― 8 minilectura
Un nuevo método mejora la selección de ejemplos para un mejor aprendizaje del modelo.
― 7 minilectura