Uma olhada em como os modelos o1 planejam ações e seu desempenho em várias tarefas.
Kevin Wang, Junbo Li, Neel P. Bhatt
― 8 min ler
Ciência de ponta explicada de forma simples
Uma olhada em como os modelos o1 planejam ações e seu desempenho em várias tarefas.
Kevin Wang, Junbo Li, Neel P. Bhatt
― 8 min ler
Um olhar sobre como as embeddings de palavras são analisadas usando análise de componentes independentes.
Momose Oyama, Hiroaki Yamagiwa, Hidetoshi Shimodaira
― 6 min ler
Um novo método pra avaliar explicações médicas geradas por IA usando Tarefas Proxy.
Iker De la Iglesia, Iakes Goenaga, Johanna Ramirez-Romero
― 5 min ler
Explorando como modelos menores têm dificuldade com as imprecisões dos modelos maiores.
Phil Wee, Riyadh Baghdadi
― 6 min ler
O LLM-Ref ajuda os pesquisadores a criarem textos mais claros e bem estruturados sem esforço.
Kazi Ahmed Asif Fuad, Lizhong Chen
― 7 min ler
Explorando como a IA entende a comunicação humana.
Mingyue Jian, Siddharth Narayanaswamy
― 7 min ler
Pesquisas mostram novos métodos pra alinhar melhor os LLMs com o feedback humano.
Zichen Liu, Changyu Chen, Chao Du
― 6 min ler
Um estudo compara a criatividade humana e a da IA na narrativa.
Mete Ismayilzada, Claire Stevenson, Lonneke van der Plas
― 7 min ler
Avaliando a relevância da engenharia de prompts com novos modelos de raciocínio.
Guoqing Wang, Zeyu Sun, Zhihao Gong
― 8 min ler
Um olhar sobre bancos de dados em contexto e seu potencial com modelos de linguagem.
Yu Pan, Hongfeng Yu, Tianjiao Zhao
― 5 min ler
Avaliando o papel de modelos multilíngues em apoiar estudantes bilíngues.
Anand Syamkumar, Nora Tseng, Kaycie Barron
― 7 min ler
Analisando vulnerabilidades em métodos de marca d'água contra ataques de parafraseamento.
Saksham Rastogi, Danish Pruthi
― 8 min ler
Avaliando a compreensão de provérbios por modelos de linguagem em línguas de baixo recurso.
Israel Abebe Azime, Atnafu Lambebo Tonja, Tadesse Destaw Belay
― 6 min ler
Investigando como a riqueza influencia os modelos de linguagem em narrativas de viagem.
Kirti Bhagat, Kinshuk Vasisht, Danish Pruthi
― 7 min ler
Scar melhora modelos de linguagem ao reduzir linguagem tóxica na geração de texto.
Ruben Härle, Felix Friedrich, Manuel Brack
― 5 min ler
Pesquisas mostram que a variação na fala melhora o treino dos modelos de linguagem.
Akari Haga, Akiyo Fukatsu, Miyu Oba
― 6 min ler
Explore o impacto dos estilos de pergunta no desempenho de modelos de IA.
Jia He, Mukund Rungta, David Koleczek
― 5 min ler
Um novo método pra desenvolver limites pra modelos de linguagem grandes sem dados do mundo real.
Gabriel Chua, Shing Yee Chan, Shaun Khoo
― 7 min ler
Um novo método melhora a segurança do código gerado por modelos de linguagem.
Xiangzhe Xu, Zian Su, Jinyao Guo
― 5 min ler
O SpecTool traz clareza para os erros de LLM ao usar ferramentas.
Shirley Kokane, Ming Zhu, Tulika Awalgaonkar
― 5 min ler
Um estudo mostra como a injeção de prompt pode comprometer modelos de linguagem.
Jiashuo Liang, Guancheng Li, Yang Yu
― 11 min ler
Este estudo analisa como os LLMs avaliam a criatividade no Teste de Usos Alternativos.
Abdullah Al Rabeyah, Fabrício Góes, Marco Volpe
― 5 min ler
Métodos PEFT melhoram modelos de linguagem enquanto protegem dados privados.
Olivia Ma, Jonathan Passerat-Palmbach, Dmitrii Usynin
― 8 min ler
Um estudo sobre como os modelos de linguagem conectam fatos sem pegadinhas.
Sohee Yang, Nora Kassner, Elena Gribovskaya
― 7 min ler
Um novo método para modelos de linguagem melhorarem suas respostas através de críticas auto-geradas.
Yue Yu, Zhengxing Chen, Aston Zhang
― 6 min ler
Como a quantização de bits baixos afeta grandes modelos de linguagem durante o treinamento.
Xu Ouyang, Tao Ge, Thomas Hartvigsen
― 7 min ler
Um novo método automatiza a classificação de notícias, economizando tempo e recursos para as organizações.
Taja Kuzman, Nikola Ljubešić
― 5 min ler
Avaliar se modelos de linguagem conseguem entender relacionamentos espaciais de forma eficaz.
Anthony G Cohn, Robert E Blackwell
― 7 min ler
Descubra como melhorar modelos de linguagem grandes em lidar com tarefas simétricas.
Mohsen Dehghankar, Abolfazl Asudeh
― 8 min ler
Avaliando as habilidades dos modelos de linguagem na criação de dados sintéticos usando o AgoraBench.
Seungone Kim, Juyoung Suk, Xiang Yue
― 5 min ler
Como modelos de linguagem melhoram sua compreensão de gramática e estruturas de frases.
Tian Qin, Naomi Saphra, David Alvarez-Melis
― 8 min ler
Explorando como transformers podem expressar incerteza pra melhorar a confiabilidade da IA.
Greyson Brothers, Willa Mannering, Amber Tien
― 7 min ler
Modelos de linguagem grandes mandam bem em algumas áreas, mas têm dificuldade com tarefas gerais.
Basab Jha, Ujjwal Puri
― 9 min ler
Descubra como a sparsidade de ativação aumenta a eficiência e a velocidade da IA.
Vui Seng Chua, Yujie Pan, Nilesh Jain
― 6 min ler
Explore as conexões entre modelos de linguagem e fenômenos físicos de um jeito interessante.
Yuma Toji, Jun Takahashi, Vwani Roychowdhury
― 10 min ler
Pesquisadores estão melhorando a capacidade da IA de lidar com perguntas complexas com o AutoReason.
Arda Sevinc, Abdurrahman Gumus
― 5 min ler
Pesquisadores enfrentam os preconceitos em modelos de linguagem para filipino, melhorando a relevância cultural.
Lance Calvin Lim Gamboa, Mark Lee
― 6 min ler
Este artigo examina o papel complexo do inglês em avaliações multilíngues.
Wessel Poelman, Miryam de Lhoneux
― 8 min ler
Descubra como o Sloth tá mudando as previsões de desempenho dos modelos de linguagem.
Felipe Maia Polo, Seamus Somerstep, Leshem Choshen
― 7 min ler
Os autoencoders esparsos BatchTopK melhoram o processamento de linguagem através de uma seleção inteligente de dados.
Bart Bussmann, Patrick Leask, Neel Nanda
― 5 min ler