Pesquisadores desenvolvem novos métodos para treinar robôs com segurança em ambientes arriscados.
― 5 min ler
Ciência de ponta explicada de forma simples
Pesquisadores desenvolvem novos métodos para treinar robôs com segurança em ambientes arriscados.
― 5 min ler
A pesquisa destaca o papel dos neurônios de segurança em melhorar a segurança e a responsabilidade dos LLMs.
― 7 min ler
Uma nova abordagem pra melhorar a segurança do modelo através da rejeição de previsões.
― 7 min ler
A pesquisa sobre ilhas magnéticas melhora a estabilidade do plasma e ajuda a prevenir interrupções em tokamaks.
― 7 min ler
Este artigo discute métodos para melhorar o alinhamento da IA com várias culturas.
― 8 min ler
Um novo método ajuda a identificar rapidamente os pontos fracos em modelos de aprendizado profundo.
― 6 min ler
Pesquisas mostram que modelos de linguagem têm dificuldade com raciocínio falso, levantando preocupações sobre segurança.
― 6 min ler
A pesquisa foca em controlar as interrupções de plasma pra melhorar a segurança dos reatores de fusão.
― 5 min ler
CCL garante que redes neurais mantenham a precisão enquanto aprendem novas tarefas.
― 7 min ler
Uma ferramenta pra analisar e melhorar os erros de reconhecimento de imagem em computadores.
― 7 min ler
UNRealNet melhora a navegação de robôs em terrenos difíceis usando técnicas avançadas.
― 6 min ler
InferAct melhora a segurança na tomada de decisão para agentes de IA em várias tarefas.
― 7 min ler
Um novo método melhora a segurança e a eficiência da caminhada dos robôs.
― 8 min ler
Pesquisando como os robôs trabalham juntos em espaços compartilhados para interações seguras.
― 6 min ler
Um novo método pra aumentar a segurança em sistemas críticos usando modelos de linguagem.
― 7 min ler
Esse estudo analisa o desempenho de circuitos de redes neurais e a confiabilidade deles.
― 4 min ler
Um novo método melhora a compreensão das restrições de segurança na robótica.
― 10 min ler
Analisando como modelos de linguagem podem se recusar a responder pra melhorar a segurança.
― 6 min ler
Esse artigo analisa como a quantização vetorial influencia a compreensão das decisões em sistemas de aprendizado por reforço.
― 5 min ler
Aprenda como a verificação de programas garante a confiabilidade do software em indústrias críticas.
― 7 min ler
Um novo método melhora a resiliência dos agentes de RL contra mudanças prejudiciais nos inputs.
― 8 min ler
Melhorando a detecção de falhas e diagnósticos em reatores nucleares usando técnicas de aprendizado profundo.
― 8 min ler
Esse método melhora a segurança na geração de imagens sem perder a qualidade.
― 7 min ler
Uma nova estrutura melhora a segurança e a eficiência dos robôs em ambientes imprevisíveis.
― 9 min ler
Um novo método melhora a segurança na tomada de decisão para máquinas.
― 8 min ler
Uma nova forma de melhorar como os robôs entendem e respondem aos usuários.
― 8 min ler
LEVIS ajuda a encontrar espaços de entrada seguros para saídas confiáveis de redes neurais.
― 6 min ler
Transferência Cautelosa-Aware melhora a segurança e o desempenho em aplicações de aprendizado por reforço.
― 8 min ler
Um novo método melhora a detecção de prompts prejudiciais em modelos de linguagem.
― 7 min ler
Esse trabalho foca em explicar a tomada de decisão em IA usando a Pesquisa de Árvore de Monte Carlo.
― 7 min ler
Apresentando o CBF-LLM: um jeito de gerar textos mais seguros em LLMs.
― 6 min ler
Um estudo sobre recusas falsas em modelos de linguagem e seu impacto na experiência do usuário.
― 7 min ler
Um novo método combina aprendizado por reforço e segurança pra melhorar as tarefas dos robôs.
― 8 min ler
Uma estrutura pra garantir que os robôs atuem de forma segura e eficaz nas interações com humanos.
― 8 min ler
Esse artigo fala sobre maneiras de melhorar a segurança em RL usando modelos de linguagem.
― 7 min ler
Um método pra avaliar as avaliações de agentes de IA quanto à segurança e confiabilidade.
― 9 min ler
Um novo método melhora a detecção de dados inesperados em modelos de aprendizado de máquina.
― 7 min ler
O sistema RADER melhora o aprendizado robótico através de demonstrações seguras em realidade estendida.
― 8 min ler
Analisando como os dados de treinamento impactam as saídas do modelo de linguagem e as medidas de segurança.
― 6 min ler
Novo método de treinamento melhora a segurança e o desempenho dos LLMs.
― 8 min ler