Robo3D: Testando a Percepção 3D em Veículos Autônomos
A Robo3D avalia sistemas de percepção 3D em condições desafiadoras para carros autônomos.
― 8 min ler
Índice
A percepção 3D é uma parte importante da tecnologia usada em carros autônomos. Ela ajuda esses carros a entenderem o que tá ao redor, identificando e localizando objetos. Um elemento chave desse processo é o uso de Sensores LiDAR, que oferecem dados 3D detalhados sobre o ambiente. No entanto, esses sensores às vezes enfrentam dificuldades devido a vários problemas, como mau tempo, erros nos sensores ou distúrbios durante a coleta.
Entender esses desafios e melhorar como os sistemas de percepção 3D funcionam em situações reais é fundamental. Este artigo fala sobre um novo benchmark chamado Robo3D, que visa testar e melhorar a confiabilidade dos sistemas de percepção 3D quando eles encontram essas dificuldades.
O que é o Robo3D?
O Robo3D é um benchmark criado para avaliar a robustez dos sistemas de percepção 3D sob diferentes condições desafiadoras. Ele simula vários tipos de corrupções que podem afetar os dados do LiDAR, permitindo que os pesquisadores vejam como os modelos se saem em cenários que lembram desafios do mundo real.
O benchmark Robo3D inclui oito tipos principais de problemas que podem surgir:
- Condições Meteorológicas Severas: Problemas causados por condições climáticas, como neblina, chuva ou neve, que podem distorcer os sinais do LiDAR.
- Distúrbios Externos: Situações em que movimentos ou obstáculos podem borrar os sinais coletados pelo sensor.
- Falha Interna do Sensor: Problemas que surgem do próprio sensor, como leituras incompletas ou dados incorretos devido a falhas.
Cada uma dessas categorias é subdividida em três níveis de severidade: leve, moderado e pesado.
Importância da Percepção 3D Robusta
A segurança é uma grande preocupação para os carros autônomos. Se um sistema de percepção 3D não conseguir identificar objetos de forma precisa devido a distúrbios externos ou erros de sensor, isso pode levar a situações perigosas na estrada. Por isso, melhorar a robustez desses sistemas é essencial.
A maioria dos conjuntos de dados existentes usados para treinar modelos de percepção 3D foca em dados "limpos". Embora esses conjuntos ajudem a obter bons resultados em condições ideais, muitas vezes não preparam bem os modelos para os desafios da vida real. O Robo3D busca preencher essa lacuna testando os modelos de forma completa sob diversas corrupções naturais.
Tipos de Corrupções
O Robo3D avalia modelos com base em oito tipos de corrupções. Aqui está uma olhada mais de perto em cada uma delas:
1. Condições Meteorológicas Severas
O clima pode afetar muito o desempenho dos sensores LiDAR. Condições como neblina ou chuvas intensas podem fazer com que os sinais laser se dispersem ou sejam absorvidos, levando a leituras imprecisas. No Robo3D, essas condições são simuladas para testar como os sistemas de percepção lidam com a visibilidade reduzida.
2. Distúrbios Externos
Quando os veículos se movem, eles encontram superfícies diferentes que podem causar distúrbios. Por exemplo, quando um carro passa por um terreno acidentado, o sensor pode capturar imagens borradas devido ao movimento. Esse tipo de corrupção testa a capacidade do modelo de operar em ambientes dinâmicos.
3. Falha Interna do Sensor
Às vezes, os sensores podem falhar. Isso pode ocorrer devido a problemas como leituras incompletas quando o sensor detecta objetos escuros ou interferência de outros sensores. O Robo3D simula essas falhas para avaliar a confiabilidade geral do modelo.
Impacto dessas Corrupções
Os sistemas de percepção 3D costumam se sair bem em condições controladas, mas podem ter dificuldades quando enfrentam os desafios reais mencionados acima. Essa falta de robustez pode levar a riscos significativos à segurança, e é por isso que o Robo3D busca proporcionar uma compreensão mais profunda de como esses sistemas funcionam em cenários desafiadores.
Testando com o Robo3D
O benchmark Robo3D pega conjuntos de dados existentes e simula essas corrupções neles. Esse processo ajuda a criar uma imagem mais precisa de como os modelos se comportam em condições do mundo real.
O benchmark segue uma abordagem estruturada para avaliar como diferentes modelos respondem a cada tipo de corrupção. Por exemplo, cada corrupção é testada em três níveis de severidade, permitindo uma avaliação abrangente do desempenho do modelo.
Processo de Simulação de Dados
O benchmark aplica uma série de simulações para criar dados corrompidos a partir de nuvens de pontos limpos. Ao introduzir sistematicamente os vários tipos de corrupções, o Robo3D gera conjuntos de dados que espelham as condições presentes no mundo real.
Métricas de Avaliação
O Robo3D usa métricas específicas para comparar como diferentes modelos se saem sob várias corrupções. Duas métricas principais são:
- Erro de Corrupção (CE): Mede quanto a precisão do modelo diminui sob condições corrompidas. Um score CE mais alto indica que um modelo é menos resiliente à corrupção.
- Taxa de Resiliência (RR): Usada para determinar quanto a precisão um modelo retém quando avaliado em dados corrompidos. Um score RR mais alto significa que o modelo é mais robusto contra corrupções.
Resultados e Observações
O Robo3D foi usado para avaliar vários modelos de percepção 3D, destacando seus pontos fortes e fracos. Aqui estão algumas das principais percepções obtidas com os testes:
1. Vulnerabilidade a Corrupções do Mundo Real
Apesar das melhorias no desempenho em conjuntos de dados limpos, muitos modelos atuais de percepção 3D ainda são vulneráveis a corrupções do mundo real. Resultados do benchmark mostraram que, mesmo os modelos de alto desempenho podem enfrentar dificuldades quando expostos a corrupções leves.
2. Influência das Configurações do Sensor
A configuração dos sensores LiDAR também impacta como os modelos lidam com diferentes tipos de corrupções. Por exemplo, modelos treinados com dados de diferentes sensores podem exibir comportamentos inconsistentes quando testados com dados corrompidos. Entender essas variações pode levar a um design de modelo melhor.
3. Representação de Dados Importa
Como os dados são representados desempenha um papel significativo na robustez de um modelo. Modelos que usam dados de nuvens de pontos brutos tendem a ter um desempenho melhor em cenários onde alguns pontos de dados estão faltando. Em contraste, métodos baseados em projeção que convertem dados 3D em grades 2D podem ter mais dificuldades sob condições semelhantes.
4. Sensibilidade Específica da Tarefa
Diferentes tarefas dentro do sistema de percepção têm diferentes sensibilidades à corrupção. Por exemplo, tarefas focadas na detecção de objetos podem não ser tão afetadas por mudanças locais quanto tarefas de segmentação, que precisam manter informações precisas sobre cada ponto individual. Essa discrepância pode influenciar como os modelos são desenvolvidos para aplicações específicas.
Estratégias para Melhorar a Robustez
Para lidar com as vulnerabilidades identificadas, o Robo3D propõe algumas métodos para aumentar a robustez dos modelos de percepção 3D.
1. Voxelização Flexível
A voxelização é o processo de dividir os dados 3D em partes gerenciáveis ou "voxels." Em vez de usar um tamanho fixo para esses voxels, uma abordagem flexível pode ser adotada. Isso significa ajustar o tamanho do voxel com base no tipo específico de corrupção, levando a uma representação de dados mais eficaz e robustez melhorada.
2. Treinamento Menos Sensível à Densidade
Para aumentar a robustez, sugere-se uma estrutura de treinamento que seja menos sensível à densidade dos dados. Isso envolve usar um sistema de duas ramificações para o treinamento, onde parte dos dados é mascarada para simular uma baixa densidade. Ao incentivar a consistência cruzada entre as diferentes ramificações, o modelo aprende a se adaptar melhor às mudanças inevitáveis na densidade dos dados causadas por corrupções.
Conclusão
O Robo3D representa um grande avanço na busca por sistemas de percepção 3D mais confiáveis para veículos autônomos. Ao simular corrupções do mundo real, ele oferece uma plataforma importante para avaliar e melhorar a robustez dos modelos.
As percepções obtidas a partir deste benchmark ajudarão a guiar futuros esforços de pesquisa e desenvolvimento voltados para a criação de tecnologias de percepção 3D mais seguras e eficazes. Melhorar a robustez do modelo não só tem implicações para o avanço tecnológico, mas também desempenha um papel crítico na garantia da segurança dos sistemas autônomos nas estradas.
Com mais exploração e a implementação das estratégias propostas, o futuro dos modelos de percepção 3D pode se tornar mais robusto, capaz e pronto para enfrentar as complexidades dos ambientes do mundo real.
Título: Robo3D: Towards Robust and Reliable 3D Perception against Corruptions
Resumo: The robustness of 3D perception systems under natural corruptions from environments and sensors is pivotal for safety-critical applications. Existing large-scale 3D perception datasets often contain data that are meticulously cleaned. Such configurations, however, cannot reflect the reliability of perception models during the deployment stage. In this work, we present Robo3D, the first comprehensive benchmark heading toward probing the robustness of 3D detectors and segmentors under out-of-distribution scenarios against natural corruptions that occur in real-world environments. Specifically, we consider eight corruption types stemming from severe weather conditions, external disturbances, and internal sensor failure. We uncover that, although promising results have been progressively achieved on standard benchmarks, state-of-the-art 3D perception models are at risk of being vulnerable to corruptions. We draw key observations on the use of data representations, augmentation schemes, and training strategies, that could severely affect the model's performance. To pursue better robustness, we propose a density-insensitive training framework along with a simple flexible voxelization strategy to enhance the model resiliency. We hope our benchmark and approach could inspire future research in designing more robust and reliable 3D perception models. Our robustness benchmark suite is publicly available.
Autores: Lingdong Kong, Youquan Liu, Xin Li, Runnan Chen, Wenwei Zhang, Jiawei Ren, Liang Pan, Kai Chen, Ziwei Liu
Última atualização: 2023-09-02 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2303.17597
Fonte PDF: https://arxiv.org/pdf/2303.17597
Licença: https://creativecommons.org/licenses/by-sa/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://github.com/ldkong1205/Robo3D
- https://semantic-kitti.org
- https://github.com/PRBonn/semantic-kitti-api
- https://www.nuscenes.org/nuscenes
- https://github.com/nutonomy/nuscenes-devkit
- https://waymo.com/open
- https://github.com/PRBonn/lidar-bonnetal
- https://github.com/TiagoCortinhal/SalsaNext
- https://github.com/placeforyiming/IROS21-FIDNet-SemanticKITTI
- https://github.com/huixiancheng/CENet
- https://github.com/HuguesTHOMAS/KPConv-PyTorch
- https://github.com/lordzth666/WACV23_PIDS-Joint
- https://github.com/valeoai/WaffleIron
- https://github.com/edwardzhou130/PolarSeg
- https://github.com/NVIDIA/MinkowskiEngine
- https://github.com/xinge008/Cylinder3D
- https://github.com/rusty1s/pytorch_scatter
- https://github.com/traveller59/spconv
- https://github.com/mit-han-lab/torchsparse
- https://github.com/mit-han-lab/spvnas
- https://github.com/huixiancheng/No-CPGNet
- https://github.com/yanx27/2DPASS
- https://github.com/haibo-qiu/GFNet
- https://github.com/zhulf0804/PointPillars
- https://github.com/traveller59/second.pytorch
- https://github.com/open-mmlab/OpenPCDet
- https://github.com/sshaoshuai/PointRCNN
- https://github.com/sshaoshuai/PartA2-Net
- https://github.com/sshaoshuai/PV-RCNN
- https://github.com/tianweiy/CenterPoint
- https://github.com/kcyu2014/lidar-camera-robust-benchmark
- https://github.com/MartinHahner/LiDAR_fog_sim
- https://github.com/SysCV/LiDAR_snow_sim
- https://github.com/open-mmlab/mmdetection3d
- https://github.com/ldkong1205/LaserMix