Gerenciando Veículos Elétricos Autônomos no Transporte Urbano
Um novo framework tem como objetivo otimizar as operações de EAV em áreas urbanas.
― 6 min ler
Índice
Veículos autônomos elétricos (EAVs) tão ganhando destaque por melhorar o transporte urbano e reduzir custos. Com o crescimento das cidades, a necessidade de transporte eficiente tá aumentando, e os EAVs podem desempenhar um papel bem importante pra atender essa demanda. Esses veículos conseguem operar sem motorista, o que permite oferecer caronas sob demanda. Mas, eles enfrentam desafios únicos, principalmente em relação às necessidades de recarga e demanda por caronas.
Um desafio grande é a imprevisibilidade de quando e onde esses veículos precisam recarregar. Os EAVs geralmente têm tempos de recarga longos e precisam recarregar com frequência em diferentes lugares. Isso dificulta saber quantos EAVs estarão disponíveis quando e onde eles forem necessários. Além disso, prever quantos passageiros vão precisar de caronas também é incerto, o que complica o gerenciamento eficaz das frotas de EAVs.
O uso eficaz dos EAVs precisa de uma solução robusta que leve em conta tanto a oferta de veículos quanto a demanda por caronas. Isso é crucial pra otimizar a operação deles, especialmente em áreas urbanas movimentadas. Pra melhorar o equilíbrio entre o número de veículos e a demanda dos passageiros, métodos avançados como o aprendizado por reforço multiagente (MARL) podem ser utilizados.
Sistemas E-AMoD Explicados
Os sistemas de Mobilidade Elétrica Autônoma sob Demanda (E-AMoD) usam EAVs pra transportar passageiros. Nesses sistemas, as pessoas podem pedir caronas através de aplicativos, reservas por telefone ou parando um veículo na rua. Os EAVs são enviados pra fornecer esses serviços. Um dos principais benefícios dos E-AMoD é que reduz a necessidade de infraestrutura de estacionamento e ajuda a baixar os custos de viagem pra galera, compartilhando o uso dos veículos.
Porém, os sistemas E-AMoD enfrentam desafios, especialmente em relação à demanda de passageiros. Geralmente, a demanda não é distribuída uniformemente ao longo do dia, com horários de pico como os horários de ir e voltar do trabalho causando picos maiores. Durante esses períodos, muitos EAVs podem se concentrar em certas áreas, deixando outras regiões sem atendimento.
O Problema do Equilíbrio
O equilíbrio dos EAVs é crucial nos sistemas E-AMoD. Quando tem mais passageiros em uma área, os veículos precisam ser reposicionados pra atender essa demanda. Da mesma forma, veículos com bateria baixa precisam ser enviados pra estações de recarga pra garantir que possam continuar operando.
Um grande problema que complica esse ato de equilibrar é a incerteza. As informações sobre quantos passageiros querem caronas e quantos veículos estão disponíveis podem nem sempre ser precisas. Por exemplo, uma previsão pode dizer que haverá três veículos e dois passageiros em uma área específica, mas a realidade pode ser diferente, levando a um despacho ineficiente dos veículos. Portanto, um modelo eficaz precisa levar em conta essas incertezas.
Introduzindo uma Nova Abordagem
Pra enfrentar os desafios do equilíbrio nos sistemas E-AMoD, foi criada uma nova estrutura baseada em aprendizado por reforço multiagente. Essa estrutura usa múltiplos agentes, cada um responsável por gerenciar os veículos em diferentes regiões. Esses agentes tomam decisões com base na situação atual em suas áreas. Além disso, há agentes adversariais atuando como uma fonte de incerteza, simulando possíveis variações na demanda e na oferta.
O principal objetivo dessa nova abordagem é criar um sistema robusto que consiga gerenciar os EAVs de maneira eficaz, apesar das incertezas. Usando esse método, a intenção é equilibrar o número de veículos disponíveis com as necessidades dos passageiros, enquanto considera as exigências de recarga da frota.
O Design da Estrutura
O novo método robusto de equilíbrio E-AMoD incorpora os seguintes componentes:
Agentes Regionais: Esses agentes gerenciam os veículos com base na demanda em suas respectivas áreas. Eles decidem pra onde enviar veículos parados e quais veículos precisam ser recarregados.
Agentes Adversariais: Esses agentes simulam desafios alterando as informações disponíveis para os agentes regionais. Isso ajuda o sistema a se adaptar às incertezas, proporcionando um ambiente de treinamento mais realista.
Treinamento Centralizado e Execução Descentralizada: Enquanto os agentes aprendem juntos usando uma abordagem de treinamento compartilhado, uma vez treinados, eles operam independentemente pra tomar decisões em tempo real.
Esse método permite que o sistema geral responda rapidamente a condições em mudança, ajudando a melhorar tanto a qualidade do serviço quanto a eficiência do uso dos veículos.
Resultados e Experimentos
Foram feitos testes extensivos pra avaliar a nova abordagem. Os resultados mostram que o método robusto de MARL supera significativamente outros métodos tradicionais.
Quando comparado a uma abordagem não robusta, a nova estrutura aumentou a eficácia do equilíbrio dos EAVs, melhorando a recompensa geral em 19,28%. Os cálculos mostraram que a equidade na utilização de recarga melhorou em 28,18%, e a equidade na correspondência de veículos disponíveis com a demanda dos passageiros também aumentou em 3,97%.
Além disso, quando comparado com métodos tradicionais de otimização, o novo algoritmo MARL ainda mostrou desempenho superior. O aumento na recompensa, a equidade na utilização de recarga e a equidade entre oferta e demanda foram notáveis, destacando suas forças em lidar com incertezas.
Importância de Políticas e Atualizações
O sucesso dessa estrutura de equilíbrio depende de atualizar continuamente as políticas que regem as ações dos agentes regionais e adversariais. Ao avaliar regularmente como os agentes estão se saindo, a estrutura pode fazer ajustes pra manter a eficácia.
Através de treinamento sistemático usando dados do mundo real, a abordagem aprende a gerenciar a frota de EAVs de maneira mais eficiente. Ela pode se adaptar com base em experiências passadas e demandas atuais, tornando-se uma ferramenta vital pra futuras soluções de mobilidade urbana.
Conclusão
À medida que as cidades continuam a crescer, o papel dos veículos autônomos elétricos no transporte se torna cada vez mais importante. Lidar com os desafios de prever a demanda e gerenciar a oferta de veículos é crucial pro sucesso dos sistemas E-AMoD. A proposta de estrutura de aprendizado por reforço multiagente oferece uma solução nova, considerando incertezas que impactam significativamente o desempenho. As melhorias notáveis no equilíbrio entre a oferta de veículos e a demanda dos passageiros mostram potencial para sistemas futuros que dependem de tecnologias semelhantes.
No geral, essa abordagem robusta demonstra que usar algoritmos de aprendizado avançados pode melhorar o desempenho das frotas de EAVs em ambientes urbanos, prometendo um futuro de transporte mais organizado e eficiente.
Título: Robust Electric Vehicle Balancing of Autonomous Mobility-On-Demand System: A Multi-Agent Reinforcement Learning Approach
Resumo: Electric autonomous vehicles (EAVs) are getting attention in future autonomous mobility-on-demand (AMoD) systems due to their economic and societal benefits. However, EAVs' unique charging patterns (long charging time, high charging frequency, unpredictable charging behaviors, etc.) make it challenging to accurately predict the EAVs supply in E-AMoD systems. Furthermore, the mobility demand's prediction uncertainty makes it an urgent and challenging task to design an integrated vehicle balancing solution under supply and demand uncertainties. Despite the success of reinforcement learning-based E-AMoD balancing algorithms, state uncertainties under the EV supply or mobility demand remain unexplored. In this work, we design a multi-agent reinforcement learning (MARL)-based framework for EAVs balancing in E-AMoD systems, with adversarial agents to model both the EAVs supply and mobility demand uncertainties that may undermine the vehicle balancing solutions. We then propose a robust E-AMoD Balancing MARL (REBAMA) algorithm to train a robust EAVs balancing policy to balance both the supply-demand ratio and charging utilization rate across the whole city. Experiments show that our proposed robust method performs better compared with a non-robust MARL method that does not consider state uncertainties; it improves the reward, charging utilization fairness, and supply-demand fairness by 19.28%, 28.18%, and 3.97%, respectively. Compared with a robust optimization-based method, the proposed MARL algorithm can improve the reward, charging utilization fairness, and supply-demand fairness by 8.21%, 8.29%, and 9.42%, respectively.
Autores: Sihong He, Shuo Han, Fei Miao
Última atualização: 2023-07-30 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2307.16228
Fonte PDF: https://arxiv.org/pdf/2307.16228
Licença: https://creativecommons.org/licenses/by-nc-sa/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.