Construindo uma Estrutura para IA Sustentável em Finanças
Um novo framework aborda justiça, privacidade, interpretabilidade e emissões na IA.
― 12 min ler
Índice
No mundo das finanças, aprendizado de máquina (ML) e inteligência artificial (AI) viraram ferramentas essenciais. Mas essas tecnologias precisam seguir alguns padrões. Tem quatro áreas principais que precisam de atenção: Justiça, Privacidade, como os modelos tomam decisões e reduzir as emissões de gases de efeito estufa. Esses pontos fazem parte de uma conversa maior sobre como tornar a AI mais sustentável. Embora muitos pesquisadores tenham olhado para essas áreas, poucos consideraram elas juntas.
Cada uma dessas áreas tem seus desafios. Por exemplo, melhorar a precisão de um modelo pode diminuir a justiça ou a privacidade. Isso torna necessário pensar nas quatro áreas ao mesmo tempo. Essa estrutura propõe uma nova forma de pensar sobre aprendizado de máquina sustentável, sugerindo um pipeline de AI conhecido como FPIG. O objetivo do FPIG é considerar todos esses fatores importantes juntos, ajudando os usuários a ver como podem equilibrá-los melhor.
Usando a estrutura do FPIG, é sugerido um novo método que ajuda a estimar as quatro áreas importantes com base em um resumo do conjunto de dados, o tipo de modelo usado e suas configurações antes que qualquer treinamento comece. Esse método permite que os usuários escolham o melhor tipo de modelo para seu conjunto de dados e suas necessidades específicas em relação à justiça, privacidade e Interpretabilidade. Para mostrar como isso funciona, são fornecidos exemplos usando conjuntos de dados bem conhecidos. Isso mostra como essa nova abordagem pode ajudar na escolha do modelo certo.
AI está cada vez mais importante nas finanças. Mas não se trata só da tecnologia; inclui também considerações relacionadas à infraestrutura e ideologia. Essa complexidade pode dificultar a definição clara de AI. Essa compreensão vaga de AI torna desafiador gerenciá-la e governá-la de forma eficaz. Também destaca a necessidade de discussões flexíveis sobre ética e governança em AI.
As discussões atuais sobre ética em AI mostram uma grande variedade de princípios propostos. No entanto, falta consenso sobre quais princípios deveriam ser. Os movimentos iniciais por direitos ambientais e justiça climática foram impulsionados por iniciativas globais, como as Conferências da ONU sobre Mudanças Climáticas e os Objetivos de Desenvolvimento Sustentável. Além disso, a governança ambiental, social e corporativa (ESG) também está ganhando importância.
Enquanto o impacto da AI no meio ambiente começa a ser abordado, o conceito mais amplo de sustentabilidade em AI ainda precisa de mais atenção. Estudos recentes tendem a focar de forma estreita em AI sustentável, perdendo a natureza interconectada dos diversos desafios na governança de AI. Uma visão abrangente de AI sustentável deve misturar fatores econômicos, ambientais e sociais, exigindo uma abordagem complexa.
No setor financeiro, há responsabilidades específicas em relação à AI que não podem ser ignoradas. Diretrizes rigorosas são estabelecidas por organizações como o Information Commissioner's Office (ICO) sobre questões como entender como os modelos de AI funcionam, proteção de dados e privacidade. Recentemente, grandes organizações focadas em regulamentos de AI também atualizaram diretrizes, reforçando a necessidade de uma AI sustentável. Por exemplo, a União Europeia sugeriu uma lei, o AI Act, que classifica aplicações de AI com base no risco e enfatiza a documentação e validação adequadas.
Este artigo defende a incorporação das ideias da ciência da sustentabilidade na AI e analisa a AI dentro do quadro de um sistema insustentável. A estrutura proposta foca em quatro princípios centrais: justiça, privacidade, interpretabilidade e redução de emissões. Esses quatro elementos estão intimamente ligados à sustentabilidade, mas não foram abordados juntos em uma única estrutura.
Primeiro, a estrutura visa incluir a justiça nas metas de aprendizado de máquina. Isso significa ajustar como medimos o sucesso para reduzir discrepâncias entre diferentes grupos. Isso permite diferentes níveis de justiça, desde a otimização padrão sem considerações adicionais de justiça até condições de múltiplos objetivos que mostram compensações entre diferentes métricas.
Segundo, a estrutura incorpora métodos para garantir a privacidade durante o treinamento de modelos. Isso é feito adicionando ruído durante o processo de treinamento, garantindo que modelos de qualidade sejam desenvolvidos enquanto se mantém a privacidade.
Acompanhar as emissões de gases de efeito estufa durante o treinamento e a inferência do modelo é um passo importante. Uma ferramenta de software independente, CodeCarbon, pode monitorar as emissões e fornecer insights sobre a pegada de carbono envolvida.
No final, é proposto um novo método que ajuda os usuários a encontrar os melhores modelos e configurações com base em seus conjuntos de dados e nos objetivos de sustentabilidade que desejam alcançar. As medidas práticas para sustentabilidade nesta estrutura incluem privacidade, justiça, precisão, interpretabilidade e emissões de gases de efeito estufa.
Para verificar quão eficaz é a estrutura do FPIG, são realizadas avaliações usando vários conjuntos de dados e diferentes tipos de modelos de aprendizado de máquina. As descobertas destacam compensações comuns entre os diferentes objetivos durante o treinamento. Por exemplo, melhorar a precisão pode afetar negativamente a justiça e a privacidade.
Além disso, os resultados mostram os benefícios de usar uma abordagem de meta-aprendizado, permitindo previsões sobre como várias configurações de modelos irão se sair em relação à precisão, justiça e emissões sem passar pelo processo custoso de treinar todos os modelos. Este método demonstra sua utilidade através de um exemplo específico.
O restante da discussão fornecerá primeiro uma visão geral do trabalho relacionado, seguida de uma explicação detalhada da estrutura do FPIG, e então apresentará resultados experimentais em vários conjuntos de dados.
Sustentabilidade em Aprendizado de Máquina e AI
A ideia de "AI sustentável" foi levantada por vários pesquisadores que desejam destacar como a AI se relaciona com a sustentabilidade. Contudo, a palavra "sustentável" é muitas vezes mal compreendida como sendo puramente sobre ser ambientalmente amigável. Por exemplo, o manifesto de "AI Sustentável" da Facebook AI foca principalmente em reduzir as emissões de carbono dos sistemas de AI, prometendo avançar a AI de forma responsável. Essa visão estreita torna mais difícil fazer com que as partes interessadas vejam uma perspectiva mais ampla sobre sustentabilidade.
A justiça é uma das métricas-chave de sustentabilidade, como indicado pelos Objetivos de Desenvolvimento Sustentável (ODS). Justiça em modelos de aprendizado de máquina significa que as previsões e decisões tomadas não favorecem um grupo em detrimento de outro. Isso envolve remover preconceitos dos dados e algoritmos usados para criar modelos.
Diversos métodos podem ser adotados para alcançar a justiça, como ajustar dados antes do treinamento, usar algoritmos projetados com a justiça em mente e aplicar métricas de justiça para avaliar o desempenho do modelo. Pesquisas recentes introduziram diferentes formas de medir a justiça, incluindo métricas de justiça de grupo, que garantem tratamento igual entre vários grupos, e métricas de justiça individual que focam na justiça a nível pessoal.
Com muitos modelos para escolher, decidir qual usar pode ser complicado. Isso significa que a seleção de modelos também deve considerar como eles lidam com a justiça.
Privacidade em aprendizado de máquina refere-se a manter dados sensíveis seguros contra acesso ou divulgação não autorizados. Empregar medidas fortes de privacidade é essencial. Alguns métodos para manter a privacidade incluem anonimizar dados, criptografar e usar computação segura entre várias partes. O padrão ouro para privacidade é frequentemente considerado a privacidade diferencial, que garante que dados individuais não possam ser facilmente identificados.
Em termos de interpretabilidade, modelos de ML precisam oferecer explicações para suas previsões ou decisões. Existem várias técnicas, como análise de importância de características e métodos agnósticos ao modelo, para ajudar as pessoas a entender como os modelos chegam a conclusões. Isso é chave para permitir que os usuários confiem nos modelos com os quais trabalham.
Sobre as emissões de gases de efeito estufa, o impacto dos modelos de ML precisa ser reduzido. Isso envolve otimizar os recursos computacionais usados na fase de treinamento. Estratégias podem incluir usar hardware eficiente em termos de energia, compressão de modelos para minimizar o tamanho e aproveitar a energia renovável.
Enquanto muitos estudos focam em aumentar a eficiência dos modelos para reduzir emissões, a área de AI explicável também ganhou destaque entre os pesquisadores. No entanto, essa estrutura visa ser a primeira a reunir os quatro objetivos de sustentabilidade em uma única abordagem.
A Estrutura FPIG
Esta estrutura integra os quatro fatores de sustentabilidade no processo de treinamento para modelos. Ela foca em otimizar diferentes áreas, como desempenho, clareza, emissões e justiça, enquanto também considera a privacidade.
Abordagem de Objetivo Único
Tradicionalmente, a afinação de hiperparâmetros em aprendizado de máquina visou maximizar uma métrica específica de interesse. Uma vez escolhida uma métrica, o objetivo é encontrar as melhores configurações que minimizem a perda, visando criar um modelo de sucesso.
Para cenários de objetivo único, um método chamado Estimador Parzen Estruturado em Árvore (TPE) é frequentemente usado. Esse método ajuda a identificar os melhores hiperparâmetros através de um processo de iteração e avaliação.
Abordagem Multi-Objetivo
Em contraste, um cenário multi-objetivo se interessa em otimizar várias metas conflitantes. Isso significa que encontrar os melhores hiperparâmetros envolve olhar para múltiplas métricas ao mesmo tempo. O TPE também pode ser adaptado para se ajustar a essa estrutura multi-objetivo, buscando as combinações mais promissoras que equilibram o desempenho em todas as áreas desejadas.
O melhor modelo pode mudar dramaticamente dependendo do conjunto de dados usado. Nossos testes envolveram múltiplos conjuntos de dados para avaliar o potencial da estrutura em várias situações.
Avaliando Emissões de GEE
Para monitorar as emissões associadas às práticas de ML, o CodeCarbon é integrado à estrutura. Ele ajuda a acompanhar as emissões de carbono durante as fases de treinamento e inferência dos modelos.
Os experimentos foram realizados em instâncias de nuvem com recursos substanciais, e cada conjunto de dados foi minuciosamente avaliado. Os resultados fornecem insights sobre as relações entre métricas-chave, como precisão, justiça e emissões, e mostram como os usuários podem selecionar modelos que equilibram esses fatores.
Incorporando Justiça
A justiça é abordada através de diferentes métricas que medem o viés algorítmico. Na estrutura FPIG, a paridade demográfica é empregada, o que significa que as previsões do modelo não devem ser influenciadas por atributos protegidos, como gênero. O objetivo é reduzir as disparidades entre grupos o máximo possível.
Incorporando Privacidade
A estrutura também enfatiza a importância da privacidade. A privacidade diferencial é utilizada, garantindo que pontos de dados individuais permaneçam indistinguíveis. Coletar dados dessa maneira protege informações sensíveis enquanto mantém a utilidade.
Meta-Aprendizado
O aspecto de meta-aprendizado da estrutura é projetado para ajudar os usuários a encontrar modelos adequados com base em suas preferências e requisitos. Ele utiliza características dos dados para tomar decisões informadas sobre qual modelo treinar, visando reduzir o tempo e os recursos frequentemente gastos no treinamento de modelos.
Ao avaliar vários conjuntos de dados e arquiteturas de modelo, esse método aprende quais hiperparâmetros e modelos se adequam melhor a cada tarefa específica.
Descobertas e Observações
Através de inúmeras avaliações, foi observado que compensações existem entre os objetivos. Os usuários podem encontrar modelos que alcançam um desempenho equilibrado em todas as métricas enquanto abordam suas metas específicas.
Por exemplo, à medida que a justiça melhorou, frequentemente a precisão sofreu. No entanto, também é possível encontrar modelos que oferecem melhorias em vários objetivos, mostrando a flexibilidade da estrutura.
Além disso, o estudo revelou que modelos mais simples tendem a ter um desempenho melhor em termos de justiça e emissões. Isso indica que aumentar a complexidade dos modelos pode levar a um desempenho pior nessas áreas.
Conclusão
Esta estrutura para aprendizado de máquina sustentável é construída em torno da ideia de que podemos otimizar em vários objetivos: precisão, justiça, privacidade, interpretabilidade e emissões. Ao usar essa estrutura em vários conjuntos de dados, demonstramos a possibilidade de encontrar modelos que possam equilibrar esses objetivos de forma eficaz.
No geral, este trabalho estabelece as bases para pesquisas futuras sobre práticas de AI sustentável, incentivando mais colaboração e diálogo sobre essas questões importantes.
Título: A Comprehensive Sustainable Framework for Machine Learning and Artificial Intelligence
Resumo: In financial applications, regulations or best practices often lead to specific requirements in machine learning relating to four key pillars: fairness, privacy, interpretability and greenhouse gas emissions. These all sit in the broader context of sustainability in AI, an emerging practical AI topic. However, although these pillars have been individually addressed by past literature, none of these works have considered all the pillars. There are inherent trade-offs between each of the pillars (for example, accuracy vs fairness or accuracy vs privacy), making it even more important to consider them together. This paper outlines a new framework for Sustainable Machine Learning and proposes FPIG, a general AI pipeline that allows for these critical topics to be considered simultaneously to learn the trade-offs between the pillars better. Based on the FPIG framework, we propose a meta-learning algorithm to estimate the four key pillars given a dataset summary, model architecture, and hyperparameters before model training. This algorithm allows users to select the optimal model architecture for a given dataset and a given set of user requirements on the pillars. We illustrate the trade-offs under the FPIG model on three classical datasets and demonstrate the meta-learning approach with an example of real-world datasets and models with different interpretability, showcasing how it can aid model selection.
Autores: Roberto Pagliari, Peter Hill, Po-Yu Chen, Maciej Dabrowny, Tingsheng Tan, Francois Buet-Golfouse
Última atualização: 2024-07-17 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2407.12445
Fonte PDF: https://arxiv.org/pdf/2407.12445
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.