Simple Science

Ciência de ponta explicada de forma simples

# Informática# Aprendizagem de máquinas

Auditoria de Sistemas de Aprendizado de Máquina: Uma Abordagem Prática

Um guia para métodos de auditoria ética para tecnologias de aprendizado de máquina.

― 10 min ler


Ética na Auditoria de MLÉtica na Auditoria de MLresponsáveis de aprendizado de máquina.Um guia pra garantir práticas
Índice

O uso de sistemas de Machine Learning (ML) tá crescendo rápido, mas isso traz várias questões éticas e preocupações do público. Tem uma necessidade clara de auditar esses sistemas pra garantir que eles sigam padrões éticos. Pra fazer da auditoria uma prática padrão, duas coisas importantes precisam estar em vigor: um modelo de ciclo de vida que enfatize transparência e responsabilidade, e um processo de Avaliação de Riscos pra guiar a auditoria de forma eficaz.

Esse artigo explica uma abordagem prática pra auditar sistemas de ML, que se baseia em diretrizes desenvolvidas pela Comissão Europeia. Nosso método de auditoria é baseado em um modelo de ciclo de vida que foca na documentação, responsabilidade e checagens de qualidade, criando um entendimento comum entre os auditores e as organizações auditadas.

Descrevemos dois estudos piloto envolvendo projetos reais de ML, discutimos os desafios enfrentados na auditoria de ML e sugerimos melhorias futuras.

A Necessidade de Auditar Sistemas de ML

Com o avanço das tecnologias de ML, as perguntas sobre seu uso ético e o potencial de viés se tornaram muito importantes. Muitas organizações criaram suas próprias diretrizes sobre IA ética, mas esses documentos geralmente não mudam a maneira como os desenvolvedores realmente tomam decisões. Isso acontece principalmente porque essas diretrizes costumam ser muito vagas, e ferramentas práticas pra apoiá-las geralmente estão faltando. Como resultado, os desenvolvedores podem se sentir menos responsáveis por suas escolhas.

Uma solução pra esse problema é aplicar processos de auditoria ao projetar e operar sistemas de ML. A auditoria pode ajudar a garantir responsabilidade e tornar as diretrizes éticas mais eficazes. As auditorias podem ser feitas internamente por pessoas da mesma organização ou por uma parte externa, que muitas vezes é vista como mais confiável, especialmente pra aplicações de alto risco.

Enquanto auditorias externas podem ser caras, elas frequentemente trazem mais confiança pros stakeholders. Por outro lado, auditorias internas podem promover uma melhor documentação e avaliações de risco, aumentando a rastreabilidade geral dos sistemas auditados.

O Desafio da Auditoria

Realizar auditorias de maneira eficaz exige que condições claras estejam em vigor. Tanto auditores quanto as organizações devem entender as expectativas e práticas durante o processo de auditoria. Isso inclui definir padrões, coleta de evidências, testes e os papéis de diferentes indivíduos envolvidos na auditoria.

No entanto, falta práticas padrão para avaliar riscos em sistemas de ML. Propomos uma nova abordagem de auditoria inspirada nas práticas de auditoria de Sistemas de Informação existentes, adaptada pra enfrentar esses desafios.

O Procedimento de Auditoria Proposto

Nosso procedimento de auditoria consiste em três fases principais: planejamento, trabalho de campo/documentação e relatórios. Embora essas fases possam parecer sequenciais, é importante notar que auditar sistemas de ML deve ser um processo contínuo, refletindo as mudanças rápidas e iterações que frequentemente ocorrem no desenvolvimento de ML.

Fase de Planejamento

A fase de planejamento visa definir o escopo da auditoria e criar um roteiro pros próximos passos. Isso envolve revisar relatórios de auditoria anteriores e conduzir uma avaliação de riscos. É crucial determinar os recursos e habilidades necessários pra auditoria, muitas vezes exigindo uma equipe com formações diversas pra cobrir as complexidades dos sistemas de ML.

Uma boa compreensão da arquitetura geral do sistema e dos processos envolvidos na criação e implantação de modelos de ML é fundamental durante essa fase. Pra isso, seguimos um modelo de ciclo de vida que enfatiza Princípios Éticos e identifica riscos-chave.

Modelo de Ciclo de Vida

Um modelo de ciclo de vida serve como uma referência comum tanto pros auditores quanto pras organizações auditadas. A maioria dos modelos existentes foca intensamente em detalhes técnicos e não incorpora suficientemente princípios éticos como transparência e responsabilidade.

Propomos um modelo de ciclo de vida aprimorado que inclui quatro etapas principais: formalização, gestão de dados, gestão de modelos e implantação. Além dessas etapas, introduzimos três aspectos importantes que promovem responsabilidade e transparência:

  1. Agilidade de Cada Fase: Em vez de ver o ciclo de vida como um processo linear, nosso modelo trata cada fase como iterativa e enfatiza a necessidade de documentação e checagens de qualidade durante todo o processo.

  2. Transparência e Responsabilidade: Nosso modelo alinha as diferentes fases com os papéis e Responsabilidades dos indivíduos envolvidos, deixando claro qual documentação deve ser produzida.

  3. Avaliação de Impacto Contínua: O modelo destaca a importância de avaliações contínuas de como o sistema de ML afeta seus usuários e o contexto em que opera.

Mapear o sistema auditado nesse modelo de ciclo de vida ajuda a identificar fases e documentos relevantes a serem coletados, além de adaptar a avaliação de riscos de acordo.

Avaliação de Risco

Uma auditoria eficaz depende de ter uma base de conhecimento documentada sobre riscos potenciais. Pra sistemas de ML, esse conhecimento pode ser mais difícil de reunir. Nosso método de avaliação de riscos proposto usa o modelo de ciclo de vida pra simplificar a análise de riscos, quebrando-a em componentes gerenciáveis.

Usando estruturas existentes como a Lista de Avaliação pra Inteligência Artificial Confiável da Comissão Europeia (ALTAI), podemos desenvolver perguntas relevantes a serem feitas durante cada fase do ciclo de vida. Isso ajuda a garantir que o trabalho de campo subsequente e a documentação sejam guiados por essas perguntas.

Trabalho de Campo e Fase de Documentação

Nessa fase, o auditor coleta evidências pra verificar a conformidade com as regulamentações e avaliar a eficácia das medidas de controle por meio de vários testes. As evidências podem ser coletadas usando dois mecanismos principais:

  1. Mecanismos de Transparência: Isso envolve revisar informações divulgadas pelos desenvolvedores, como folhas de dados e cartões de modelos.

  2. Mecanismos de Examinabilidade: Aqui, o auditor realiza experimentos diretamente no sistema pra validar as informações fornecidas anteriormente.

Uma vez que as evidências são coletadas, o auditor pode realizar testes de conformidade, que verificam discrepâncias entre as especificações da organização e a implementação real. Isso pode ajudar a identificar fraquezas nas avaliações de qualidade e documentação.

Testes Personalizados

Em casos onde os testes padrão não são suficientes, os auditores podem criar seus próprios testes pra avaliar aspectos do sistema de ML que talvez não tenham sido bem avaliados pela equipe de desenvolvimento. Embora essa abordagem possa levar a algumas inconsistências na auditoria, pode ser crucial pra garantir que todos os fatores relevantes sejam considerados.

Fase de Relatório

Depois que a auditoria é concluída, o auditor compila os resultados dos vários testes e define critérios para futuras auditorias. Isso pode envolver agendar auditorias regulares ou realizá-las quando mudanças significativas ocorrerem no sistema ou feedback dos usuários indicar um problema.

O auditor deve garantir que quaisquer medidas de mitigação recomendadas sejam implementadas antes da próxima iteração da auditoria.

Estudos de Caso: Realizando os Pilotos

Nosso procedimento de auditoria foi testado por meio de dois estudos piloto envolvendo aplicações reais de ML. Esses pilotos não foram projetados pra servir como modelos universais, mas sim pra incentivar o diálogo sobre boas práticas na auditoria de ML.

Piloto 1: Sistema de Calibração Assistido por IA

Esse piloto envolveu um sistema de ML que automatiza processos de calibração pra componentes de segurança, que tradicionalmente eram feitos manualmente por engenheiros. O objetivo é apoiar os engenheiros sem substituir sua expertise.

Durante a auditoria, focamos nos processos de formalização, gestão de modelos e operacionalização, já que a gestão de dados anterior já tinha sido revisada. O modelo de ciclo de vida ajudou a estruturar as discussões e identificar a documentação relevante.

Avaliação de Risco

O processo de avaliação de risco envolveu filtrar perguntas relevantes pros passos específicos do modelo de ciclo de vida. As principais preocupações éticas que surgiram dessa auditoria incluíram transparência, explicabilidade, robustez e segurança.

  1. Transparência e Explicabilidade: A saída do sistema é clara, mas não transmite adequadamente a incerteza associada às suas recomendações. Sugestões de melhoria incluíram registrar as seleções dos usuários pra validação e realizar experimentos pra avaliar a dependência excessiva na saída do modelo.

  2. Robustez e Segurança: Há uma necessidade de documentação detalhada das decisões de design, falhas e vigilância pós-mercado pra garantir a segurança. Além disso, devem ser estabelecidos limites de desempenho recomendados.

Piloto 2: Projeto de Geriatrônica - Sistema de Visão

O segundo piloto focou no módulo de visão do GARMI, uma plataforma robótica projetada pra ajudar pessoas idosas. Esse projeto ainda estava na fase de pesquisa, e enquanto preocupações éticas já tinham sido abordadas, havia documentação insuficiente pra uma auditoria completa.

Avaliação de Risco

Identificamos vários requisitos éticos da ALTAI que precisavam ser documentados. A auditoria identificou a necessidade de melhor rastreabilidade dos dados e dos processos de gestão de modelos, assim como garantir a conformidade com as regulamentações de privacidade.

Modelos de documentação poderiam ajudar a simplificar o processo, permitindo que a equipe se concentrasse em integrar considerações éticas no desenvolvimento do sistema futuramente.

Lições Aprendidas com os Pilotos

Os pilotos destacaram algumas lições-chave pra futuras auditorias de sistemas de ML:

  1. Critérios de Auditabilidade: Nem todos os sistemas são adequados pra auditoria devido a restrições de acesso a dados ou falta de documentação necessária. Estabelecer critérios de auditabilidade antes do planejamento é crucial.

  2. Não Existe Uma Solução Única: Diferentes sistemas de ML podem exigir abordagens variadas de auditoria com base nos seus níveis de risco e contextos específicos.

  3. Auditorias Contínuas: Um envolvimento precoce entre auditores e equipes de desenvolvimento pode levar a melhor documentação e custos de conformidade reduzidos. Colaboração contínua durante o ciclo de vida do sistema de ML pode ajudar a detectar problemas mais cedo e simplificar futuras auditorias.

  4. Banco de Dados de Riscos Documentados: Manter um banco de dados de incidentes passados e riscos associados pode ser benéfico pra futuras auditorias. Esse tipo de ferramenta ajudaria a desenvolver medidas preventivas eficazes.

Conclusão

Esse artigo apresenta uma abordagem prática pra auditar sistemas de aprendizado de máquina, focando em criar um entendimento comum entre praticantes e auditores. Nosso processo proposto inclui um modelo de ciclo de vida e um método de avaliação de riscos que integram princípios éticos pra melhorar a responsabilidade e transparência.

Mostramos nossa metodologia através de exemplos do mundo real e discutimos os desafios que ainda existem nesse campo. À medida que o cenário de ML evolui, desenvolver práticas padronizadas e adaptar nossos métodos de auditoria será essencial pra garantir sistemas de IA éticos e confiáveis.

Fonte original

Título: Pragmatic auditing: a pilot-driven approach for auditing Machine Learning systems

Resumo: The growing adoption and deployment of Machine Learning (ML) systems came with its share of ethical incidents and societal concerns. It also unveiled the necessity to properly audit these systems in light of ethical principles. For such a novel type of algorithmic auditing to become standard practice, two main prerequisites need to be available: A lifecycle model that is tailored towards transparency and accountability, and a principled risk assessment procedure that allows the proper scoping of the audit. Aiming to make a pragmatic step towards a wider adoption of ML auditing, we present a respective procedure that extends the AI-HLEG guidelines published by the European Commission. Our audit procedure is based on an ML lifecycle model that explicitly focuses on documentation, accountability, and quality assurance; and serves as a common ground for alignment between the auditors and the audited organisation. We describe two pilots conducted on real-world use cases from two different organisations and discuss the shortcomings of ML algorithmic auditing as well as future directions thereof.

Autores: Djalel Benbouzid, Christiane Plociennik, Laura Lucaj, Mihai Maftei, Iris Merget, Aljoscha Burchardt, Marc P. Hauer, Abdeldjallil Naceri, Patrick van der Smagt

Última atualização: 2024-05-21 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2405.13191

Fonte PDF: https://arxiv.org/pdf/2405.13191

Licença: https://creativecommons.org/licenses/by-sa/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes