Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computadores e sociedade

Decisões da IA na Vigilância: Uma Olhada Mais de Perto

Estudo revela possíveis preconceitos na tomada de decisão da IA para intervenção policial.

― 7 min ler


IA e Chamadas da Polícia:IA e Chamadas da Polícia:Um Estudopolicial.na IA para recomendações de intervençãoPesquisas mostram que há preconceitos
Índice

A Inteligência Artificial (IA) se tornou uma ferramenta essencial em várias áreas, incluindo vigilância e aplicação da lei. Recentemente, pesquisadores estudaram como a IA, especialmente os modelos de linguagem grandes (LLMs), decidem se devem chamar a polícia com base em vídeos de vigilância de casas. O foco foi entender como esses modelos aplicam diferentes normas em situações semelhantes, um fenômeno chamado inconsistência normativa. Este estudo ilumina como os sistemas de IA podem produzir resultados tendenciosos ao avaliar atividades potencialmente criminosas.

O Papel da IA na Vigilância

Muita gente usa sistemas de vigilância como o Amazon Ring para monitorar suas casas. Esses sistemas gravam vídeos e permitem que os usuários compartilhem clipes com os vizinhos e as autoridades. Embora esses sistemas possam ajudar a manter os bairros seguros, eles também podem levar a decisões tendenciosas sobre policiamento com base no conteúdo dos vídeos e nas características das pessoas envolvidas.

Neste estudo, os pesquisadores focaram em como os LLMs avaliam vídeos de vigilância do Amazon Ring para determinar se um crime está acontecendo e se a polícia deve ser chamada. Eles investigaram as decisões tomadas por três dos principais LLMs e exploraram como essas decisões podem diferir com base em vários fatores, incluindo a atividade mostrada no vídeo e a demografia do bairro.

Metodologia

Para avaliar como os LLMs tomam decisões sobre chamar a polícia, os pesquisadores usaram um conjunto de dados contendo 928 vídeos do Amazon Ring. Esses vídeos apresentavam diferentes atividades, e anotadores os rotularam com base no tipo de ação, se ocorreu à noite ou durante o dia, e o gênero e a tonalidade da pele aparentes dos sujeitos.

Os pesquisadores fizeram duas perguntas para cada vídeo aos LLMs:

  1. Está acontecendo um crime?
  2. A polícia deve ser chamada?

As respostas dos modelos foram categorizadas em quatro grupos: "Sim," "Não," "Ambíguo," e "Recusa."

Resultados

Inconsistência Normativa nas Recomendações

Uma das descobertas marcantes foi que os LLMs exibiram inconsistência normativa. Em muitos casos, os modelos recomendaram chamar a polícia mesmo quando afirmaram que nenhum crime estava ocorrendo. Por exemplo, um modelo pode dizer que não houve crime, mas ainda sugerir a intervenção da polícia. Esse desalinhamento entre os fatos e as recomendações dos modelos levanta preocupações sobre a confiabilidade desses sistemas de IA em situações de alto risco.

Influência da Demografia do Bairro

Os pesquisadores também descobriram que a demografia dos bairros onde os vídeos eram gravados influenciava as decisões dos modelos. Surpreendentemente, os modelos tinham mais probabilidade de recomendar a intervenção da polícia em vídeos de bairros com maiores porcentagens de moradores de minorias, mesmo quando nenhum crime estava retratado. Essa descoberta sugere que os modelos podem ter internalizado preconceitos com base nas características do bairro, levando a resultados injustos.

Desacordo Entre os Modelos

Outra descoberta importante foi o nível de desacordo entre os três LLMs. Eles frequentemente forneciam respostas conflitantes para o mesmo vídeo, indicando que cada modelo usava critérios diferentes para avaliar se a polícia deveria ser chamada. Por exemplo, um modelo poderia sinalizar um vídeo para intervenção policial, enquanto outro poderia não fazê-lo, mostrando uma variação significativa em seus julgamentos normativos.

Falta de Clareza na Tomada de decisão

A incapacidade dos modelos de explicar claramente suas decisões adiciona uma camada extra de preocupação. Quando os modelos se recusaram a responder se um crime estava ocorrendo, mas ainda forneceram recomendações para ação policial, tornou-se difícil entender seu raciocínio. Essa falta de clareza sugere que confiar na IA para decisões tão críticas pode não ser sábio sem mais transparência.

Implicações dos Resultados

As descobertas desta pesquisa têm implicações significativas para o uso da IA na vigilância e na aplicação da lei.

Potencial para Preconceito

O estudo destacou que os sistemas de IA podem perpetuar preconceitos existentes na sociedade. Se os LLMs forem treinados com dados que refletem esses preconceitos, eles podem continuar a reproduzi-los em seus processos de tomada de decisão. Isso poderia exacerbar ainda mais questões de policiamento excessivo em certos bairros, especialmente aqueles com populações minoritárias mais altas, mesmo quando as ações retratadas nos vídeos não justificam tais respostas.

Necessidade de Melhor Detecção de Preconceito

Os pesquisadores enfatizaram a necessidade de melhorar as estratégias de detecção e mitigação de preconceitos. Os métodos atuais para identificar preconceitos em IA muitas vezes se baseiam em cenários predefinidos, que podem não capturar as complexidades da tomada de decisão no mundo real. Como demonstrado neste estudo, o uso da demografia do bairro pode levar a resultados de preconceito inesperados, destacando a necessidade de abordagens mais nuançadas para a análise de preconceitos.

Importância da Transparência

O estudo chama atenção para a importância da transparência na tomada de decisões da IA. Quando sistemas de IA fazem recomendações, é vital entender como eles chegam a essas conclusões. Os modelos precisam explicar seu raciocínio de forma eficaz, especialmente quando seus julgamentos podem ter consequências no mundo real, como chamar a polícia.

Recomendações para Pesquisas Futuras

Os autores propõem várias recomendações para pesquisas futuras em IA e tomada de decisão normativa.

Investigando os Fatores por Trás da Inconsistência Normativa

Estudos futuros devem explorar os diversos fatores que contribuem para a inconsistência normativa na tomada de decisões da IA. Ao identificar os elementos que levam a resultados tendenciosos, os pesquisadores podem desenvolver estratégias para melhorar a confiabilidade e equidade dos sistemas de IA.

Desenvolvendo Métodos Robustos de Detecção de Preconceito

Os pesquisadores devem trabalhar em novos métodos para detectar e abordar preconceitos na IA que considerem as complexidades das situações do mundo real. Isso pode envolver o desenvolvimento de ferramentas que possam analisar o contexto das decisões, incluindo as ações que ocorrem em vídeos de vigilância e as características dos bairros.

Melhorando a Interpretabilidade dos Modelos

Melhorar a interpretabilidade dos modelos de IA é crucial para fomentar a confiança e a compreensão entre os usuários. Futuros sistemas de IA devem ser projetados para explicar claramente seus processos de tomada de decisão, ajudando os usuários a entender o raciocínio por trás das recomendações.

Conclusão

O estudo da inconsistência normativa na tomada de decisões da IA destaca os desafios e riscos associados ao uso de modelos de linguagem grandes para tarefas críticas, como a avaliação de vídeos de vigilância. À medida que a IA continua a desempenhar um papel mais significativo no policiamento e na segurança, é essencial abordar preconceitos e melhorar a transparência no processo de tomada de decisão. Fazendo isso, podemos garantir que a IA sirva como uma ferramenta de justiça, em vez de perpetuar desigualdades existentes na sociedade.

Fonte original

Título: As an AI Language Model, "Yes I Would Recommend Calling the Police": Norm Inconsistency in LLM Decision-Making

Resumo: We investigate the phenomenon of norm inconsistency: where LLMs apply different norms in similar situations. Specifically, we focus on the high-risk application of deciding whether to call the police in Amazon Ring home surveillance videos. We evaluate the decisions of three state-of-the-art LLMs -- GPT-4, Gemini 1.0, and Claude 3 Sonnet -- in relation to the activities portrayed in the videos, the subjects' skin-tone and gender, and the characteristics of the neighborhoods where the videos were recorded. Our analysis reveals significant norm inconsistencies: (1) a discordance between the recommendation to call the police and the actual presence of criminal activity, and (2) biases influenced by the racial demographics of the neighborhoods. These results highlight the arbitrariness of model decisions in the surveillance context and the limitations of current bias detection and mitigation strategies in normative decision-making.

Autores: Shomik Jain, D Calacci, Ashia Wilson

Última atualização: 2024-08-17 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2405.14812

Fonte PDF: https://arxiv.org/pdf/2405.14812

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes