Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computadores e sociedade

Navegando Conversas sobre Ética em IA nas Equipes

As equipes podem melhorar as discussões sobre ética em IA com atividades envolventes.

― 7 min ler


Conversas sobre Ética emConversas sobre Ética emIA nas Equipesdiscussões sobre ética em IA.A dinâmica da equipe molda as
Índice

A ética da IA é um assunto importante. Muitas empresas têm diretrizes pra garantir que seus sistemas de IA sejam justos, responsáveis e transparentes. Mas, na real, essas diretrizes podem fazer mais mal do que bem. Às vezes, elas limitam o que os funcionários acham que podem falar sobre questões éticas.

Esse estudo analisou como as equipes discutem ética da IA, usando um jogo criado pra provocar conversa. O objetivo era ver como jogar esse jogo pode ajudar os membros da equipe a compartilhar suas opiniões e encontrar maneiras de criticar práticas de IA em um ambiente de trabalho que muitas vezes desencoraja isso.

Importância da Ética da IA

À medida que a IA se torna mais integrada na sociedade, as preocupações éticas sobre seu uso aumentam. Diretrizes para uma IA responsável são feitas pra ajudar as equipes a entender o que é considerado ético. Mas, embora essas diretrizes possam empoderar os funcionários a se manifestarem, elas frequentemente criam limites sobre quais tópicos são aceitáveis para discussão. Se algo não tá nas diretrizes, pode ser visto como não sendo digno de preocupação.

Ao examinar essa questão, notamos que exemplos do mundo real mostram que levantar preocupações éticas em um ambiente corporativo pode gerar reações negativas. Os funcionários costumam se sentir restritos ao expressar preocupações que vão além do que foi formalmente estabelecido.

Abordagem da Pesquisa

Pra entender melhor essas dinâmicas, fizemos um estudo envolvendo equipes de diferentes áreas. Um grupo de participantes era de uma empresa de tecnologia, enquanto outro era de um grupo ativista. Cada grupo participou de um jogo que tinha a intenção de abrir discussões sobre ética da IA.

Comparando as conversas que ocorreram durante o jogo com as discussões típicas sobre ética da IA, esperávamos descobrir quais fatores influenciavam sua "licença para criticar."

Desafios em Discutir Ética da IA

Muitos funcionários enfrentam desafios quando querem levantar preocupações éticas. Normas organizacionais podem criar um ambiente onde críticas são vistas como muito negativas. Esse desencorajamento frequentemente dificulta que as pessoas se manifestem.

Os funcionários podem sentir que precisam apresentar questões sérias antes que valha a pena discutir preocupações éticas. Eles podem se preocupar que levantar um ponto poderia frustrar seus colegas ou que eles podem ser rotulados como "negativos."

Escopo da Discussão

Um fator chave que influencia a capacidade de criticar é a noção de "escopo." O "escopo" se refere a quais questões uma equipe acredita que pode abordar. Muitos funcionários sentem que precisam ficar dentro de limites definidos, frequentemente restritos por limitações de tempo e hierarquias organizacionais.

Por exemplo, em muitos ambientes de trabalho, as discussões costumam girar em torno de questões diretamente relacionadas a um produto, o que dificulta trazer à tona preocupações éticas mais amplas. Os funcionários podem se concentrar em soluções técnicas em vez de questionar se um projeto deveria existir.

Freqüentemente, as discussões são direcionadas a itens claros e acionáveis, onde os funcionários sugerem mudanças específicas nos sistemas existentes. Esse foco em resolver problemas imediatos pode levar a negligenciar questões sistêmicas maiores que contribuem para práticas antiéticas na IA.

Influência da Dinâmica da Equipe

A dinâmica da equipe também desempenha um papel significativo em moldar conversas sobre ética. A presença de gerentes ou chefes pode afetar muito como os funcionários se sentem abertos a discutir tópicos sensíveis.

Alguns participantes notaram que, quando seus chefes estavam presentes, eles se sentiam menos livres para expressar opiniões críticas. Muitas pessoas são cautelosas ao discutir tópicos controversos, especialmente se não têm certeza das atitudes de seus colegas em relação a esses assuntos.

Entender quem está na sala e suas diferentes perspectivas sobre ética pode influenciar o que os indivíduos se sentem confortáveis em levantar. Atributos pessoais, como idade e gênero, também impactam as percepções de credibilidade e autoridade entre os membros da equipe.

O Jogo como Ferramenta para Discussão

No nosso estudo, as equipes jogaram um jogo chamado "O Que Pode Dar Errado?", projetado para provocar conversas sobre situações hipotéticas envolvendo tecnologia de IA. O jogo criou um espaço onde os participantes podiam explorar cenários éticos de forma mais livre.

Enquanto jogavam, os participantes relataram sentir menos pressão pra ficar dentro dos limites das suas discussões habituais. O fator de aleatoriedade introduzido pelo jogo os permitiu pensar fora da caixa e considerar tópicos que muitas vezes são negligenciados em suas reuniões normais.

Jogando, os participantes ajudaram a conectar suas experiências pessoais a implicações éticas mais amplas, mostrando a eles o valor de discutir questões além das especificações técnicas.

Aprendendo com a Experiência do Jogo

O jogo deu uma oportunidade pros membros da equipe compartilharem suas opiniões em um contexto não ameaçador. Os participantes acharam mais fácil expressar preocupações sobre ética da IA em uma situação hipotética do que em relação a um projeto ativo.

Durante o jogo, os participantes puderam explorar uma variedade de questões éticas sem medo de prejudicar sua posição na organização. A natureza de "E se" do jogo promoveu um ambiente pra diálogo aberto.

Muitos relataram que essa experiência permitiu que eles aprendessem mais sobre seus colegas de equipe e descobrissem quem compartilhava suas preocupações. Ao discutir tópicos éticos em um ambiente descontraído, eles conseguiram desenvolver alianças críticas que poderiam levar a ações no mundo real no futuro.

Limitações do Contexto do Jogo

Apesar dos aspectos positivos do jogo, os participantes expressaram preocupações de que as ideias geradas durante o jogo poderiam não ser facilmente transferidas para seu trabalho cotidiano. O contexto hipotético parecia separado de seus projetos reais, tornando desafiador implementar os insights obtidos durante o jogo.

Os participantes notaram que, embora o jogo permitisse discussões ricas, voltar a projetos da vida real muitas vezes trazia de volta a pressão pra cumprir processos existentes e evitar implicações negativas para seu trabalho.

Muitos sentiram que as percepções ricas obtidas durante o jogo seriam difíceis de aplicar em um ambiente orientado à conformidade, onde ameaças percebidas à segurança no emprego ofuscam o diálogo aberto.

Encontrando Aliados através do Jogo

A experiência do jogo destacou a importância de formar conexões entre os colegas de equipe. Os participantes relataram que aprender sobre as orientações críticas um do outro durante o jogo permitiu que eles identificassem aliados para discussões futuras sobre ética da IA.

À medida que as opiniões eram compartilhadas durante o jogo, os indivíduos encontraram um terreno comum em preocupações éticas que anteriormente assumiram que não eram compartilhadas. Os laços formados nesse ambiente divertido podem levar a uma voz coletiva mais forte quando se trata de levantar questões éticas no local de trabalho.

Conclusão

Os resultados desse estudo revelam que discutir ética da IA em um ambiente corporativo pode ser desafiador. Normas organizacionais, o conceito de escopo e a dinâmica da equipe frequentemente ditam o que pode ser levantado e por quem.

Embora jogos como "O Que Pode Dar Errado?" ofereçam um método criativo pra iniciar conversas sobre ética da IA, eles também destacam as barreiras que existem dentro das organizações. O jogo criou uma oportunidade valiosa pra promover diálogo aberto e conexão entre os membros da equipe, mas a transição de situações hipotéticas para ações tangíveis continua problemática.

Mais pesquisas são necessárias pra explorar como as organizações podem integrar melhor os insights dessas discussões nas práticas do mundo real. Ao entender as dinâmicas da equipe, o escopo e o potencial de aliança, as empresas podem incentivar uma abordagem mais aberta e ética ao desenvolvimento da IA.

Fonte original

Título: Power and Play: Investigating "License to Critique" in Teams' AI Ethics Discussions

Resumo: Past work has sought to design AI ethics interventions--such as checklists or toolkits--to help practitioners design more ethical AI systems. However, other work demonstrates how these interventions may instead serve to limit critique to that addressed within the intervention, while rendering broader concerns illegitimate. In this paper, drawing on work examining how standards enact discursive closure and how power relations affect whether and how people raise critique, we recruit three corporate teams, and one activist team, each with prior context working with one another, to play a game designed to trigger broad discussion around AI ethics. We use this as a point of contrast to trigger reflection on their teams' past discussions, examining factors which may affect their "license to critique" in AI ethics discussions. We then report on how particular affordances of this game may influence discussion, and find that the hypothetical context created in the game is unlikely to be a viable mechanism for real world change. We discuss how power dynamics within a group and notions of "scope" affect whether people may be willing to raise critique in AI ethics discussions, and discuss our finding that games are unlikely to enable direct changes to products or practice, but may be more likely to allow members to find critically-aligned allies for future collective action.

Autores: David Gray Widder, Laura Dabbish, James Herbsleb, Nikolas Martelaro

Última atualização: 2024-04-08 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2403.19049

Fonte PDF: https://arxiv.org/pdf/2403.19049

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes