CrowdOpinion: Repensando a Rotulagem de Dados de IA
Um novo método que valoriza opiniões humanas diversas na rotulação de IA.
― 8 min ler
Índice
No mundo de hoje, muitos sistemas de inteligência artificial (IA) dependem de dados rotulados por humanos. Essa rotulagem é super importante pra sistemas que fazem decisões significativas ou moderam conteúdo nas redes sociais. Mas tá rolando uma crescente percepção de que desentendimentos entre as pessoas que rotulam os dados são comuns e importantes. Muitas vezes, esses desentendimentos podem representar opiniões minoritárias que ficam de fora, e isso pode ser um problema pra justiça nos sistemas de IA.
Esse artigo apresenta uma nova abordagem chamada CrowdOpinion. Esse método usa uma forma de aprendizado que não precisa de supervisão rigorosa. O objetivo é criar uma melhor compreensão de como diferentes pessoas percebem o mesmo conteúdo, especialmente quando se trata de rotular posts nas redes sociais como ofensivos ou não.
Rotulagem Humana
A Importância daA rotulagem humana ajuda a treinar sistemas de IA fornecendo exemplos do que diferentes tipos de conteúdo parecem. Porém, o processo não é tão simples. Normalmente, quando várias pessoas analisam o mesmo conteúdo, a prática comum é seguir a opinião da maioria pra determinar o rótulo final. Isso significa que, se a maior parte acha que um post não é ofensivo, esse rótulo é aplicado, mesmo que algumas pessoas achem que é.
Essa abordagem pode levar a ignorar visões importantes, principalmente de grupos menos representados. Em muitos casos, os resultados de sistemas de IA treinados dessa forma podem desconsiderar ou interpretar mal as experiências desses grupos, levando a resultados injustos.
Num mundo onde opiniões extremas podem causar danos reais, entender as sutilezas da rotulagem humana é mais crucial do que nunca. A linguagem usada online pode muitas vezes disfarçar conteúdo prejudicial. Por isso, as plataformas têm obrigações éticas e legais de encontrar e remover esse tipo de conteúdo.
Subjetividade
O Desafio daOs humanos são subjetivos por natureza, o que significa que suas opiniões podem variar bastante sobre o mesmo conteúdo. Essa variabilidade pode dificultar para sistemas de aprendizado de máquina (ML), que dependem de regras bem definidas, julgar o conteúdo com precisão. Na prática, quando posts recebem rótulos conflitantes, a reação comum é remover as opiniões minoritárias do conjunto de dados. Porém, fazer isso pode empobrecer a riqueza dos dados e levar a sistemas de IA tendenciosos.
Por exemplo, se um post é visto como inofensivo pela maioria, mas alguns anotadores o consideram ofensivo, um modelo treinado apenas na visão da maioria pode falhar em reconhecer linguagem prejudicial. No fim das contas, ignorar visões minoritárias representa um risco significativo não só pra IA, mas também pras comunidades afetadas por suas decisões.
Apresentando CrowdOpinion
CrowdOpinion é uma nova abordagem pra lidar com as questões sobre anotação e rotulagem humana. Esse método funciona em duas etapas. Primeiro, ele agrupa posts semelhantes e avalia um conjunto maior de anotações ao invés de algumas isoladas. Isso ajuda a fazer uma estimativa mais equilibrada de como as pessoas percebem o conteúdo. Na segunda etapa, o sistema aprende com essas estimativas pra melhorar sua capacidade de rotular novos conteúdos com precisão.
Ao preservar todo o espectro de opiniões coletadas através da rotulagem em massa, o CrowdOpinion promove uma compreensão mais justa das respostas humanas. Isso é especialmente importante ao examinar conteúdo da web e redes sociais, que muitas vezes é subjetivo e cheio de nuances.
Metodologia
O CrowdOpinion consiste em duas etapas principais.
Etapa 1: Agrupando Dados
Nessa etapa, posts semelhantes são agrupados com base em suas características linguísticas e distribuições de rótulos. A ideia é que itens com rótulos semelhantes provavelmente vêm de interpretações parecidas entre os anotadores. Ao lidar com os rótulos em clusters, o sistema pode ganhar insights sobre toda a gama de respostas de um grupo maior ao invés de confiar apenas em opiniões médias.
A gente analisa diferentes métodos, como modelos generativos e abordagens baseadas em distância, pra encontrar maneiras ótimas de agrupar os dados. O objetivo aqui é melhorar a representação das perspectivas humanas no conjunto de dados.
Aprendizado Supervisionado
Etapa 2:Depois do processo de Agrupamento, o próximo passo é treinar um modelo supervisionado. Esse modelo usa as informações dos rótulos da primeira etapa pra aprender e prever rótulos pra novos dados. O objetivo é melhorar a precisão das previsões, especialmente em classes onde houve grande desentendimento entre os anotadores.
A importância desse setup em duas etapas tá na sua capacidade de integrar tanto as características dos dados quanto a diversidade de opiniões humanas. Essa combinação permite que o modelo faça melhores previsões e entenda a variabilidade de como o conteúdo pode ser interpretado.
Experimentos e Resultados
Pra avaliar a eficácia do CrowdOpinion, fizemos vários experimentos usando uma variedade de conjuntos de dados. Esses conjuntos de dados abrangeram diversas plataformas de redes sociais e continham posts com diferentes níveis de desentendimento humano.
As descobertas mostraram que usar um método que combina características linguísticas e distribuições de rótulos leva a previsões melhores do que usar qualquer um dos métodos sozinhos. Especificamente, modelos que incluíram desentendimentos humanos-aqueles que não ignoraram opiniões minoritárias-resultaram em resultados mais precisos.
Estudos de Caso
Exemplo 1: Humor de Ação de Graças
Em um experimento, analisamos um tweet que fez uma piada referindo-se ao Dia de Ação de Graças. A maioria dos anotadores achou esse post inofensivo. Contudo, uma minoria o considerou ofensivo. Um modelo que não considera essa visão minoritária pode classificar incorretamente o post como totalmente não ofensivo, perdendo uma perspectiva importante.
Exemplo 2: Identidade Pessoal
Outro post incluía um desafio à identidade de alguém baseado no nome. Enquanto alguns acharam engraçado, outros viram como algo pejorativo. Novamente, confiar apenas na maioria pode resultar em uma situação onde conteúdo ofensivo passa despercebido.
Exemplo 3: Piadas com Humor Negro
Mais um exemplo inclui um post com humor negro sobre um tópico sensível. Embora muitas pessoas possam rir desse tipo de piada, a minoria que a vê como prejudicial não deve ser ignorada. O método CrowdOpinion ajudou a identificar essa nuance, permitindo uma compreensão mais completa das reações do público.
Discussão
As descobertas sugerem que o sistema CrowdOpinion é um passo necessário pra reconhecer e valorizar opiniões subjetivas no treinamento de IA. Ao integrar opiniões diversas no processo de aprendizado, é menos provável que criemos sistemas que ignorem ou representem mal perspectivas importantes.
Enquanto nosso método mostra potencial em melhorar a precisão dos rótulos, também levanta questões sobre como a IA deve ser desenvolvida e implantada em contextos sensíveis. O equilíbrio entre permitir livre expressão e proteger usuários de conteúdo prejudicial é uma questão complexa que merece consideração cuidadosa.
Considerações Éticas
Como em qualquer sistema de IA, as implicações éticas são fundamentais. Já que os dados usados incluem opiniões humanas, há um risco de que esses sistemas possam revelar informações pessoais, embora tenhamos tomado medidas pra anonimizar os dados.
Além disso, é crucial garantir que ferramentas projetadas pra identificar conteúdo prejudicial não conduzam inadvertidamente à censura. Evitar viés enquanto se mantém a liberdade de expressão é um equilíbrio delicado que deve ser constantemente avaliado à medida que essas tecnologias evoluem.
Conclusão
O CrowdOpinion ressalta o valor de incluir todas as vozes no processo de rotulagem de conteúdo nas redes sociais. Ao capturar toda a gama de opiniões humanas, podemos melhorar a compreensão dos sistemas de IA sobre questões sociais complexas. Isso garante que nossa tecnologia sirva todos os usuários de forma justa, ao invés de apenas refletir as opiniões da maioria.
Trabalhos futuros visam refinar ainda mais esses métodos, investigar as nuances do desentendimento humano e promover melhores práticas no desenvolvimento de sistemas de IA. O objetivo final é facilitar uma compreensão mais profunda do conteúdo nas redes sociais enquanto se mantêm padrões éticos na implantação de IA.
Título: Subjective Crowd Disagreements for Subjective Data: Uncovering Meaningful CrowdOpinion with Population-level Learning
Resumo: Human-annotated data plays a critical role in the fairness of AI systems, including those that deal with life-altering decisions or moderating human-created web/social media content. Conventionally, annotator disagreements are resolved before any learning takes place. However, researchers are increasingly identifying annotator disagreement as pervasive and meaningful. They also question the performance of a system when annotators disagree. Particularly when minority views are disregarded, especially among groups that may already be underrepresented in the annotator population. In this paper, we introduce \emph{CrowdOpinion}\footnote{Accepted for publication at ACL 2023}, an unsupervised learning based approach that uses language features and label distributions to pool similar items into larger samples of label distributions. We experiment with four generative and one density-based clustering method, applied to five linear combinations of label distributions and features. We use five publicly available benchmark datasets (with varying levels of annotator disagreements) from social media (Twitter, Gab, and Reddit). We also experiment in the wild using a dataset from Facebook, where annotations come from the platform itself by users reacting to posts. We evaluate \emph{CrowdOpinion} as a label distribution prediction task using KL-divergence and a single-label problem using accuracy measures.
Autores: Tharindu Cyril Weerasooriya, Sarah Luger, Saloni Poddar, Ashiqur R. KhudaBukhsh, Christopher M. Homan
Última atualização: 2023-07-07 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2307.10189
Fonte PDF: https://arxiv.org/pdf/2307.10189
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://github.com/Homan-lab/crowdopinion
- https://bit.ly/3frew0T
- https://bit.ly/33g7Ct3
- https://github.com/google-research/google-research/tree/master/goemotions
- https://github.com/Homan-Lab/pldl_data
- https://homes.cs.washington.edu/~msap/social-bias-frames/index.html