Simple Science

Ciência de ponta explicada de forma simples

# Informática# Recuperação de informação# Computação e linguagem# Redes Sociais e de Informação

CrowdOpinion: Repensando a Rotulagem de Dados de IA

Um novo método que valoriza opiniões humanas diversas na rotulação de IA.

― 8 min ler


Repense a rotulagem de IARepense a rotulagem de IAcom a CrowdOpiniondiversas na rotulagem de dados de IA.A CrowdOpinion dá força a vozes
Índice

No mundo de hoje, muitos sistemas de inteligência artificial (IA) dependem de dados rotulados por humanos. Essa rotulagem é super importante pra sistemas que fazem decisões significativas ou moderam conteúdo nas redes sociais. Mas tá rolando uma crescente percepção de que desentendimentos entre as pessoas que rotulam os dados são comuns e importantes. Muitas vezes, esses desentendimentos podem representar opiniões minoritárias que ficam de fora, e isso pode ser um problema pra justiça nos sistemas de IA.

Esse artigo apresenta uma nova abordagem chamada CrowdOpinion. Esse método usa uma forma de aprendizado que não precisa de supervisão rigorosa. O objetivo é criar uma melhor compreensão de como diferentes pessoas percebem o mesmo conteúdo, especialmente quando se trata de rotular posts nas redes sociais como ofensivos ou não.

A Importância da Rotulagem Humana

A rotulagem humana ajuda a treinar sistemas de IA fornecendo exemplos do que diferentes tipos de conteúdo parecem. Porém, o processo não é tão simples. Normalmente, quando várias pessoas analisam o mesmo conteúdo, a prática comum é seguir a opinião da maioria pra determinar o rótulo final. Isso significa que, se a maior parte acha que um post não é ofensivo, esse rótulo é aplicado, mesmo que algumas pessoas achem que é.

Essa abordagem pode levar a ignorar visões importantes, principalmente de grupos menos representados. Em muitos casos, os resultados de sistemas de IA treinados dessa forma podem desconsiderar ou interpretar mal as experiências desses grupos, levando a resultados injustos.

Num mundo onde opiniões extremas podem causar danos reais, entender as sutilezas da rotulagem humana é mais crucial do que nunca. A linguagem usada online pode muitas vezes disfarçar conteúdo prejudicial. Por isso, as plataformas têm obrigações éticas e legais de encontrar e remover esse tipo de conteúdo.

O Desafio da Subjetividade

Os humanos são subjetivos por natureza, o que significa que suas opiniões podem variar bastante sobre o mesmo conteúdo. Essa variabilidade pode dificultar para sistemas de aprendizado de máquina (ML), que dependem de regras bem definidas, julgar o conteúdo com precisão. Na prática, quando posts recebem rótulos conflitantes, a reação comum é remover as opiniões minoritárias do conjunto de dados. Porém, fazer isso pode empobrecer a riqueza dos dados e levar a sistemas de IA tendenciosos.

Por exemplo, se um post é visto como inofensivo pela maioria, mas alguns anotadores o consideram ofensivo, um modelo treinado apenas na visão da maioria pode falhar em reconhecer linguagem prejudicial. No fim das contas, ignorar visões minoritárias representa um risco significativo não só pra IA, mas também pras comunidades afetadas por suas decisões.

Apresentando CrowdOpinion

CrowdOpinion é uma nova abordagem pra lidar com as questões sobre anotação e rotulagem humana. Esse método funciona em duas etapas. Primeiro, ele agrupa posts semelhantes e avalia um conjunto maior de anotações ao invés de algumas isoladas. Isso ajuda a fazer uma estimativa mais equilibrada de como as pessoas percebem o conteúdo. Na segunda etapa, o sistema aprende com essas estimativas pra melhorar sua capacidade de rotular novos conteúdos com precisão.

Ao preservar todo o espectro de opiniões coletadas através da rotulagem em massa, o CrowdOpinion promove uma compreensão mais justa das respostas humanas. Isso é especialmente importante ao examinar conteúdo da web e redes sociais, que muitas vezes é subjetivo e cheio de nuances.

Metodologia

O CrowdOpinion consiste em duas etapas principais.

Etapa 1: Agrupando Dados

Nessa etapa, posts semelhantes são agrupados com base em suas características linguísticas e distribuições de rótulos. A ideia é que itens com rótulos semelhantes provavelmente vêm de interpretações parecidas entre os anotadores. Ao lidar com os rótulos em clusters, o sistema pode ganhar insights sobre toda a gama de respostas de um grupo maior ao invés de confiar apenas em opiniões médias.

A gente analisa diferentes métodos, como modelos generativos e abordagens baseadas em distância, pra encontrar maneiras ótimas de agrupar os dados. O objetivo aqui é melhorar a representação das perspectivas humanas no conjunto de dados.

Etapa 2: Aprendizado Supervisionado

Depois do processo de Agrupamento, o próximo passo é treinar um modelo supervisionado. Esse modelo usa as informações dos rótulos da primeira etapa pra aprender e prever rótulos pra novos dados. O objetivo é melhorar a precisão das previsões, especialmente em classes onde houve grande desentendimento entre os anotadores.

A importância desse setup em duas etapas tá na sua capacidade de integrar tanto as características dos dados quanto a diversidade de opiniões humanas. Essa combinação permite que o modelo faça melhores previsões e entenda a variabilidade de como o conteúdo pode ser interpretado.

Experimentos e Resultados

Pra avaliar a eficácia do CrowdOpinion, fizemos vários experimentos usando uma variedade de conjuntos de dados. Esses conjuntos de dados abrangeram diversas plataformas de redes sociais e continham posts com diferentes níveis de desentendimento humano.

As descobertas mostraram que usar um método que combina características linguísticas e distribuições de rótulos leva a previsões melhores do que usar qualquer um dos métodos sozinhos. Especificamente, modelos que incluíram desentendimentos humanos-aqueles que não ignoraram opiniões minoritárias-resultaram em resultados mais precisos.

Estudos de Caso

Exemplo 1: Humor de Ação de Graças

Em um experimento, analisamos um tweet que fez uma piada referindo-se ao Dia de Ação de Graças. A maioria dos anotadores achou esse post inofensivo. Contudo, uma minoria o considerou ofensivo. Um modelo que não considera essa visão minoritária pode classificar incorretamente o post como totalmente não ofensivo, perdendo uma perspectiva importante.

Exemplo 2: Identidade Pessoal

Outro post incluía um desafio à identidade de alguém baseado no nome. Enquanto alguns acharam engraçado, outros viram como algo pejorativo. Novamente, confiar apenas na maioria pode resultar em uma situação onde conteúdo ofensivo passa despercebido.

Exemplo 3: Piadas com Humor Negro

Mais um exemplo inclui um post com humor negro sobre um tópico sensível. Embora muitas pessoas possam rir desse tipo de piada, a minoria que a vê como prejudicial não deve ser ignorada. O método CrowdOpinion ajudou a identificar essa nuance, permitindo uma compreensão mais completa das reações do público.

Discussão

As descobertas sugerem que o sistema CrowdOpinion é um passo necessário pra reconhecer e valorizar opiniões subjetivas no treinamento de IA. Ao integrar opiniões diversas no processo de aprendizado, é menos provável que criemos sistemas que ignorem ou representem mal perspectivas importantes.

Enquanto nosso método mostra potencial em melhorar a precisão dos rótulos, também levanta questões sobre como a IA deve ser desenvolvida e implantada em contextos sensíveis. O equilíbrio entre permitir livre expressão e proteger usuários de conteúdo prejudicial é uma questão complexa que merece consideração cuidadosa.

Considerações Éticas

Como em qualquer sistema de IA, as implicações éticas são fundamentais. Já que os dados usados incluem opiniões humanas, há um risco de que esses sistemas possam revelar informações pessoais, embora tenhamos tomado medidas pra anonimizar os dados.

Além disso, é crucial garantir que ferramentas projetadas pra identificar conteúdo prejudicial não conduzam inadvertidamente à censura. Evitar viés enquanto se mantém a liberdade de expressão é um equilíbrio delicado que deve ser constantemente avaliado à medida que essas tecnologias evoluem.

Conclusão

O CrowdOpinion ressalta o valor de incluir todas as vozes no processo de rotulagem de conteúdo nas redes sociais. Ao capturar toda a gama de opiniões humanas, podemos melhorar a compreensão dos sistemas de IA sobre questões sociais complexas. Isso garante que nossa tecnologia sirva todos os usuários de forma justa, ao invés de apenas refletir as opiniões da maioria.

Trabalhos futuros visam refinar ainda mais esses métodos, investigar as nuances do desentendimento humano e promover melhores práticas no desenvolvimento de sistemas de IA. O objetivo final é facilitar uma compreensão mais profunda do conteúdo nas redes sociais enquanto se mantêm padrões éticos na implantação de IA.

Fonte original

Título: Subjective Crowd Disagreements for Subjective Data: Uncovering Meaningful CrowdOpinion with Population-level Learning

Resumo: Human-annotated data plays a critical role in the fairness of AI systems, including those that deal with life-altering decisions or moderating human-created web/social media content. Conventionally, annotator disagreements are resolved before any learning takes place. However, researchers are increasingly identifying annotator disagreement as pervasive and meaningful. They also question the performance of a system when annotators disagree. Particularly when minority views are disregarded, especially among groups that may already be underrepresented in the annotator population. In this paper, we introduce \emph{CrowdOpinion}\footnote{Accepted for publication at ACL 2023}, an unsupervised learning based approach that uses language features and label distributions to pool similar items into larger samples of label distributions. We experiment with four generative and one density-based clustering method, applied to five linear combinations of label distributions and features. We use five publicly available benchmark datasets (with varying levels of annotator disagreements) from social media (Twitter, Gab, and Reddit). We also experiment in the wild using a dataset from Facebook, where annotations come from the platform itself by users reacting to posts. We evaluate \emph{CrowdOpinion} as a label distribution prediction task using KL-divergence and a single-label problem using accuracy measures.

Autores: Tharindu Cyril Weerasooriya, Sarah Luger, Saloni Poddar, Ashiqur R. KhudaBukhsh, Christopher M. Homan

Última atualização: 2023-07-07 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2307.10189

Fonte PDF: https://arxiv.org/pdf/2307.10189

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes