Desvendando a Verdade nas Alegações das Redes Sociais
Uma competição tem como objetivo identificar as afirmações em posts nas redes sociais com precisão.
Soham Poddar, Biswajit Paul, Moumita Basu, Saptarshi Ghosh
― 8 min ler
Índice
- Explicando a Identificação de Span de Afirmação (CSI)
- A Competição
- O Conjunto de Dados
- O Desafio da Identificação de Span de Afirmação
- Visão Geral da Competição
- Diferentes Trilhas da Competição
- Avaliação de Performance
- Equipes Participantes
- Soluções Vencedoras
- Análise dos Resultados
- Conclusão
- Fonte original
- Ligações de referência
As redes sociais são tipo um parquinho gigante onde todo mundo grita suas opiniões e "fatos". Mas, vamos ser sinceros, nem tudo que é compartilhado é verdade. Na verdade, algumas postagens podem ser bem enganosas ou falsas. Aí que entra a grande tarefa de descobrir quais afirmações são realmente verdadeiras. Assim como a gente separa os brinquedos legais dos quebrados, precisamos filtrar as afirmações nas redes sociais pra descobrir o que é real e o que não é.
Com milhões de postagens surgindo todo dia, pode ser difícil pra galera acompanhar. Por isso, precisamos de máquinas pra ajudar. Isso nos leva a uma Competição especial com uma missão específica: Identificação de Span de Afirmação. Em termos mais simples, é sobre encontrar as partes exatas de um texto que fazem afirmações.
Explicando a Identificação de Span de Afirmação (CSI)
Pensa numa afirmação como aquele amigo que conta histórias exageradas. Você quer descobrir o que ele realmente quer dizer sem se perder nas histórias dele. A tarefa de Identificação de Span de Afirmação (CSI) faz isso, localizando as frases em postagens que afirmam ser fatos. Não é tão simples quanto só dizer, "Isso é uma afirmação" ou "Isso não é uma afirmação." Em vez disso, requer mergulhar mais fundo no texto e entender sua essência.
Pra ilustrar, se alguém tweeta, "Eu ouvi que comer cenouras pode te ajudar a ver no escuro," a afirmação aqui é "comer cenouras pode te ajudar a ver no escuro." A tarefa é identificar essa frase específica, assim como encontrar o baú do tesouro no mapa de um pirata.
A Competição
Essa competição foi organizada pra mentes brilhantes enfrentarem a tarefa de CSI. Os participantes receberam um novo conjunto de dados contendo milhares de postagens em duas línguas: inglês e hindi. O objetivo era que os times desenvolvessem métodos pra identificar spans de afirmação dessas postagens.
O conjunto de dados tinha 8.000 postagens em inglês e 8.000 em hindi, cada uma marcada por humanos que se dedicaram a identificar quais partes das postagens faziam afirmações. Os participantes tinham que criar soluções que pudessem filtrar esses textos e identificar as afirmações de forma precisa.
O Conjunto de Dados
Imagina ter uma biblioteca cheia de livros onde cada livro tem algumas frases contendo afirmações importantes. Era assim que o conjunto de dados estava estruturado. Ele foi desenhado pra ser útil e pra incluir vários tipos de afirmações, assim os modelos treinados neles poderiam entender diferentes cenários.
A parte em inglês do conjunto de dados incluía postagens sobre vacinas COVID-19, que são particularmente sensíveis devido à desinformação que circula sobre as vacinas. Por outro lado, a parte em hindi continha postagens sobre fake news e discurso de ódio, refletindo questões sociais diferentes, mas igualmente importantes.
Humanos, que eram experientes e fluentes nas duas línguas, marcaram as afirmações nas postagens. Eles receberam treinamento sobre como identificar afirmações e foram pagos pelo trabalho. O resultado? Um conjunto de dados cuidadosamente organizado que os participantes da competição podiam usar pra testar suas habilidades.
O Desafio da Identificação de Span de Afirmação
Identificar uma afirmação dentro de um texto não é tão fácil quanto parece. Não é só ler uma frase e fazer um julgamento. A tarefa é mais complexa, exigindo atenção aos detalhes, como um detetive procurando pistas.
A tarefa de CSI envolve examinar cada palavra em uma postagem. Por exemplo, se uma postagem diz, "Cães podem correr mais rápido que gatos," o span de afirmação é "Cães podem correr mais rápido que gatos." Porém, se a postagem termina com "mas isso é só o que eu ouvi," o desafio é identificar aquele span anterior sem se distrair com a qualificação no final.
Visão Geral da Competição
A competição atraiu equipes de várias regiões, todas ansiosas pra mostrar suas habilidades de resolver problemas. Os participantes foram avaliados com base em quão bem conseguiam identificar spans de afirmação em postagens em inglês e hindi.
As equipes tinham abordagens diferentes pra enfrentar o desafio. Algumas focaram mais nas postagens em inglês, enquanto outras tentaram equilibrar os esforços entre as duas línguas. Os critérios de avaliação eram rígidos, garantindo que as equipes seguissem as diretrizes e entregassem as melhores soluções possíveis.
Diferentes Trilhas da Competição
Havia três trilhas pra competição, cada uma atendendo a diferentes níveis de recursos e estratégias:
-
Trilha de Inglês Constrangida: As equipes podiam usar apenas os conjuntos de treinamento e validação em inglês fornecidos para a competição. Essa trilha enfatizou a compreensão e o trabalho dentro de um framework específico.
-
Trilha de Hindi Constrangida: Semelhante à trilha em inglês, os participantes estavam limitados a usar apenas os conjuntos de treinamento e validação em hindi para seus modelos.
-
Trilha Multilíngue Não Constrangida: Aqui, as equipes tinham liberdade pra usar quaisquer recursos que quisessem, tornando tudo mais competitivo e diversificado.
Os participantes podiam escolher competir em uma ou mais trilhas, submetendo soluções pra cada uma. Isso permitiu que as equipes mostrassem seu melhor trabalho em diferentes cenários e línguas.
Avaliação de Performance
Todo o trabalho duro culminou em uma avaliação de desempenho com base em certas métricas. Usando pontuações como Macro-F1 e Jaccard, as equipes foram julgadas sobre quão precisamente conseguiam prever spans de afirmação.
Pensa nisso como um jogo de dardos; quanto mais perto do centro você ficar com suas previsões, melhor sua pontuação. As pontuações finais indicaram quão efetivamente cada equipe podia identificar os spans de afirmação das postagens fornecidas.
Equipes Participantes
A competição contou com a participação de várias equipes, cada uma trazendo suas abordagens e soluções únicas pra mesa. Embora a maioria das equipes fosse da Índia, também houve envolvimento de equipes nos EUA e em Bangladesh.
Os organizadores também contribuíram com um modelo base pra comparar. Mesmo com uma base sólida, as equipes participantes se esforçaram pra superar o modelo base e umas às outras.
Soluções Vencedoras
Entre as equipes, algumas se destacaram por seus métodos excepcionais:
-
JU NLP: Essa equipe mandou bem nas etapas de pré-processamento. Eles limparam os dados antes de mergulhar na fase de processamento, o que ajudou a alcançar os melhores resultados nas trilhas em inglês e hindi. Eles se certificarão de padronizar tudo, desde URLs até menções de usuários, dando dados claros pros modelos trabalharem.
-
FactFinders: Essa equipe não se contentou em usar apenas um modelo. Eles ajustaram vários modelos, misturando e combinando pra ver o que funcionava melhor tanto nas trilhas em inglês quanto em hindi. A criatividade na abordagem, especialmente com o uso de Conjuntos de dados adicionais, ajudou a alcançar pontuações altas.
-
DLRG: Essa equipe adotou uma abordagem única usando um sistema de 3 classes BIO pra classificação de tokens, o que significava que estavam quebrando as afirmações ainda mais do que só identificá-las. Isso permitiu oferecer classificações mais nuançadas e obter resultados sólidos na categoria multilíngue.
Análise dos Resultados
Depois da competição, os organizadores analisaram os resultados e as técnicas utilizadas pelas equipes. Ficou claro que modelos de transformadores como BERT, RoBERTa e XLM-RoBERTa eram as escolhas mais populares. Esses modelos têm a incrível capacidade de entender o contexto da linguagem, o que é crucial pra tarefas como identificação de afirmação.
As descobertas mostraram que, enquanto a trilha multilíngue não constrangida foi um desafio e tanto, as trilhas estruturadas em inglês e hindi tiveram resultados melhores e mais consistentes. Os participantes na trilha multilíngue lutaram pra até superar o modelo base.
Conclusão
A Competição ICPR 2024 sobre Identificação de Span de Afirmação Multilíngue foi um grande passo rumo a entender como verificar afirmações na imensa selva das redes sociais. Os Desafios enfrentados destacam as complexidades envolvidas na identificação precisa de afirmações, provando que ainda há muito trabalho a ser feito nessa área.
Enquanto os participantes trouxeram uma variedade de métodos e técnicas, nenhum conseguiu superar significativamente o modelo base, mostrando a necessidade contínua de inovação na área de identificação de spans de afirmação.
Os organizadores esperam que o conjunto de dados públicamente acessível possa motivar futuros pesquisadores a continuar enfrentando esses desafios e contribuir para o cenário em evolução da gestão de desinformação. Afinal, todos nós merecemos saber o que é verdade e o que é, bem, só uma história exagerada!
Título: ICPR 2024 Competition on Multilingual Claim-Span Identification
Resumo: A lot of claims are made in social media posts, which may contain misinformation or fake news. Hence, it is crucial to identify claims as a first step towards claim verification. Given the huge number of social media posts, the task of identifying claims needs to be automated. This competition deals with the task of 'Claim Span Identification' in which, given a text, parts / spans that correspond to claims are to be identified. This task is more challenging than the traditional binary classification of text into claim or not-claim, and requires state-of-the-art methods in Pattern Recognition, Natural Language Processing and Machine Learning. For this competition, we used a newly developed dataset called HECSI containing about 8K posts in English and about 8K posts in Hindi with claim-spans marked by human annotators. This paper gives an overview of the competition, and the solutions developed by the participating teams.
Autores: Soham Poddar, Biswajit Paul, Moumita Basu, Saptarshi Ghosh
Última atualização: 2024-11-29 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2411.19579
Fonte PDF: https://arxiv.org/pdf/2411.19579
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://sites.google.com/view/icpr24-csi/home
- https://icpr2024.org/
- https://sohampoddar26.github.io/
- https://amitykolkata.irins.org/profile/376094
- https://cse.iitkgp.ac.in/
- https://sites.google.com/view/aisome/aisome
- https://sites.google.com/view/irmidis-fire2022/irmidis
- https://www.cogitotech.com/
- https://github.com/sohampoddar26/hecsi-data
- https://scikit-learn.org/stable/modules/generated/sklearn.metrics.f1
- https://scikit-learn.org/stable/modules/generated/sklearn.metrics.jaccard