Avaliação das Respostas de IA a Tópicos Controversos
Uma análise das respostas dos chatbots revela insights e riscos em discussões polarizadas.
― 5 min ler
Índice
ChatGPT e Bard são chatbots novos que usam tecnologia avançada pra gerar texto. Eles podem ajudar com várias tarefas, como escrever redações, responder perguntas e resumir informações. Mas, tem preocupações sobre a precisão deles. Às vezes, eles dão informações convincentes, mas erradas, que chamam de alucinação. Isso pode gerar Desinformação e afetar como a galera vê certos assuntos.
Análise
A Necessidade deÉ importante que usuários e reguladores saibam como esses chatbots respondem a tópicos polêmicos, que são assuntos que podem causar discordâncias fortes. Entender quais tópicos geram discussões acaloradas pode ajudar a guiar políticas sobre como usar esses bots. No momento, não tem um conjunto de dados que mostre claramente como ChatGPT e Bard respondem a essas perguntas polêmicas. Pra preencher essa lacuna, uma pesquisa foi feita pra coletar dados sobre as Respostas deles.
Criando um Conjunto de Dados
Pra estudar como ChatGPT e Bard respondem a tópicos Controversos nos Estados Unidos, foi criado um conjunto de dados. Os pesquisadores focaram em temas que podem gerar opiniões fortes, como controle de armas, reforma da imigração e aborto. Eles consultaram especialistas em polarização política pra fazer uma lista desses tópicos. Depois de discutir as descobertas, eles decidiram por uma lista final de doze tópicos principais pra estudar.
Aí eles foram pro Quora, uma plataforma popular de perguntas e respostas, pra coletar perguntas relevantes pra cada tópico. Um grupo de especialistas revisou 200 perguntas pra cada tópico pra garantir que eram relevantes, totalizando 2400 perguntas.
Analisando Respostas
Usando ChatGPT Plus e Bard, os pesquisadores coletaram respostas pras perguntas selecionadas. As respostas foram analisadas pra comparar como cada chatbot lidou com os temas. Eles perceberam que ambos os chatbots deram textos de comprimento semelhante nas respostas.
O ChatGPT geralmente começava suas respostas com um aviso, dizendo que não tem crenças pessoais. Por exemplo, quando perguntaram sobre aborto, ele deu uma resposta equilibrada, destacando diferentes pontos de vista. Em alguns casos, porém, suas respostas tendiam mais pra perspectivas liberais.
Já o Bard não deu esses avisos e forneceu respostas mais diretas. Quando perguntado sobre renda básica universal, o Bard disse que era uma ideia interessante, mas também apontou os desafios que vêm com isso. Essa abordagem pode fazer os usuários sentirem que as respostas do Bard são mais confiantes em comparação com as do ChatGPT.
Respostas a Perguntas Específicas
A análise incluiu exemplos específicos de como cada chatbot respondeu a perguntas sobre tópicos polêmicos. Nas perguntas sobre brutalidade policial, o Bard deu uma resposta detalhada, discutindo as razões por trás da falta de responsabilização dos policiais. Em contraste, quando perguntaram sobre os aspectos históricos do racismo na polícia, o Bard deu uma resposta genérica, o que foi inesperado dado a seriedade da pergunta.
O ChatGPT, por outro lado, geralmente apresentava pontos de vista mais equilibrados sobre assuntos controversos, mesmo que algumas de suas respostas parecessem genéricas. Pra certos tópicos, ele tendia a repetir frases tipo "Como um modelo de linguagem AI", o que alguns usuários podem achar pouco útil.
Temas Comuns nas Respostas
Ambos os chatbots mostraram uma tendência a favorecer visões progressistas ou de esquerda sobre questões polêmicas. O estudo destacou que, embora o Bard às vezes fornecesse respostas mais abrangentes, sua disposição de se aprofundar em perguntas controversas levantou preocupações sobre a potencial disseminação de desinformação.
Por exemplo, ao discutir mudanças climáticas, o ChatGPT mencionou várias perspectivas antes de sugerir soluções, enquanto o Bard foi direto pras ações potenciais sem reconhecer visões opostas. Essa diferença indica que o ChatGPT pode ser mais cauteloso, enquanto o Bard pode oferecer recomendações mais assertivas.
Implicações das Descobertas
As descobertas da análise mostram que ChatGPT e Bard podem ter papéis cruciais em conversas sobre tópicos sensíveis. No entanto, há riscos associados ao uso deles, especialmente se os usuários confiarem apenas nas respostas sem verificar as informações. Existe uma necessidade urgente de que partes interessadas, como empresas de tecnologia e reguladores, implementem medidas pra garantir que esses chatbots forneçam informações precisas.
Uma possível solução é desenvolver materiais educacionais que informem os usuários sobre as limitações dessas ferramentas de IA. Vídeos explicando como os chatbots funcionam e a importância de checar informações poderiam ser úteis. Além disso, criar versões distintas dos chatbots voltadas pra discussões sérias poderia ajudar a manter um equilíbrio nas informações fornecidas.
Direções para Pesquisas Futuras
Dadas as descobertas, mais pesquisas são necessárias pra mergulhar mais fundo nas respostas de modelos mais novos, como o GPT-4, e compará-los com versões anteriores. Além disso, poderiam ter mais estudos sobre como esses chatbots funcionam em diferentes idiomas e contextos culturais.
Outra área pra explorar no futuro poderia incluir respostas de outros grandes sistemas de chatbot, o que daria uma perspectiva mais ampla sobre a questão da polarização na IA. Ao analisar e atualizar continuamente os conjuntos de dados, os pesquisadores podem entender melhor o cenário das informações geradas por IA e seu impacto na sociedade.
Conclusão
Resumindo, enquanto ChatGPT e Bard oferecem ferramentas úteis pra informação e comunicação, suas respostas a tópicos polêmicos destacam a necessidade de gerenciamento e compreensão cuidadosos. Reconhecendo suas forças e fraquezas, os usuários podem se tornar consumidores mais informados e críticos do conteúdo gerado pela IA. Daqui pra frente, é essencial implementar estratégias que garantam que essas tecnologias sirvam ao interesse público sem contribuir pra desinformação ou aumentar divisões na sociedade.
Título: ChatGPT and Bard Responses to Polarizing Questions
Resumo: Recent developments in natural language processing have demonstrated the potential of large language models (LLMs) to improve a range of educational and learning outcomes. Of recent chatbots based on LLMs, ChatGPT and Bard have made it clear that artificial intelligence (AI) technology will have significant implications on the way we obtain and search for information. However, these tools sometimes produce text that is convincing, but often incorrect, known as hallucinations. As such, their use can distort scientific facts and spread misinformation. To counter polarizing responses on these tools, it is critical to provide an overview of such responses so stakeholders can determine which topics tend to produce more contentious responses -- key to developing targeted regulatory policy and interventions. In addition, there currently exists no annotated dataset of ChatGPT and Bard responses around possibly polarizing topics, central to the above aims. We address the indicated issues through the following contribution: Focusing on highly polarizing topics in the US, we created and described a dataset of ChatGPT and Bard responses. Broadly, our results indicated a left-leaning bias for both ChatGPT and Bard, with Bard more likely to provide responses around polarizing topics. Bard seemed to have fewer guardrails around controversial topics, and appeared more willing to provide comprehensive, and somewhat human-like responses. Bard may thus be more likely abused by malicious actors. Stakeholders may utilize our findings to mitigate misinformative and/or polarizing responses from LLMs
Autores: Abhay Goyal, Muhammad Siddique, Nimay Parekh, Zach Schwitzky, Clara Broekaert, Connor Michelotti, Allie Wong, Lam Yin Cheung, Robin O Hanlon, Munmun De Choudhury, Roy Ka-Wei Lee, Navin Kumar
Última atualização: 2023-07-13 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2307.12402
Fonte PDF: https://arxiv.org/pdf/2307.12402
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.