Simple Science

Ciência de ponta explicada de forma simples

# Informática# Interação Homem-Computador

Como o Treinamento por Prompt Molda o Resultado Jornalístico

Investigando o impacto do treinamento de prompts no uso de LLMs pelos jornalistas.

Amirsiavosh Bashardoust, Yuanjun Feng, Dominique Geissler, Stefan Feuerriegel, Yash Raj Shrestha

― 8 min ler


O Impacto do TreinamentoO Impacto do Treinamentode Prompt no Jornalismocom IA.influencia as práticas jornalísticasAvaliando como o treinamento de prompt
Índice

Recentemente, os grandes modelos de linguagem (LLMs) viraram ferramentas essenciais para muitos profissionais, incluindo jornalistas, que os usam pra agilizar a escrita e melhorar a produtividade. Mas a eficácia dessas ferramentas muitas vezes depende de como os usuários interagem com elas, principalmente na hora de formular seus pedidos ou comandos. Este artigo vai falar de um estudo que investigou se treinar na criação de melhores comandos pode melhorar a experiência e a qualidade do trabalho dos jornalistas que usam LLMs.

Importância da Qualidade dos Comandos

A qualidade do que os LLMs produzem é muito influenciada por quão bem os usuários formulam seus comandos. Por exemplo, comandos vagos ou mal estruturados podem resultar em respostas confusas ou irrelevantes. Isso significa que aprender a escrever comandos eficazes é crucial pra quem quer bons resultados desses sistemas de IA. Para os jornalistas, que precisam criar conteúdo envolvente e preciso, esse desafio é ainda mais relevante.

Treinar na criação de comandos eficazes-geralmente chamado de Engenharia de Prompts-tá cada vez mais sendo visto como uma habilidade necessária pra qualquer profissional que use LLMs. Com esse treinamento, os usuários aprendem sobre os pontos fortes e fracos dos LLMs e como se comunicar melhor com eles pra alcançar resultados precisos e relevantes. Várias técnicas podem ser ensinadas durante esse treinamento, como usar raciocínio passo a passo ou escrever comandos que pedem pra IA assumir certos papéis.

Objetivo do Estudo

A pesquisa tinha como objetivo responder se o treinamento em engenharia de comandos pode melhorar a experiência dos jornalistas usando LLMs e aumentar a qualidade da escrita deles. Pra isso, foi feito um experimento de campo envolvendo jornalistas que foram convidados a fazer postagens curtas antes e depois de passar pelo treinamento em engenharia de comandos. O estudo analisou três fatores principais: a Experiência do Usuário dos jornalistas ao usar LLMs, a Precisão da escrita avaliada por um especialista e como leitores comuns perceberam a qualidade do texto.

Por Que Jornalistas?

Os jornalistas foram escolhidos pra esse estudo porque o trabalho deles muitas vezes envolve resolver problemas complexos e a habilidade de se comunicar de forma eficaz. Além disso, a rápida ascensão da IA no jornalismo torna crucial que os jornalistas aprendam a aproveitar essas tecnologias pra seu trabalho. À medida que o cenário da mídia muda, entender como trabalhar com ferramentas de IA como LLMs se torna essencial pra continuar relevante na indústria.

Processo e Design do Estudo

O estudo envolveu 37 jornalistas, mas apenas 29 completaram as tarefas exigidas. Inicialmente, os participantes foram divididos em dois grupos, ambos com a missão de escrever postagens usando um LLM. Depois de completar essas tarefas, eles passaram por uma sessão de treinamento onde aprenderam estratégias eficazes de formulação de comandos. Seguindo o treinamento, eles repetiram as tarefas de escrita focando em aplicar o que haviam aprendido.

Conteúdo do Treinamento

O treinamento em engenharia de comandos durou duas horas e incluiu tanto exercícios práticos quanto discussões teóricas. Os jornalistas foram apresentados a várias técnicas pra escrever comandos de forma eficaz. O treinamento abordou conceitos essenciais, diferentes técnicas de criação de comandos e considerações éticas sobre o uso de IA na criação de conteúdo.

Medindo Resultados

Depois do treinamento, o estudo avaliou mudanças em três áreas principais:

  1. Experiência do Usuário: Os participantes relataram sua percepção de expertise e a utilidade dos LLMs para suas tarefas de escrita antes e depois do treinamento.

  2. Precisão: Um especialista avaliou a precisão das postagens criadas pelos jornalistas, focando em erros factuais ou de representação e na profundidade da informação incluída.

  3. Percepção do Leitor: Leitores não especialistas avaliaram as postagens com base em aspectos de qualidade, como clareza, engajamento e se a escrita era adequada pro público-alvo.

Resultados da Experiência do Usuário

Os resultados mostraram que, em média, os jornalistas se sentiram mais confiantes nas suas habilidades usando LLMs após o treinamento, indicando um aumento na percepção de expertise. Porém, curiosamente, a avaliação deles sobre quão úteis os LLMs eram pra suas tarefas de escrita diminuiu após o treinamento. Muitos jornalistas expressaram frustrações com a qualidade estilística das produções que receberam dos LLMs, sentindo que muitas vezes precisavam de revisões extensas pra atender aos seus padrões.

Esses sentimentos mistos sobre a percepção de utilidade sugerem que, enquanto o treinamento aumentou a confiança, ele também destacou as limitações dos LLMs em produzir conteúdo de qualidade jornalística. Os jornalistas notaram que as saídas dos LLMs às vezes pareciam básicas ou sem criatividade, o que poderia afetar sua disposição de confiar nessas ferramentas no futuro.

Avaliação de Precisão

Em termos de precisão do conteúdo, os resultados mostraram um impacto variado com base nas tarefas de escrita específicas. Para um dos artigos, as postagens criadas após o treinamento apresentaram menos erros factuais, enquanto o outro artigo viu um aumento nas imprecisões. Essas descobertas sugerem que a complexidade do conteúdo abordado pode afetar significativamente como o treinamento se traduz em resultados melhorados.

Avaliação da Percepção do Leitor

Quando leitores não especialistas avaliaram o texto produzido pelos jornalistas, os resultados também foram mistos. Algumas áreas mostraram melhora, como a forma como a escrita se alinhou às expectativas do público-alvo e a profundidade da informação. Contudo, outros aspectos, como a informatidade geral, decaíram levemente após o treinamento.

Isso indica que, embora o treinamento em engenharia de comandos possa ajudar em áreas específicas, ele pode não aprimorar universalmente todas as dimensões da qualidade da escrita na perspectiva do público-alvo.

A Importância da Diversidade nas Produções

Um aspecto interessante do estudo analisou a diversidade dos textos produzidos pelos jornalistas após o treinamento. A análise revelou que alguns participantes geraram conteúdos mais variados em estilo e substância, sugerindo que estratégias eficazes de comando podem ajudar a fomentar maior criatividade e engajamento em suas produções.

Em contrapartida, a escrita de outros participantes se tornou mais semelhante, limitando potencialmente a diversidade de pontos de vista e estilos em suas postagens. Isso destaca a necessidade de os jornalistas não apenas aprenderem a usar LLMs de forma eficaz, mas também aplicarem estratégias que incentivem originalidade e perspectivas únicas em sua escrita.

Conclusão e Implicações

O estudo mostra que, embora o treinamento em engenharia de comandos possa aumentar a confiança e a expertise dos jornalistas ao usar LLMs, ele também pode levar a percepções misturadas sobre a qualidade do que essas ferramentas geram. Os jornalistas relataram tanto um aumento na autoconfiança em suas habilidades quanto uma diminuição na satisfação com a utilidade dos LLMs, especialmente no que diz respeito à qualidade estilística.

À medida que a IA continua a desempenhar um papel maior no jornalismo, é crucial que os jornalistas adaptem suas habilidades e expectativas pra trabalhar efetivamente com essas tecnologias. As descobertas sugerem que futuros Treinamentos não devem apenas focar em como criar comandos eficazes, mas também abordar o contexto mais amplo das limitações da IA e como manter um alto nível de originalidade e engajamento na criação de conteúdo.

Avançando

A integração dos LLMs no jornalismo abre novas possibilidades, mas também apresenta desafios. À medida que os jornalistas se familiarizam com essas ferramentas, treinamento e suporte contínuos serão essenciais pra ajudá-los a navegar no cenário em evolução da criação de mídias. Enfatizar a colaboração entre jornalistas e desenvolvedores de IA pode levar a ferramentas melhores que se alinhem mais às necessidades e padrões específicos do jornalismo.

Com a avaliação contínua dos programas de treinamento e ferramentas, o objetivo final deve ser aproveitar os pontos fortes da IA enquanto preserva o essencial elemento humano no jornalismo-criatividade, visão e autenticidade. Ao entender e se ajustar ao potencial da IA, os jornalistas podem aprimorar seu trabalho e se adaptar ao futuro da mídia de uma forma que continue sendo informativa, envolvente e confiável.

Fonte original

Título: The Effect of Education in Prompt Engineering: Evidence from Journalists

Resumo: Large language models (LLMs) are increasingly used in daily work. In this paper, we analyze whether training in prompt engineering can improve the interactions of users with LLMs. For this, we conducted a field experiment where we asked journalists to write short texts before and after training in prompt engineering. We then analyzed the effect of training on three dimensions: (1) the user experience of journalists when interacting with LLMs, (2) the accuracy of the texts (assessed by a domain expert), and (3) the reader perception, such as clarity, engagement, and other text quality dimensions (assessed by non-expert readers). Our results show: (1) Our training improved the perceived expertise of journalists but also decreased the perceived helpfulness of LLM use. (2) The effect on accuracy varied by the difficulty of the task. (3) There is a mixed impact of training on reader perception across different text quality dimensions.

Autores: Amirsiavosh Bashardoust, Yuanjun Feng, Dominique Geissler, Stefan Feuerriegel, Yash Raj Shrestha

Última atualização: 2024-09-18 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2409.12320

Fonte PDF: https://arxiv.org/pdf/2409.12320

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes