Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Mensch-Computer-Interaktion

Wie Prompt-Training journalistische Ergebnisse beeinflusst

Untersuchung der Auswirkungen von Prompt-Training auf die Nutzung von LLMs durch Journalisten.

Amirsiavosh Bashardoust, Yuanjun Feng, Dominique Geissler, Stefan Feuerriegel, Yash Raj Shrestha

― 7 min Lesedauer


Der Einfluss vonDer Einfluss vonPrompt-Training auf denJournalismusbeeinflusst.journalistische Praktiken mit KIEvaluierung, wie Prompt-Training
Inhaltsverzeichnis

In letzter Zeit sind grosse Sprachmodelle (LLMs) für viele Arbeitnehmer, einschliesslich Journalisten, zu unverzichtbaren Werkzeugen geworden, die ihnen helfen, das Schreiben zu optimieren und die Produktivität zu steigern. Die Effektivität dieser Tools hängt jedoch oft davon ab, wie die Nutzer mit ihnen interagieren, insbesondere wie sie ihre Anfragen oder Eingabeaufforderungen formulieren. Dieser Artikel behandelt eine Studie, die untersucht hat, ob Schulungen in der Erstellung besserer Eingabeaufforderungen die Erfahrung und die Qualität der Ergebnisse für Journalisten, die mit LLMs arbeiten, verbessern können.

Bedeutung der Eingabeaufforderungsqualität

Die Qualität der von LLMs erzeugten Ausgaben wird stark davon beeinflusst, wie effektiv Nutzer ihre Eingaben formulieren. Zum Beispiel können vage oder schlecht strukturierte Eingaben zu unklaren oder irrelevanten Antworten führen. Das bedeutet, dass es entscheidend ist, zu lernen, wie man effektive Eingabeaufforderungen schreibt, wenn man gute Ergebnisse von diesen KI-Systemen haben möchte. Für Journalisten, die ansprechende und genaue Inhalte erstellen müssen, wird diese Herausforderung besonders bedeutend.

Das Training zur Erstellung effektiver Eingabeaufforderungen – oft als Prompt-Engineering bezeichnet – wird zunehmend als notwendige Fähigkeit für alle Fachleute anerkannt, die LLMs nutzen. Durch dieses Training lernen die Nutzer die Stärken und Schwächen der LLMs kennen und wie sie am besten mit diesen kommunizieren, um präzise und relevante Ergebnisse zu erzielen. Verschiedene Techniken können während dieses Trainings vermittelt werden, wie zum Beispiel die Verwendung von Schritt-für-Schritt-Argumentation oder das Schreiben von Eingabeaufforderungen, die die KI dazu auffordern, bestimmte Rollen zu übernehmen.

Ziel der Studie

Diese Forschung hatte zum Ziel zu klären, ob ein Training in Prompt-Engineering die Erfahrung von Journalisten, die mit LLMs arbeiten, verbessern und die Qualität ihrer Schreiben steigern kann. Dazu wurde ein Feldeexperiment durchgeführt, bei dem Journalisten gebeten wurden, kurze Textbeiträge vor und nach der Schulung im Prompt-Engineering zu erstellen. Die Studie betrachtete drei Hauptfaktoren: die Nutzererfahrung der Journalisten bei der Verwendung von LLMs, die Genauigkeit ihrer Texte, bewertet von einem Experten, und wie durchschnittliche Leser die Qualität des Textes wahrnahmen.

Warum Journalisten?

Journalisten wurden für diese Studie ausgesucht, weil ihre Arbeit oft komplexe Problemlösungen und die Fähigkeit zur effektiven Kommunikation erfordert. Zudem bedeutet der rasante Anstieg von KI im Journalismus, dass es für Journalisten entscheidend ist, zu lernen, wie sie diese Technologien für ihre Arbeit nutzen können. Da sich die Medienlandschaft verändert, wird es unerlässlich, zu verstehen, wie man mit KI-Tools wie LLMs arbeitet, um in der Branche relevant zu bleiben.

Studienprozess und Design

Die Studie umfasste 37 Journalisten, aber nur 29 erledigten die erforderlichen Aufgaben. Zunächst wurden die Teilnehmer in zwei Gruppen aufgeteilt, die beide damit beauftragt wurden, Beiträge mit einem LLM zu schreiben. Nachdem sie diese Aufgaben abgeschlossen hatten, durchliefen sie eine Schulung, in der sie effektive Strategien zur Eingabeaufforderung erlernten. Nach dem Training wiederholten sie die Schreibaufgaben mit dem Fokus, das Gelernte anzuwenden.

Schulungsinhalt

Das Training im Prompt-Engineering dauerte zwei Stunden und umfasste sowohl praktische Übungen als auch theoretische Diskussionen. Journalisten wurden mit verschiedenen Techniken vertraut gemacht, um Eingabeaufforderungen effektiv zu schreiben. Das Training deckte wesentliche Konzepte, verschiedene Techniken zur Erstellung von Eingaben ab und behandelte ethische Überlegungen zum Einsatz von KI bei der Inhaltserstellung.

Messung der Ergebnisse

Nach dem Training bewertete die Studie Veränderungen in drei Schlüsselbereichen:

  1. Nutzererfahrung: Die Teilnehmer berichteten von ihrem wahrgenommenen Fachwissen und der Nützlichkeit von LLMs für ihre Schreibaufgaben sowohl vor als auch nach dem Training.

  2. Genauigkeit: Ein Experte bewertete die Genauigkeit der von Journalisten erstellten Beiträge, wobei er sich auf faktische oder darstellende Fehler sowie die Informationsdichte konzentrierte.

  3. Leserwahrnehmung: Leser ohne Fachwissen bewerteten die Beiträge anhand von Qualitätsaspekten wie Klarheit, Engagement und ob das Schreiben für das beabsichtigte Publikum geeignet war.

Ergebnisse zur Nutzererfahrung

Die Ergebnisse zeigten, dass Journalisten im Durchschnitt nach dem Training mehr Vertrauen in ihre Fähigkeiten im Umgang mit LLMs fühlten, was auf ein höheres wahrgenommenes Fachwissen hinweist. Interessanterweise sank jedoch ihr Eindruck, wie hilfreich LLMs für ihre Schreibaufgaben waren, nach dem Training. Viele Journalisten äusserten Frustrationen über die stilistische Qualität der Ausgaben, die sie erhielten, und fühlten, dass diese oft umfangreiche Überarbeitungen benötigten, um ihren Standards zu entsprechen.

Diese gemischten Gefühle zur wahrgenommenen Hilfsbereitschaft deuten darauf hin, dass das Training das Vertrauen erhöhte, gleichzeitig aber auch die Grenzen von LLMs bei der Erzeugung von ausgefeiltem, journalistischem Inhalt hervorhob. Journalisten merkten an, dass die Ausgaben von LLMs manchmal einfach oder wenig kreativ wirkten, was ihre Bereitschaft beeinträchtigen könnte, in Zukunft auf diese Tools zu vertrauen.

Genauigkeitsbewertung

In Bezug auf die inhaltliche Genauigkeit zeigten die Ergebnisse eine unterschiedliche Wirkung, je nach spezifischen Schreibaufgaben. Für einen der Artikel zeigten die nach dem Training erstellten Beiträge weniger faktische Fehler, während der andere Artikel einen Anstieg von Ungenauigkeiten verzeichnete. Diese Ergebnisse deuten darauf hin, dass die Komplexität der behandelten Inhalte erheblichen Einfluss darauf haben kann, wie gut das Training in verbesserte Ergebnisse umsetzt.

Bewertung der Leserwahrnehmung

Als nicht-expertische Leser die von Journalisten produzierten Texte bewerteten, waren die Ergebnisse ähnlich gemischt. Einige Bereiche zeigten Verbesserungen, wie gut das Schreiben den Erwartungen des Zielpublikums entsprach und die Informationsdichte. Andere Aspekte, wie die allgemeine Informationsdichte, nahmen jedoch nach dem Training leicht ab.

Dies zeigt an, dass, während das Training im Prompt-Engineering in bestimmten Bereichen helfen kann, es nicht universell alle Dimensionen der Schreibqualität aus der Perspektive des beabsichtigten Publikums verbessern kann.

Die Bedeutung der Vielfalt in den Ausgaben

Ein interessanter Aspekt der Studie war die Vielfalt der von Journalisten nach dem Training produzierten Texte. Die Analyse ergab, dass einige Teilnehmer Inhalte produzierten, die stilistisch und inhaltlich vielfältiger waren, was darauf hindeutet, dass effektive Eingabeaufforderungsstrategien dazu beitragen können, grössere Kreativität und Engagement in ihren Ausgaben zu fördern.

Im Gegensatz dazu wurde das Schreiben anderer Teilnehmer ähnlicher, was die Vielfalt der Perspektiven und Stile in ihren Beiträgen potenziell einschränken könnte. Das hebt hervor, wie wichtig es für Journalisten ist, nicht nur zu lernen, wie man LLMs effektiv nutzt, sondern auch Strategien anzuwenden, die Originalität und einzigartige Perspektiven in ihrem Schreiben fördern.

Fazit und Implikationen

Die Studie zeigt, dass das Training im Prompt-Engineering das Vertrauen und die Expertise von Journalisten im Umgang mit LLMs steigern kann, gleichzeitig aber auch zu gemischten Wahrnehmungen über die Qualität der von diesen Tools erzeugten Ausgaben führt. Journalisten berichteten sowohl von einem gesteigerten Selbstbewusstsein in ihren Fähigkeiten als auch von einer geringeren Zufriedenheit mit der Nützlichkeit von LLMs, insbesondere in Bezug auf die stilistische Qualität.

Da KI eine immer grössere Rolle im Journalismus spielt, ist es entscheidend, dass Journalisten ihre Fähigkeiten und Erwartungen anpassen, um effektiv mit diesen Technologien arbeiten zu können. Die Ergebnisse deuten darauf hin, dass zukünftige Schulungen nicht nur darauf fokussiert sein sollten, wie effektive Eingaben erstellt werden, sondern auch den breiteren Kontext der KI-Grenzen und wie man ein starkes Mass an Originalität und Engagement in der Inhaltserstellung aufrechterhalten kann.

Ausblick

Die Integration von LLMs in den Journalismus eröffnet neue Möglichkeiten, bringt aber auch Herausforderungen mit sich. Während Journalisten sich mit diesen Tools vertraut machen, wird kontinuierliche Schulung und Unterstützung unerlässlich sein, um ihnen zu helfen, sich in der sich entwickelnden Medienlandschaft zurechtzufinden. Eine Betonung der Zusammenarbeit zwischen Journalisten und KI-Entwicklern könnte zu verbesserten Tools führen, die besser auf die spezifischen Bedürfnisse und Standards des Journalismus abgestimmt sind.

Mit fortlaufender Bewertung von Schulungsprogrammen und -tools sollte das ultimative Ziel darin bestehen, die Stärken von KI zu nutzen und gleichzeitig das wesentliche menschliche Element im Journalismus – Kreativität, Einsicht und Authentizität – zu bewahren. Durch das Verständnis und die Anpassung an das Potenzial von KI können Journalisten ihr Handwerk verbessern und sich zukunftsorientiert in einer Weise anpassen, die informativ, ansprechend und vertrauenswürdig bleibt.

Originalquelle

Titel: The Effect of Education in Prompt Engineering: Evidence from Journalists

Zusammenfassung: Large language models (LLMs) are increasingly used in daily work. In this paper, we analyze whether training in prompt engineering can improve the interactions of users with LLMs. For this, we conducted a field experiment where we asked journalists to write short texts before and after training in prompt engineering. We then analyzed the effect of training on three dimensions: (1) the user experience of journalists when interacting with LLMs, (2) the accuracy of the texts (assessed by a domain expert), and (3) the reader perception, such as clarity, engagement, and other text quality dimensions (assessed by non-expert readers). Our results show: (1) Our training improved the perceived expertise of journalists but also decreased the perceived helpfulness of LLM use. (2) The effect on accuracy varied by the difficulty of the task. (3) There is a mixed impact of training on reader perception across different text quality dimensions.

Autoren: Amirsiavosh Bashardoust, Yuanjun Feng, Dominique Geissler, Stefan Feuerriegel, Yash Raj Shrestha

Letzte Aktualisierung: 2024-09-18 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2409.12320

Quell-PDF: https://arxiv.org/pdf/2409.12320

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel