Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Maschinelles Lernen# Künstliche Intelligenz

Online Gefahren erkennen: Ein neuer Ansatz

Sprachmuster analysieren, um schlechte Inhalte in sozialen Medien zu erkennen.

― 8 min Lesedauer


Gefährliche Sprache inGefährliche Sprache insozialen Medienonline verbreitet wird.Untersuchen, wie negativer Content
Inhaltsverzeichnis

Online-Hassgemeinschaften wachsen und ändern sich schnell. Zu verstehen, wie diese Gruppen kommunizieren, ist super wichtig, besonders wenn's darum geht, schädliche Sprache zu erkennen. In diesem Artikel schauen wir uns an, wie wir negative Inhalte in Social-Media-Posts identifizieren und messen können. Wir konzentrieren uns auf Texte, die über Gefahren sprechen, ein Begriff, der alles bedeutet, was gefährlich oder schädlich sein könnte, und wie negative Informationen online verbreitet werden.

Die Bedeutung von Gefahren in der Sprache

Menschen haben sich so entwickelt, dass sie negative Informationen mehr Aufmerksamkeit schenken. Das nennt man Negativitätsbias. Wenn Leute etwas Negatives sehen oder hören, reagieren sie oft stärker als auf etwas Positives. Wenn zum Beispiel jemand von einem gefährlichen Ereignis hört, ist die Wahrscheinlichkeit grösser, dass er es teilt, als wenn es um etwas Gutes geht. Diese Tendenz ist nützlich fürs Überleben, weil sie den Menschen hilft, potenzielle Bedrohungen zu erkennen.

Neuere Studien haben gezeigt, dass Menschen negative Informationen leichter glauben als positive. Diese Idee nennt man negativitätsverzerrte Glaubwürdigkeit. Das bedeutet, dass Leute eher Aussagen glauben, die vor Gefahren warnen. Das gilt besonders im politischen Kontext, wo Menschen mit unterschiedlichen politischen Überzeugungen unterschiedlich auf Gefahreninformationen reagieren. Konservative zum Beispiel neigen oft mehr dazu, auf Gefahreninformationen zu achten als Liberale.

In unserer Untersuchung schauen wir uns an, wie diese Gefahren-Sprache in sozialen Medien und Legenden vorkommt, besonders bei Posts von Twitter, jetzt X genannt. Die Analyse dieser Posts hilft uns, Trends in der Kommunikation über Gefahren zu verstehen, besonders während bedeutender Ereignisse.

Entwicklung des Gefahren-Erkennungsmodells

Um Posts über Gefahren zu analysieren, haben wir ein Modell entwickelt, das Gefahren-Sprache erkennt. Wir haben dieses Modell mit einer Mischung aus Social-Media-Posts und urbanen Legenden trainiert. Urbane Legenden sind Geschichten, die weit verbreitet, aber oft unwahr sind und häufig Elemente von Gefahr oder Risiko enthalten, was sie ideal für unsere Forschung macht.

Das Modell analysiert die in den Posts verwendeten Wörter und entscheidet, ob sie eine Gefahr beschreiben. Indem wir Tweets zu Ereignissen wie der COVID-19-Pandemie und dem Konflikt zwischen Hamas und Israel betrachten, sehen wir, wie Menschen auf Krisen reagieren und welche Sprache sie verwenden, um ihre Ängste oder Bedenken auszudrücken.

Datensammlung und Annotation

Wir haben Posts von X basierend auf bestimmten Keywords gesammelt, die mit Gefahren zu tun haben, wie „Gefahr“, „Risiko“ oder „Bedrohung“. Wir haben auch urbane Legenden von Websites abgerufen, die solche Geschichten katalogisieren. Für die Social-Media-Posts haben wir Arbeiter gebeten, sie zu lesen und zu labeln, um festzustellen, ob der Text eine Gefahr beschreibt.

Jeder Post wurde von mehreren Annotatoren geprüft, um die Genauigkeit sicherzustellen, und ein finales Label wurde basierend auf der Mehrheitsmeinung vergeben. Dieser Ansatz hilft, einen zuverlässigen Datensatz für das Training unseres Gefahren-Erkennungsmodells zu erstellen.

Modelltraining und Performance

Für unser Modell haben wir verschiedene Maschinenlerntechniken verwendet, um Gefahren im Text zu identifizieren. Wir haben verschiedene Algorithmen getestet und festgestellt, dass ein Support Vector Machine (SVM) Modell die besten Ergebnisse erzielt hat. Es konnte Gefahren in Social-Media-Posts genauer klassifizieren als andere Modelle.

Wir haben auch die Leistung unseres Modells mit der von beliebten Sprachmodellen wie GPT-3.5 und GPT-4 verglichen, die dafür bekannt sind, Text zu verstehen und zu generieren. Während diese Modelle in vielen Bereichen stark sind, hat sich unser spezialisiertes Modell als effektiver erwiesen, um gezielt Gefahren zu identifizieren.

Wichtige Erkenntnisse aus der sozialen Medienanalyse

Nach dem Training unseres Modells haben wir es auf verschiedene Datensätze angewendet. Dabei haben wir interessante Trends in der Sprache rund um Gefahren entdeckt.

Unterschiede in der Gefahren-Sprache über die Zeit

Eine der wichtigsten Erkenntnisse war, dass die Erwähnungen von Gefahren während grosser Ereignisse anstiegen. Zum Beispiel während der COVID-19-Pandemie und dem Konflikt zwischen Hamas und Israel wurde die Sprache zu Gefahren prominenter. Das deutet darauf hin, dass bestimmte Ereignisse ein höheres Bewusstsein und eine stärkere Reaktion auf potenzielle Gefahren auslösen.

Politische Unterschiede in der Diskussion über Gefahren

Wir haben auch auffällige Unterschiede entdeckt, wie verschiedene politische Gruppen über Gefahren sprechen. Unsere Analyse zeigte, dass konservative Nutzer Gefahren häufiger diskutierten als liberale Nutzer. Das passt zum Negativitätsbias und deutet darauf hin, dass Konservative in ihren Posts stärker auf Bedrohungen reagieren.

Ausserdem unterschieden sich die verwendeten Worte jeder Gruppe, wobei Konservative bestimmte Themen wie Proteste als Gefahren bezeichneten, während Liberale ähnliche Themen oft aus einem anderen Blickwinkel betrachteten.

Die Beziehung zwischen Gefahren und Emotionen

Ein weiterer interessanter Aspekt unserer Erkenntnisse ist die Verbindung zwischen Gefahren-Sprache und emotionalen Indikatoren. Wir haben festgestellt, dass Posts mit Gefahren-Sprache oft mit Gefühlen von Angst und Wut korrelierten. Im Gegensatz dazu waren positive Emotionen wie Freude weniger mit Gefahren-Sprache verbunden.

Diese Korrelation deutet darauf hin, dass Menschen, wenn sie über Bedrohungen sprechen, dies oft mit einer starken emotionalen Aufladung tun, was die Verbreitung solcher Informationen weiter verstärkt.

Urbane Legenden und ihre Verbindung zu Gefahren

Neben der Analyse von Social-Media-Posts haben wir uns auch urbane Legenden angeschaut. Unsere Ergebnisse zeigten, dass urbane Legenden häufig Bezug auf Gefahren enthalten. Diese Geschichten verstärken oft Ängste und Bedenken und sind ein starkes Mittel zur Verbreitung negativer Informationen.

Interessanterweise fanden wir heraus, dass urbane Legenden mit Gefahreninhalt eher geglaubt und geteilt werden. Das spiegelt die Idee wider, dass Geschichten, die vor Gefahren warnen, bei den Menschen stärker ankommen, was sie dazu bringt, solche Erzählungen zu vertrauen und weiterzugeben.

Auswirkungen auf die Online-Kommunikation

Zu verstehen, wie Gefahren-Sprache online verbreitet wird, ist aus mehreren Gründen wichtig. Erstens kann es Einzelpersonen und Organisationen helfen, bessere Strategien zur Bekämpfung von Fehlinformationen zu entwickeln. Indem wir Muster erkennen, wie über Gefahren gesprochen wird, wird es einfacher, schädliche Narrative zu konterkarieren.

Darüber hinaus kann das Erkennen des emotionalen Gewichts von Gefahren-Sprache öffentliche Gesundheitskampagnen und Kommunikationsstrategien informieren. Zum Beispiel kann das Formulieren von Nachrichten über potenzielle Risiken während einer Gesundheitskrise stärkere Reaktionen hervorrufen und die Menschen dazu anregen, aktiv zu werden.

Herausforderungen bei der Gefahren-Erkennung

Trotz der Fortschritte bei der Entwicklung unseres Gefahren-Erkennungsmodells gibt es noch Herausforderungen zu überwinden. Die Textanalyse bleibt subjektiv, und die Präsenz von Slang, Sarkasmus und In-Gruppe-Sprache erschwert eine genaue Interpretation. Anstrengungen zur Verbesserung der Leistung und Generalisierbarkeit des Modells sind im Gange.

Ausserdem, während unsere Ergebnisse die bestehenden psychologischen Theorien über den Negativitätsbias unterstützen, sind weitere Forschungen nötig, um diese Erkenntnisse über verschiedene Datensätze und Kontexte hinweg zu bestätigen.

Zukünftige Richtungen für die Forschung

Während sich unser Verständnis der Gefahrenkommunikation weiterentwickelt, gibt es viele Perspektiven für zukünftige Forschung. Ein potenzieller Bereich könnte die Untersuchung sein, wie Gefahren-Sprache in verschiedenen Kulturen und Sprachen funktioniert. Da unser Modell mehrsprachig ist, können wir unsere Analyse auf Posts aus der ganzen Welt ausweiten.

Darüber hinaus könnte die Integration fortschrittlicherer Maschinenlerntechniken, einschliesslich verbesserter Versionen grosser Sprachmodelle, noch genauere Ergebnisse liefern. Instruktionsgesteuerte Modelle könnten eine Schlüsselrolle bei der weiteren Verfeinerung der Gefahren-Erkennungskapazitäten spielen.

Ethische Überlegungen

Beim Arbeiten mit Online-Daten sind ethische Überlegungen von grösster Bedeutung. Wir haben grossen Wert darauf gelegt, die Daten zu anonymisieren und alle identifizierbaren Informationen vor der Analyse zu entfernen. Es ist wichtig, die Verfolgung von Wissen mit dem Respekt vor der Privatsphäre des Einzelnen und den potenziellen Auswirkungen unserer Ergebnisse in Einklang zu bringen.

Obwohl das Modell vielversprechend ist, ist es wichtig, sich daran zu erinnern, dass es Fehler machen kann. Die Interpretation von Modellergebnissen sollte mit Vorsicht angegangen werden, insbesondere wenn es darum geht, das Verhalten einzelner Nutzer oder Teilen von Informationen zu bewerten.

Fazit

Diese Studie beleuchtet die Dynamik der Gefahrenkommunikation in Online-Räumen. Durch die Analyse von Social-Media-Posts und urbanen Legenden zeigen wir, wie sich negative Informationen verbreiten und wie verschiedene Gruppen auf wahrgenommene Bedrohungen reagieren. Die aus dieser Forschung gewonnenen Erkenntnisse können eine entscheidende Rolle bei der Entwicklung von Strategien zur Bekämpfung von Fehlinformationen und zur Verbesserung des öffentlichen Diskurses zu wichtigen Themen spielen.

Das Verständnis der Sprache von Gefahren hilft uns zu erkennen, welche mächtige Rolle Emotionen bei der Gestaltung der Kommunikation spielen. Während wir unsere Modelle und Forschungsmethoden verfeinern, hoffen wir, weiter zur Einsicht darüber beizutragen, wie Informationen im digitalen Zeitalter funktionieren.

Indem wir die Sprache rund um Gefahren erkennen und analysieren, können wir helfen, eine besser informierte und resilientere Gesellschaft zu schaffen. Die Herausforderungen der Fehlinformation sind erheblich, aber mit weiterer Forschung und Zusammenarbeit können wir Lösungen entwickeln, die Benutzer ermächtigen und verantwortungsvolles Teilen von Informationen fördern.

Originalquelle

Titel: Trust and Terror: Hazards in Text Reveal Negatively Biased Credulity and Partisan Negativity Bias

Zusammenfassung: Socio-linguistic indicators of text, such as emotion or sentiment, are often extracted using neural networks in order to better understand features of social media. One indicator that is often overlooked, however, is the presence of hazards within text. Recent psychological research suggests that statements about hazards are more believable than statements about benefits (a property known as negatively biased credulity), and that political liberals and conservatives differ in how often they share hazards. Here, we develop a new model to detect information concerning hazards, trained on a new collection of annotated X posts, as well as urban legends annotated in previous work. We show that not only does this model perform well (outperforming, e.g., zero-shot human annotator proxies, such as GPT-4) but that the hazard information it extracts is not strongly correlated with other indicators, namely moral outrage, sentiment, emotions, and threat words. (That said, consonant with expectations, hazard information does correlate positively with such emotions as fear, and negatively with emotions like joy.) We then apply this model to three datasets: X posts about COVID-19, X posts about the 2023 Hamas-Israel war, and a new expanded collection of urban legends. From these data, we uncover words associated with hazards unique to each dataset as well as differences in this language between groups of users, such as conservatives and liberals, which informs what these groups perceive as hazards. We further show that information about hazards peaks in frequency after major hazard events, and therefore acts as an automated indicator of such events. Finally, we find that information about hazards is especially prevalent in urban legends, which is consistent with previous work that finds that reports of hazards are more likely to be both believed and transmitted.

Autoren: Keith Burghardt, Daniel M. T. Fessler, Chyna Tang, Anne Pisor, Kristina Lerman

Letzte Aktualisierung: 2024-05-28 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2405.17838

Quell-PDF: https://arxiv.org/pdf/2405.17838

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel