Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Mensch-Computer-Interaktion

Unsicherheit bei Gruppentscheidungen verringern

Ein neuer Arbeitsablauf geht Ungewissheit in Gruppenurteilen durch gezielte Eingriffe an.

― 7 min Lesedauer


Umgang mit UnsicherheitUmgang mit Unsicherheitin GruppenentscheidungenGruppensituationen.Entscheidungsfindung inNeue Methoden verbessern die
Inhaltsverzeichnis

Wenn Leute in Gruppen Entscheidungen treffen, stehen sie oft vor Ungewissheit. Diese Ungewissheit kann aus verschiedenen Quellen kommen, wie Verwirrung über die Aufgabe oder Meinungsverschiedenheiten unter den Gruppenmitgliedern. Oft konzentrieren sich die aktuellen Methoden, um mit Ungewissheit umzugehen, darauf, die Anweisungen klarer zu machen. Aber das könnte nicht reichen, da Ungewissheit aus verschiedenen Faktoren entstehen kann.

In diesem Artikel stellen wir einen neuen Workflow vor, der darauf abzielt, die Ungewissheit bei Gruppenurteilungen zu verringern, indem wir uns auf spezifische Quellen der Ungewissheit konzentrieren. Unser Ansatz misst verschiedene Arten von Ungewissheit während einer ersten Runde der Beurteilung. Basierend auf diesen Messungen können wir gezielte Interventionen anwenden, die helfen, die Ungewissheit dort zu reduzieren, wo sie am dringendsten benötigt wird.

Wir haben diesen Workflow bei zwei gängigen Bewertungsaufgaben getestet: der Bewertung von Wortähnlichkeiten und der Einschätzung der Toxizität von Online-Kommentaren. Unsere Ergebnisse zeigen, dass gezielte Interventionen tatsächlich Ungewissheit reduzieren können, besonders in den Fällen mit der höchsten Ungewissheit. Durch das Messen von Mehrdeutigkeit und Meinungsverschiedenheit konnten wir Kontext bieten oder Diskussionen führen, um die Ergebnisse der Gruppenurteile zu verbessern.

Ungewissheit bei Gruppenentscheidungen verstehen

Ungewissheit ist eine Herausforderung, die oft bei Gruppenurteilungsaufgaben auftritt. Wenn Personen innerhalb einer Gruppe gebeten werden, etwas zu bewerten, können sie aus verschiedenen Gründen unsicher sein. Zum Beispiel könnte jemand das Objekt, das er bewertet, nicht ganz verstehen oder eine andere Meinung als die anderen in der Gruppe haben.

Wenn Community-Moderatoren entscheiden, ob sie einen schädlichen Beitrag löschen sollen, können sie aufgrund der mehrdeutigen Sprache oder der Absicht hinter dem Beitrag unsicher sein. Zudem können die Hintergründe und Erfahrungen jedes Moderators zu Meinungsverschiedenheiten darüber führen, was als schädlicher Inhalt gilt. Ähnlich könnten Lehrer in Bildungseinrichtungen unsicher sein, wenn sie Aufgaben bewerten, die keine klaren Richtlinien haben. Sie könnten sich auf ihre eigene Interpretation verlassen, was zu Inkonsistenzen bei der Bewertung führen kann.

Wenn Ungewissheit während des Bewertungsprozesses nicht angesprochen wird, kann das zu unzuverlässigen Ergebnissen führen. Vorurteile aufgrund unterschiedlicher Perspektiven können die Situation zusätzlich komplizieren. Um zuverlässige Gruppenurteile zu gewährleisten, ist es wichtig, effektive Wege zu finden, um Ungewissheit zu messen und zu reduzieren.

Quellen der Ungewissheit

Ungewissheit bei Gruppenurteilen kann in zwei Hauptquellen kategorisiert werden: Mehrdeutigkeit und Meinungsverschiedenheit.

Mehrdeutigkeit

Mehrdeutigkeit tritt auf, wenn Personen sich über ihr Urteil unsicher sind, weil es an Klarheit bezüglich des bewerteten Objekts mangelt. Wenn eine Gruppe beispielsweise damit beauftragt wird, die Ähnlichkeit von zwei Wörtern zu bewerten, könnte das Konzept der "Ähnlichkeit" vage oder interpretationsbedürftig erscheinen. Diese Ungewissheit kann zu grösseren Schwankungen in ihren Bewertungen führen.

In unserem Workflow quantifizieren wir Mehrdeutigkeit, indem wir die Grösse der von den Annotatoren angegebenen Spannbreiten messen. Eine grössere Spannbreite deutet auf mehr Ungewissheit oder Verwirrung hin, während eine kleinere Spannbreite ein höheres Vertrauen in ihr Urteil zeigt.

Meinungsverschiedenheit

Meinungsverschiedenheit hingegen bezieht sich auf unterschiedliche Meinungen unter den Gruppenmitgliedern. Selbst wenn jemand zuversichtlich in seinem Urteil ist, kann er mit anderen in der Gruppe nicht übereinstimmen. Wenn verschiedene Bewerter beispielsweise die Toxizität eines Kommentars einschätzen, können ihre unterschiedlichen Interpretationen dessen, was "toxisch" ist, zu Meinungsverschiedenheiten führen.

In unserem Workflow definieren wir Meinungsverschiedenheit basierend darauf, inwieweit sich die von verschiedenen Annotatoren angegebenen Spannbreiten überlappen. Wenn die Spannbreiten sich nicht signifikant überschneiden, deutet das auf ein hohes Mass an Meinungsverschiedenheit hin.

Gezielte Interventionen

Um die Ungewissheit, die bei Gruppenurteilen beobachtet wird, anzugehen, schlagen wir einen neuen Workflow vor, der gezielte Interventionen basierend auf den gemessenen Quellen der Ungewissheit umfasst. Dieser Workflow beinhaltet mehrere wichtige Schritte:

  1. Erste Urteile sammeln: Sammle Bewertungsdaten von Gruppenmitgliedern mithilfe eines Annotationswerkzeugs, das individuelle Ungewissheit erfasst.

  2. Ungewissheit messen: Berechne die Mehrdeutigkeits- und Meinungsverschiedenheitswerte für jedes zu bewertende Objekt.

  3. Gezielte Interventionen anwenden: Je nach den Werten spezifische Interventionen anwenden. Wenn ein Objekt eine hohe Mehrdeutigkeit aufweist, bieten wir zusätzlichen Kontext. Wenn das Objekt eine hohe Meinungsverschiedenheit zeigt, bringen wir die Gruppe dazu, in Diskussionen über unterschiedliche Perspektiven zu sprechen.

  4. Feedback einbeziehen: Nutze das Feedback und die Informationen aus den Interventionen, um die Aufgabe zu verfeinern und zukünftige Urteile zu verbessern.

Umsetzung des Workflows

Mehrdeutigkeit reduzieren durch Kontext

Wenn wir Objekte mit hoher Mehrdeutigkeit identifizieren, konzentrieren wir uns darauf, zusätzlichen Kontext zu sammeln, um Klarheit zu bieten. Zum Beispiel, in unserer Wortähnlichkeitsaufgabe kann es helfen, wie die Wörter in Sätzen verwendet werden zu veranschaulichen, um Verwirrung zu minimieren.

Im Toxizitätsauftrag hilft es, Kontext über die übergeordneten Kommentare zu liefern, damit die Annotatoren die Situation rund um einen potenziell toxischen Kommentar besser verstehen. Ziel ist es, sicherzustellen, dass die Annotatoren genügend Informationen haben, um fundierte Urteile zu fällen.

Meinungsverschiedenheit durch Diskussion lösen

Für Objekte mit signifikanten Meinungsverschiedenheiten laden wir die Gruppenmitglieder ein, an Diskussionen teilzunehmen. Während dieses Diskussionsprozesses können sie ihre Perspektiven äussern und zu einem Konsens gelangen. Diese Diskussion hilft, Richtlinien und Erwartungen zu klären, was zu besser abgestimmten Urteilen in zukünftigen Bewertungen führt.

Ergebnisse aus der Umsetzung des Workflows

Nachdem wir unseren Workflow auf die beiden Aufgaben angewendet haben, fanden wir signifikante Reduzierungen sowohl in der Mehrdeutigkeit als auch in der Meinungsverschiedenheit. In Fällen mit hoher Mehrdeutigkeit reduzierten unsere Kontextinterventionen die Mehrdeutigkeit um erhebliche Prozentsätze, was zeigt, dass die Bereitstellung zusätzlicher Informationen eine effektive Möglichkeit ist, Ungewissheiten zu klären.

In Fällen, in denen die Meinungsverschiedenheit ausgeprägt war, führte die Diskussionsintervention zu einem deutlich geringeren Meinungsverschiedenheitswert, als die Gruppenmitglieder ein gemeinsames Verständnis über die Aufgabe erreichten.

Die Bedeutung gezielter Ansätze

Gezielte Interventionen anzuwenden, ist entscheidend. Wenn wir Interventionen einheitlich auf alle Fälle anwendeten, stellten wir fest, dass dies zu Kompromissen führte, die manchmal die Ungewissheit in Bereichen erhöhten, in denen wir sie reduzieren wollten.

Diese Erkenntnis betont die Wichtigkeit, die spezifische Natur der Ungewissheit in jedem Fall zu verstehen. Indem wir unsere Bemühungen dort konzentrieren, wo sie am dringendsten benötigt werden, können wir die Urteilsqualität effektiv verbessern und gleichzeitig mögliche Komplikationen, die aus einer wahllosen Anwendung von Interventionen entstehen, minimieren.

Zukünftige Arbeiten und Allgemeingültigkeit

Obwohl unser Workflow sich als effektiv erwiesen hat, um Ungewissheit in Gruppenurteilen zu reduzieren, erkennen wir an, dass weitere Arbeiten erforderlich sind, um sein volles Potenzial zu erkunden. Es gibt viele andere Bereiche, in denen ähnliche Methoden angewendet werden könnten, wie in der Bildung oder bei Community-Moderationseinstellungen.

Es wäre wertvoll zu untersuchen, wie diese Interventionen an verschiedene Aufgaben und Modalitäten angepasst werden können, damit wir robustere und effizientere Systeme für das Management von Ungewissheit in Gruppenentscheidungsprozessen schaffen können.

Fazit

Zusammenfassend lässt sich sagen, dass Ungewissheit bei Gruppenurteilen aus Mehrdeutigkeit und Meinungsverschiedenheit resultieren kann. Indem wir diese Quellen der Ungewissheit messen und gezielte Interventionen anwenden, können wir die Qualität von Gruppenentscheidungen verbessern. Unser Workflow bietet einen strukturierten Ansatz zur Bewältigung von Ungewissheit, der zu zuverlässigen und konsistenten Ergebnissen in Aufgaben führen kann, die Gruppenurteile erfordern.

Zukünftige Forschungen sollten weiterhin diese Methoden verfeinern und ihre Anwendbarkeit in verschiedenen Bereichen untersuchen, um die kollaborativen Entscheidungsprozesse zu verbessern.

Originalquelle

Titel: Judgment Sieve: Reducing Uncertainty in Group Judgments through Interventions Targeting Ambiguity versus Disagreement

Zusammenfassung: When groups of people are tasked with making a judgment, the issue of uncertainty often arises. Existing methods to reduce uncertainty typically focus on iteratively improving specificity in the overall task instruction. However, uncertainty can arise from multiple sources, such as ambiguity of the item being judged due to limited context, or disagreements among the participants due to different perspectives and an under-specified task. A one-size-fits-all intervention may be ineffective if it is not targeted to the right source of uncertainty. In this paper we introduce a new workflow, Judgment Sieve, to reduce uncertainty in tasks involving group judgment in a targeted manner. By utilizing measurements that separate different sources of uncertainty during an initial round of judgment elicitation, we can then select a targeted intervention adding context or deliberation to most effectively reduce uncertainty on each item being judged. We test our approach on two tasks: rating word pair similarity and toxicity of online comments, showing that targeted interventions reduced uncertainty for the most uncertain cases. In the top 10% of cases, we saw an ambiguity reduction of 21.4% and 25.7%, and a disagreement reduction of 22.2% and 11.2% for the two tasks respectively. We also found through a simulation that our targeted approach reduced the average uncertainty scores for both sources of uncertainty as opposed to uniform approaches where reductions in average uncertainty from one source came with an increase for the other.

Autoren: Quan Ze Chen, Amy X. Zhang

Letzte Aktualisierung: 2023-05-02 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2305.01615

Quell-PDF: https://arxiv.org/pdf/2305.01615

Lizenz: https://creativecommons.org/licenses/by-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel