Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Biologie# Wissenschaftliche Kommunikation und Bildung

Die Verbesserung der Peer-Review: Eine Studie zur Struktur

Eine Studie zeigt, dass strukturierte Fragen die Konsistenz und Qualität von Peer-Reviews verbessern können.

― 5 min Lesedauer


StrukturierteStrukturiertePeer-Review-Einsichtenund das Feedback in Peer-Reviews.Neue Fragen verbessern das Einvernehmen
Inhaltsverzeichnis

Die Peer-Review in Fachzeitschriften ist ein Prozess, der hilft zu entscheiden, ob eine Studie veröffentlicht werden sollte. Editoren bekommen Arbeiten von Forschern und schicken sie an andere Experten (Gutachter) zur Überprüfung. Die Gutachter prüfen, ob die Methoden, Daten und Schlussfolgerungen der Studie solide sind, bevor sie eine Empfehlung abgeben. Sie können empfehlen, die Arbeit so zu veröffentlichen, Änderungen zu verlangen oder sie ganz abzulehnen.

Probleme mit der Peer-Review

Forschung hat gezeigt, dass es viele Probleme im Peer-Review-System gibt. Gutachter übersehen manchmal wichtige Probleme mit den Forschungsmethoden. Sie könnten Ergebnisse nicht richtig interpretieren, Referenzen falsch nutzen oder notwendige Details nicht berichten, die es anderen ermöglichen würden, die Studie zu replizieren. Es kann auch an fehlenden Informationen mangeln, um die Qualität der Studie oder mögliche Vorurteile zu beurteilen.

Viele Studien haben herausgefunden, dass verschiedene Gutachter oft nicht übereinstimmen. Eine Analyse ergab beispielsweise eine niedrige Übereinstimmungsrate von nur 34 %. Sogar neuere Daten zeigten, dass in einer Runde von Überprüfungen in vielen Zeitschriften nur 30 % der Gutachter übereinstimmten.

Ein Teil dieses Missmuts kann von den unklaren Fragen kommen, die die Gutachter beantworten sollen. Mit anderen Worten, wenn sie keine spezifischen Richtlinien haben, kann das zu unterschiedlichen Meinungen über die Qualität einer Arbeit führen.

Die Elsevier-Pilotstudie

Im August 2022 führte Elsevier einen Test durch, um eine Reihe strukturierter Fragen zu testen, die Gutachter bei der Bewertung von Einreichungen nutzen konnten. Diese Pilotstudie umfasste 220 Zeitschriften aus verschiedenen Fachgebieten und mit unterschiedlichen Einflussfaktoren. Die Fragen sollten die Gutachter leiten, waren aber nicht verpflichtend, was bedeutete, dass sie entscheiden konnten, welche Fragen sie beantworten wollten.

Die Ziele dieser Pilotstudie beinhalteten die Überprüfung, wie die Gutachter die neuen Fragen nutzten, die Übereinstimmung zwischen den Gutachtern zu beobachten, die Übereinstimmungsraten mit der bisherigen Leistung der Zeitschriften zu vergleichen und das Fragen-Set zu verbessern.

Überblick über den Überprüfungsprozess

Die Gutachter wurden gebeten, neun spezifische Fragen zur überprüften Forschung zu beantworten. Diese Fragen behandelten Dinge wie die Klarheit der Ziele der Studie, die Detailgenauigkeit der Methoden und die Richtigkeit der Ergebnisse. Einige Fragen erlaubten Ja-, Nein- oder nicht anwendbare Antworten, während andere offen waren, sodass die Gutachter ihre Gedanken erklären konnten. Nach diesen Fragen konnten die Gutachter auch zusätzliche Kommentare für sowohl die Autoren als auch die Editoren hinterlassen.

Von den Gutachtern wurde auch erwartet, dass sie eine endgültige Empfehlung abgeben, beispielsweise ob die Arbeit akzeptiert, überarbeitet oder abgelehnt werden sollte.

Analyse der Gutachterantworten

Die Studie analysierte, wie die Gutachter die strukturierten Fragen beantworteten und zählte die Anzahl der Wörter in ihren Antworten. Dies geschah, indem untersucht wurde, wie viele Gutachter die Fragen richtig beantworteten oder Antworten im Kommentarfeld verfassten.

Die Kommentarabschnitte zeigten unterschiedliche Antworten. Einige Gutachter nutzten den Raum, um ihre Antworten zu ergänzen, während andere komplette Überprüfungsberichte, die sie zuvor vorbereitet hatten, kopierten.

Kommentare der Gutachter

Von den Gutachtern nutzte eine grosse Mehrheit den Kommentarfeld, um ihre Gedanken hinzuzufügen. Viele verfassten traditionelle Überprüfungsberichte, die oft Zusammenfassungen und detailliertes Feedback enthielten. Die Wortanzahl dieser Kommentare variierte stark, wobei traditionelle Berichte länger waren als die, die nur die strukturierten Fragen verwendeten.

In Bezug darauf, wie gut die Kommentarabschnitte die strukturierten Fragen abdeckten, behandelten die meisten traditionellen Bewertungen vier oder fünf der neun Fragen, wobei in der Regel die Methoden und Interpretationen im Vordergrund standen, nicht jedoch Stärken oder Schwächen.

Bemerkenswerterweise waren Gutachter, die Kommentare für die Autoren verfassten, auch eher bereit, Notizen für die Editoren zu hinterlassen.

Übereinstimmung unter den Gutachtern

Die Studie untersuchte genau, wie viel Übereinstimmung zwischen den Gutachtern zu den strukturierten Fragen bestand. Die höchste Übereinstimmung gab es bei der Bewertung der Organisation der Arbeit, während die niedrigste bei der Interpretation von Ergebnissen und Methoden lag.

Bei den endgültigen Empfehlungen stimmten etwa 41 % der Gutachter überein, was eine deutliche Verbesserung im Vergleich zu früheren Peer-Reviews darstellt, die nur eine Übereinstimmung von 30 % zeigten. Allerdings traten keine nennenswerten Unterschiede in der Übereinstimmung auf, basierend auf dem Studienbereich oder dem Einflussfaktor der Zeitschrift.

Verfeinerung der Überprüfungsfragen

Nach der Analyse der Ergebnisse der Pilotstudie wurden Vorschläge gemacht, um die strukturierten Fragen zu verbessern. Anfangs waren einige Fragen so formuliert, dass unklar war, was eine "Ja"- oder "Nein"-Antwort bedeutete. Daher wurden die Fragen umformuliert, um eine konsistente Sprache zu haben.

Es wurden auch neue Fragen erstellt, die sich auf Standardabschnitte einer Arbeit konzentrierten. Ziel war es, eine klare und vereinfachte Möglichkeit für Gutachter zu schaffen, um Arbeiten zu bewerten, mit einer besseren Mischung aus Ja/Nein- und offenen Textoptionen, um konstruktiveres Feedback zu ermöglichen.

Fazit zur strukturierten Peer-Review

Die Pilotstudie zeigte, dass die Verwendung strukturierter Peer-Review-Fragen von den Gutachtern gut angenommen wurde. Sie antworteten angemessen auf die Fragen, und die Übereinstimmungsraten untereinander waren besser als bei traditionellen Peer-Reviews.

Es wird empfohlen, dass Zeitschriften, die strukturierte Peer-Reviews verwenden, ihre Gutachter frühzeitig über die Fragen informieren, damit sie diese im Hinterkopf behalten können, wenn sie Arbeiten bewerten. Dieser Ansatz könnte einen konsistenteren und effizienteren Überprüfungsprozess schaffen, was letztendlich zu besseren Entscheidungen der Editoren und verbesserten Arbeiten der Autoren führen würde.

Autoren zu ermutigen, dieselben Fragen zur Selbstevaluierung zu verwenden, könnte ihnen auch helfen, ihre Einreichungen vor der Überprüfung zu verbessern.

Insgesamt könnte die strukturierte Peer-Review einen klareren Rahmen bieten, der zu faireren Bewertungen und Verbesserungen der Forschungsqualität führt.

Originalquelle

Titel: Structured Peer Review: Pilot results from 23 Elsevier Journals

Zusammenfassung: BackgroundReviewers rarely comment on the same aspects of a manuscript, making it difficult to properly assess manuscripts quality and the quality of the peer review process. It was the goal of this pilot study to evaluate structured peer review implementation by: 1) exploring if and how reviewers answered structured peer review questions, 2) analysing reviewer agreement, 3) comparing that agreement to agreement before implementation of structured peer review, and 4) further enhancing the piloted set of structured peer review questions. MethodsStructured peer review consisting of 9 questions was piloted in August 2022 in 220 Elsevier journals. We randomly selected 10% of these journals across all fields and IF quartiles and included manuscripts that in the first 2 months of the pilot received 2 reviewer reports, leaving us with 107 manuscripts belonging to 23 journals. Eight questions had open ended fields, while the ninth question (on language editing) had only a yes/no option. Reviews could also leave Comments-to-Author and Comments-to-Editor. Answers were qualitatively analysed by two raters independently. ResultsAlmost all reviewers (n=196, 92%) filled out the answers to all questions even though these questions were not mandatory in the system. The longest answer (Md 27 words, IQR 11 to 68) was for reporting methods with sufficient details for replicability or reproducibility. Reviewers had highest (partial) agreement (of 72%) for assessing the flow and structure of the manuscript, and lowest (of 53%) for assessing if interpretation of results are supported by data, and for assessing if statistical analyses were appropriate and reported in sufficient detail (also 52%). Two thirds of reviewers (n=145, 68%) filled out the Comments-to-Author section, of which 105 (49%) resembled traditional peer review reports. Such reports contained a Md of 4 (IQR 3 to 5) topics covered by the structured questions. Absolute agreement regarding final recommendations (exact match of recommendation choice) was 41%, which was higher than what those journals had in the period of 2019 to 2021 (31% agreement, P=0.0275). ConclusionsOur preliminary results indicate that reviewers adapted to the new format of review successfully, and answered more topics than they covered in their traditional reports. Individual question analysis indicated highest disagreement regarding interpretation of results and conducting and reporting of statistical analyses. While structured peer review did lead to improvement in reviewer final recommendation agreements, this was not a randomized trial, and further studies should be done to corroborate this. Further research is also needed to determine if structured peer review leads to greater knowledge transfer or better improvement of manuscripts.

Autoren: Mario Malički, M. Malicki, B. Mehmani

Letzte Aktualisierung: 2024-02-04 00:00:00

Sprache: English

Quell-URL: https://www.biorxiv.org/content/10.1101/2024.02.01.578440

Quell-PDF: https://www.biorxiv.org/content/10.1101/2024.02.01.578440.full.pdf

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an biorxiv für die Nutzung seiner Open-Access-Interoperabilität.

Ähnliche Artikel