Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# コンピュータビジョンとパターン認識# 人工知能

歴史的文書の手書き文字認識を改善する

このプロジェクトは、フランスのベルフォール市議会の議事録の転写方法を向上させるものだよ。

― 1 分で読む


歴史的テキストのためのHT歴史的テキストのためのHTRの進展古い市役所の文書の転写精度を向上させる。
目次

手書き文字認識 (HTR) は、手書きのテキストをデジタル形式に変換する方法だよ。これは古い文書を読みやすく、検索しやすくするために重要なんだ。この文脈で、フランスのベルフォール市から1790年から1946年に作成された市議会の議事録の転写に関わるプロジェクトを見ていくよ。主な課題は、転写がさまざまな要因、例えば手書きスタイルや文書の古さのために不完全であることだね。

手書き文字認識の課題

手書き文字認識では、同じ行のテキストを複数の人が転写することがよくあるけど、彼らの解釈は異なることがあるんだ。このばらつきが、手書きを認識するモデルを訓練する際に混乱を招くことがある。目標は、異なる転写を使ってモデルを最適に訓練する方法を見つけることなんだ、特にその中には正確でないものもあるかもしれないから。

訓練戦略

HTRモデルのパフォーマンスを向上させるために、複数の転写を使って訓練する方法をいくつか調べたよ。主に3つの戦略を試したんだ:

  1. 単一転写の選択:利用可能なものの中から1つの転写だけを選ぶ方法。
  2. すべての転写を使用:訓練中に各行のテキストに対してすべての転写を保持する方法。
  3. コンセンサス転写:利用可能な転写の中から共通の要素を見つけて、統合した転写を作るアプローチ。

転写の質の重要性

転写の質はモデルのパフォーマンスに大きな影響を与えるんだ。転写の信用性を推定するために、2人で同じ行を転写させることができる。もし彼らの転写があまりに異なるなら、モデルの訓練に使いたくないかも。

データセット

このプロジェクトでは、会議のメモや議題のようなさまざまなタイプの文書を含む市議会の議事録のデータセットを使用したよ。訓練データを集めるために、オープンな共同注釈キャンペーンを設けたんだ。これによって、個人がオンラインツールを使って転写プロセスに参加できるようにしたよ。各行のテキストがハイライトされて、ユーザーに正確に転写してもらうようにお願いするんだ。

注釈プロセス

注釈をする際には、収集した転写が一貫性を保つようにガイドラインを設けたよ。例えば、行が読みにくい場合は、注釈者は転写を空白のままにするべきだってね。もしスペルミスや句読点のエラーがあったら、修正することになってた。質を確保するために、同じ行で複数の人に作業してもらったんだ。

注釈の収集

キャンペーン中に、合計24,105行のテキストが転写され、そのうちの約37%は異なる2人によって行われたんだ。でも、いくつかの行は難しくて、ある人が行を丸ごと見逃して、別の人がそれを完成させることもあった。このばらつきが、各行のテキストの最良の表現を見つけるために複数の転写が必要だということを浮き彫りにしてるんだ。

自動転写

訓練プロセスをさらに改善するために、自動手書き認識モデルを使って追加の転写を生成したよ。だから、各行には3つか4つの異なる転写があって、集めているデータを強化するのに役立ったんだ。

データ分割戦略

モデルを訓練する際には、データを訓練セット、検証セット、テストセットの異なるセットに分けることが重要なんだ。テストセットはモデルがどれだけうまく動作するかを評価するためのものだよ。特定のガイドラインを設けて、両方の注釈者が合意した行だけをテストセットに使うようにした。意見の不一致がある行は訓練セットに入れたんだ。

合意の測定

異なる転写がどれだけ一致しているかを測るために、合意スコアを計算したんだ。このスコアは転写の類似性を理解するのに役立って、手書きが悪いとか転写の間違いがどこにあるかを示すことができるよ。

実験的アプローチ

実験では、前に述べた異なる訓練戦略を比較したよ。どの方法がモデルが一番良く学ぶのに役立つかを見たかったんだ。単一の転写を選んだり、複数の注釈を使ったり、コンセンサス転写を作ったりして、それぞれのアプローチがモデルの精度に与える影響を評価したよ。

異なる戦略の結果

私たちのテストでは、複数の転写を使うことでモデルのパフォーマンスが全体的に向上することが分かったよ。結果を比較したら、すべての利用可能な転写で訓練されたモデルが、1つの転写だけを使ったモデルよりも良いパフォーマンスを示したんだ。モデルを訓練する最も効果的な方法は、自動転写を人間のものと一緒に含めることだったよ。

質重視の訓練の影響

質の低い転写を取り除くことがモデルのパフォーマンスにどう影響するかも探ったよ。実際には、信頼できないサンプルをフィルタリングするとパフォーマンスが悪化することがあって、訓練例の数が減っちゃうんだ。モデルは、たとえその中にノイズがあったとしても、学習するために十分なデータが必要なんだ。

分割戦略のバイアス

データを分ける方法にはバイアスが入ることもあるよ。両方の注釈者が同意した行で構成されるテストセットは、訓練セットよりも簡単な傾向があったんだ。この不一致のおかげで、テストセットでのモデルのパフォーマンスが実際よりも良く見えちゃった。対照的に、データをランダムに分けるとパフォーマンスの数値が低くなって、元の方法が効果を誤って印象づける可能性を浮き彫りにしたんだ。

今後の方向性

私たちの研究は、注釈プロセスを強化してHTRモデルの訓練を改善する方法をいくつか指し示しているよ。今後のプロジェクトでは、注釈者が協力し合ってお互いの間違いを修正したり、行った作業を検証したりできる機能を取り入れることを提案するよ。画像の質を評価するためのツールを使うことで、転写プロセスを複雑にするぼやけた画像をフィルタリングするのにも役立つかもしれないね。

結論

手書き文字認識は、特に歴史的文書を扱う際には複雑な作業だね。転写を管理するためのさまざまな戦略を利用して、注釈の質を考慮することで、かなりの進展が可能になるよ。私たちの作業の結果は、歴史的文書の転写を改善し、一般の人々によりアクセスしやすくするための今後の取り組みに役立つかもしれないね。

オリジナルソース

タイトル: Handwritten Text Recognition from Crowdsourced Annotations

概要: In this paper, we explore different ways of training a model for handwritten text recognition when multiple imperfect or noisy transcriptions are available. We consider various training configurations, such as selecting a single transcription, retaining all transcriptions, or computing an aggregated transcription from all available annotations. In addition, we evaluate the impact of quality-based data selection, where samples with low agreement are removed from the training set. Our experiments are carried out on municipal registers of the city of Belfort (France) written between 1790 and 1946. % results The results show that computing a consensus transcription or training on multiple transcriptions are good alternatives. However, selecting training samples based on the degree of agreement between annotators introduces a bias in the training data and does not improve the results. Our dataset is publicly available on Zenodo: https://zenodo.org/record/8041668.

著者: Solène Tarride, Tristan Faine, Mélodie Boillet, Harold Mouchère, Christopher Kermorvant

最終更新: 2023-06-19 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2306.10878

ソースPDF: https://arxiv.org/pdf/2306.10878

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事