CHEESEフレームワークを使ったオンライン試験の不正行為検出
CHEESEフレームワークは、オンライン試験中のカンニング行動をうまく特定するんだ。
― 1 分で読む
目次
COVID-19の影響で、たくさんの試験がオンラインに移行したんだ。この変化で、試験中のカンニングについての懸念が高まったよ。公平性を保つためには、カンニング行為をしっかり検出することが重要なんだ。でも、従来の監視方法じゃ、すべてのカンニングの形態を完全に把握するのは難しいし、多くの行動は微妙で、限られた視界の中で起こるから余計に厄介なんだよね。
オンライン試験におけるカンニング
オンライン試験では、いろんな方法でカンニングが行われる。例えば、生徒が画面外の誰かに助けてもらってたり、無許可のデバイスを使ったり、画面から目をそらして答えを探したりね。これらの行動を限られた視界で検出するのが難しいんだ。ウェブカメラは生徒の周りの小さなエリアしか映さないからね。
効果的な検出の必要性
カンニングの事例が少ないことも、検出システムのトレーニングに必要なデータを集めるのを難しくしている。さらに、頭の位置や目の動き、背景などの異なる特徴を捉えることがカンニングの認識に役立つけど、研究者たちはこれを見落としがちなんだ。
CHEESEフレームワーク
これらの課題に取り組むために、CHEESEっていう新しいフレームワークが開発されたんだ。このフレームワークは、試験状況でのカンニング行為を特定するために、複数インスタンス学習(MIL)っていう手法を使ってる。動画から体の姿勢や表情などの様々な特徴を組み合わせて、生徒の行動を分析するんだ。
フレームワークの要素
ラベル生成器: 動画クリップにラベルを作るパート。弱い監視っていう方法を使って、詳細なデータに頼らずに学習を進める。
特徴エンコーダー: 動画から目の動きや頭の傾きなど、いろんな特徴を集めて異常を特定するのを助ける。
時空間グラフモジュール: 特徴が時間と共にどう変化するかを調べる。このモジュールは、異なる動画クリップ間の関係を見て、異常な行動を見つける手助けをする。
検出のためのデータ収集
CHEESEフレームワークのテストには、3つの異なるデータセットを使用したよ:
- UCF-Crime: 様々な異常イベントを含む大きなデータセット。
- ShanghaiTech: キャンパスの監視動画を含む小さめのデータセット。
- オンライン試験監視(OEP): これは試験に特化したデータセットで、CHEESEのテストにもっとリアルなシナリオを提供してる。
フレームワークの仕組み
プロセスは動画入力から始まる。ラベル生成器が特徴に基づいてカンニング行為が含まれていそうなクリップを特定するんだ。これは、それぞれのクリップに詳しい注釈がなくてもできるから、大きな利点だね。
特徴抽出
高度なアルゴリズムを使って、動画からいろんな特徴を抽出するよ:
- 目の動き: 生徒がどこを見ているかを判断することで、答えを探しているかどうかがわかる。
- 頭の傾き: 頭の動きは、画面外の誰かから助けを受けているかのサインになることがある。
- 顔の動作: 特定の表情は、試験中の不安や嘘を表すことがある。
これらの特徴を組み合わせて、生徒の試験中の行動の全体像を作り上げるんだ。
コンテキストの重要性
異常なイベントは特定のコンテキスト内で起こることが多いから、それを認識するのが大事なんだ。時空間グラフモジュールは、これらのコンテキストを考慮に入れて、時間を通じてクリップ間の関係を捉える。これがカンニング行為の検出精度を向上させる。
クラス不均衡への対処
トレーニング中に発生する一つの問題はクラスの不均衡。カンニング行為は普通の行動に比べてずっと少ないから、モデルが効果的に学ぶのが難しい。ただ、フレームワークにはトレーニング中にクラスをバランスさせるためのテクニックが組み込まれている。異なるクラスに割り当てられる重みを調整することで、モデルは珍しいけど重要なカンニングイベントにもっと注意を向けるようになる。
結果と評価
CHEESEフレームワークを3つのデータセットでテストしたところ、期待以上の結果が出たよ。モデルは高いAUCスコアを達成し、通常の行動と異常な行動を区別するのに効果的だって示された。
異なるデータセットでのパフォーマンス
UCF-Crime: CHEESEフレームワークは他の既存モデルと同等のパフォーマンスを発揮し、約80.56%のAUCスコアを達成した。
ShanghaiTech: このデータセットではさらに良い結果が出て、90.79%のAUCを記録し、CHEESEの効果をさらに検証した。
OEP: 特に、CHEESEモデルは87.58%のAUCスコアを達成し、オンライン試験中のカンニング検出における堅牢性が確認された。
質的結果
CHEESEの出力を視覚的に確認したところ、フレームワークが動画内のカンニングの特定の瞬間を効果的に特定していることがわかった。異常活性マップも、モデルがどこに注意を向けているかを示していて、どのように意思決定をしているかを深く理解できるようになってる。
結論
CHEESEフレームワークは、オンライン試験におけるカンニング行為を検出する上での大きな進歩を示している。マルチモーダルな特徴を活用し、動画データの課題に対応する学習手法を取り入れることで、特にこの前例のない時期に教育の公平性を保つ能力が高まってる。将来的には、もっと多様なデータを集めたり、追加の情報源を統合して検出能力をさらに洗練させることができるかもしれないね。
タイトル: Multiple Instance Learning for Cheating Detection and Localization in Online Examinations
概要: The spread of the Coronavirus disease-2019 epidemic has caused many courses and exams to be conducted online. The cheating behavior detection model in examination invigilation systems plays a pivotal role in guaranteeing the equality of long-distance examinations. However, cheating behavior is rare, and most researchers do not comprehensively take into account features such as head posture, gaze angle, body posture, and background information in the task of cheating behavior detection. In this paper, we develop and present CHEESE, a CHEating detection framework via multiplE inStancE learning. The framework consists of a label generator that implements weak supervision and a feature encoder to learn discriminative features. In addition, the framework combines body posture and background features extracted by 3D convolution with eye gaze, head posture and facial features captured by OpenFace 2.0. These features are fed into the spatio-temporal graph module by stitching to analyze the spatio-temporal changes in video clips to detect the cheating behaviors. Our experiments on three datasets, UCF-Crime, ShanghaiTech and Online Exam Proctoring (OEP), prove the effectiveness of our method as compared to the state-of-the-art approaches, and obtain the frame-level AUC score of 87.58% on the OEP dataset.
著者: Yemeng Liu, Jing Ren, Jianshuo Xu, Xiaomei Bai, Roopdeep Kaur, Feng Xia
最終更新: 2024-02-08 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2402.06107
ソースPDF: https://arxiv.org/pdf/2402.06107
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。