ECCV会議論文提出ガイド
ECCVカンファレンスに論文を提出するための基本ルール。
― 1 分で読む
ECCV論文提出ガイドライン
はじめに
このガイドは、ECCVカンファレンスに論文を提出する方法を説明してるよ。著者が提出を基準に合うようにするために従うべき重要なルールが含まれてる。
初期提出
全ての論文は英語で書かなきゃダメ。公式フォーマットはSpringerから提供されてるよ。著者はLaTeXかMicrosoft Wordを使って論文を準備できる。LaTeXを使う場合は、ECCVテンプレートにしっかり従うことが大事で、これが正しいフォーマットを保ちつつ、レビューの間に匿名性を保つのに役立つ。
もし何らかの理由でLaTeXが使えない場合、Springerが提供するWordテンプレートを使えるよ。最終的に作成したPDFファイルがサンプルと一致して、提出ガイドラインに従ってることが重要だよ。
論文の長さ
著者はレビューのために完全な論文を提出しなきゃいけない。論文の長さは最終出版時のものと同じであるべき。受理された論文は通常、参考文献を除いて14ページになるよ。著者はページ制限に収まるために参考文献の数を減らそうとしないことが重要。
もし論文が14ページの制限を超えたら(参考文献を除く)、レビューなしで却下されるよ。論文はSpringerが定めたフォーマットのルールを守らなきゃいけない。マージンやフォントの大幅な変更が論文の見た目を変えると、その場合も却下されるよ。
論文ID
各原稿には、全てのページに論文IDを入れなきゃならない。このユニークな番号は、オンラインで論文提出の際に登録したときに割り当てられるよ。
行番号
初期提出の全ての行には番号を付けることが必要だよ。これでレビュアーが論文の特定の部分を見つけやすくなるんだ。行番号は最終版の論文では削除されるよ。
匿名性
ECCVではダブルブラインドレビューシステムを使ってる。つまり、レビュアーは著者が誰か知らなくて、著者もレビュアーが誰か知らないってこと。匿名性を保つために、著者は提出に自分の名前や自分の作品へのリンクを含めちゃダメ。もし著者が自分の別の論文を参照する必要があるなら、自分を特定できないようにしなきゃいけない。
著者は、自分の現在の作品が他の提出物とどう違うかを説明する際に「私」や「私たち」を使わないようにするべき。第三者の参照を使うのが好ましい方法だよ。
フォーマットガイドライン
見出しは特定のルールに従わなきゃダメ。最初の2レベルの見出しだけ番号を付けるべき。タイトルは中央揃えで太字、1レベル目と2レベル目の見出しは左揃えにすること。フォントサイズも各見出しタイプごとに指定されてるよ。
表のキャプションは常に表の上、図のキャプションは図の下に置かなきゃいけないよ。表と図は明確にラベル付けされて、出てくる順番に番号を付けること。
図
全てのイラストや図はクリアで読みやすくなきゃいけない。可能な限りベクターグラフィックを使用するべき。画像は最低800 dpiの解像度を持って、図内のテキストは読みやすいことが求められるよ。
図や表はテキスト内で引用して、読者がそれにアクセスできるように適切にクロスリファレンスを行うべき。キャプションは完全な文にならない限り、ピリオドで終わらせちゃダメ。
数式
表示される数式や方程式は中央揃えで、自分の行に置かなきゃいけないよ。各方程式には簡単に参照できるように番号を付けること。番号は論文全体で続けていくもので、セクション番号は含めない。
参考文献
全ての参考文献は指定されたガイドラインに従ってフォーマットしなきゃいけない。著者はテキスト内で引用された全ての参考文献が参考文献リストにも掲載されているか確認して、逆もまた然り。出版された作品にはデジタルオブジェクト識別子(DOI)を含めることが推奨されるよ。
複数の著者がいる作品を引用する場合、3人以上の著者がいる論文には最初の著者の名前の後に「et al.」を使うのが一般的な慣習だよ。
結論
これらのガイドラインに従うのはスムーズな提出プロセスにとって重要だよ。著者は自分の作品を注意深く見直して、提出前に全てが正しくフォーマットされていることを確認するべき。これで却下されるのを避け、カンファレンスで受理される可能性を高めることができるよ。
タイトル: ZNorm: Z-Score Gradient Normalization Accelerating Skip-Connected Network Training without Architectural Modification
概要: The rapid advancements in deep learning necessitate better training methods for deep neural networks (DNNs). As models grow in complexity, vanishing and exploding gradients impede performance, particularly in skip-connected architectures like Deep Residual Networks. We propose Z-Score Normalization for Gradient Descent (ZNorm), an innovative technique that adjusts only the gradients without modifying the network architecture to accelerate training and improve model performance. ZNorm normalizes the overall gradients, providing consistent gradient scaling across layers, effectively reducing the risks of vanishing and exploding gradients and achieving superior performance. Extensive experiments on CIFAR-10 and medical datasets confirm that ZNorm consistently outperforms existing methods under the same experimental settings. In medical imaging applications, ZNorm significantly enhances tumor prediction and segmentation accuracy, underscoring its practical utility. These findings highlight ZNorm's potential as a robust and versatile tool for enhancing the training and effectiveness of deep neural networks, especially in skip-connected architectures, across various applications.
著者: Juyoung Yun
最終更新: 2024-12-08 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2408.01215
ソースPDF: https://arxiv.org/pdf/2408.01215
ライセンス: https://creativecommons.org/publicdomain/zero/1.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。