NeurIPS 2024のための執筆ガイド
NeurIPS 2024の論文を効果的に準備するための簡単なステップ。
― 1 分で読む
目次
NeurIPS 2024の世界へようこそ!AIや機械学習のこの大きなカンファレンス用に論文を書こうと思ったことがあれば、ここがその場所だよ。わかりやすく説明していくから、科学者じゃなくても大丈夫。
これって何?
NeurIPSは「Conference on Neural Information Processing Systems」の略で、AI研究者たちのためのアカデミー賞みたいなもの。全国各地の研究者たちが自分の研究を披露したり、フィードバックをもらったり、賞を狙ったりするんだ。このドキュメントは、カンファレンス用の論文を書くためのガイドになるよ。レシピみたいに、ステップを踏めばおいしいものができあがる感じ!
論文の書き方
論文を書くときに知っておくべきことがいくつかあるよ。まず、ページ数は最大9ページまで。画期的なアイデアを詰め込むには少ないけど、良いニュースは、謝辞(ありがとう、ママ!)や参考文献用に追加のページが使えること。
整理整頓
書き始める前に、フォーマットの話。アメリカのレターサイズの用紙に印刷する必要があるよ。ヨーロッパで見かけるA4用紙じゃなくてね。テキストは、5.5インチ幅と9インチ長の箱に収めなきゃ。ページの真ん中に小さな長方形をイメージしてみて。
マージンはテキストのパーソナルスペースみたいなものだから、ちゃんと設定しよう!
- 左マージン: 1.5インチ
- 上マージン: 1インチ
- 右と下のマージン: 1インチ
フォントとサイズ
論文が見た目良くなるように、Times New Romanを使ってね。フォントの中の小さな黒いドレスみたいなもので、上品でいつもスタイル抜群。
- メインテキストには10ポイントを使用。
- 見出しやタイトルはちょっと大きめで、タイトルは17ポイントで太字に。
アブストラクトから始めよう
アブストラクトは映画の予告編みたいなもので、論文の内容をサクッと紹介する部分。
- 1段落だけ、これ以上はダメ。
- センター揃えで、太字、12ポイントのフォントを使う。
- 上に2行空けて、スペースを確保!
アブストラクトは明確で簡潔に。誰かがそれを読んだとき、何についての研究かを分かりやすく理解できるようにしよう。
提出のステップ
終わったら、論文を提出する時間だ!ちゃんとやる方法はこれだよ:
ガイドラインに従う: 指示をしっかり読んでね。これは宝探しじゃないから、何が期待されているかを理解したいよね。
正しいスタイルファイルを使う: NeurIPSのウェブサイトからスタイルファイルをダウンロードしてね。これらは、フォーマット方法を教えてくれるチートシートみたいなもの。
細かい変更はダメ: スタイルファイルで遊ばないで!理由があって設定されてるから、いじると論文が却下されるかも。やばい!
図や表
チャートや図、表がある場合は、きれいで読みやすくしよう。データのファッションショーだと思って、すべてシャープで見栄え良く!
- 図や表には番号を付けよう。
- 説明文は小文字で書いて、最初の単語と固有名詞以外は小文字でね。
引用と参考文献
他の人のアイデアを自分のものとして主張することはできないよ。常にクレジットは忘れずに!論文の中で他の研究を引用する際は、一貫性を持たせてね。著者名も統一して使おう。
参考文献のセクションは、謝辞ページの後に置いてね。スペースが必要な場合は、このセクションのフォントを小さくしてもオッケー。
脚注と謝辞
脚注でちょっとした情報を追加したい場合もあるかもしれないけど、少なめにしよう!必要な場合だけ短くね。
謝辞では、プロジェクトを手伝ってくれた人たちに感謝を伝えよう。資金提供者も含めて。でも、これらのページはメインの提出物とは別にしてね。
チェックリスト
送信ボタンを押す前に、チェックリストの項目を全部確認したか確認してね:
- 明確なアブストラクトを書いた?
- すべてを正しくフォーマットした?
- 引用は一貫してる?
- 貢献者や資金提供者に感謝した?
- チェックリスト自体を最後に含めた?
制限について正直に
完璧な人なんていないし、論文も同様。もし自分の研究に制限があるなら、そのことを正直に話すのがベスト。そうすることで、課題を理解していることや、批判的に考えていることを示せるよ。ゲームで公正にプレイするようなもので、正直が一番!
倫理的考慮
論文を書く際には、自分の研究が社会にどう影響するかを考えよう。良い方向に使われるか悪い方向に使われるか?研究の影響や実社会での使われ方について考えることが重要だよ。
透明性
方法や結果についてはっきりとすることが大事。論文に実験が含まれている場合、他の人が結果を再現できるようにしよう。これは、世界に自分の秘密のレシピを共有するようなもの。
もし研究が人を対象にしているなら、必要な承認を得て、関わる人たちを尊重してね。人間はデータセットの数字じゃなくて、個人なんだから。
提出後はどうなるの?
論文を提出すると、審査員がそれをチェックするよ。ガイドラインに従っているか、研究が妥当かを確認するんだ。もし論文が良ければ、カンファレンスでのプレゼンテーションに受け入れられるかもしれない。
ピアレビューには時間がかかることもあるから、辛抱強く待ってね!そして、たとえ論文が受け入れられなくても、それはフィードバックをもらって次回に向けて改善するチャンスだよ。
結論
NeurIPS 2024への参加はちょっと気が重いかもしれないけど、そんなことはないよ。ガイドラインに従って、論文を明確かつ簡潔に保てば、しっかりした提出物が作れるから。料理をするみたいに、材料を集めて、レシピに従って、誇りをもって出してね!頑張って、そしてこのプロセスを楽しむのを忘れないで!
タイトル: Impact of Label Noise on Learning Complex Features
概要: Neural networks trained with stochastic gradient descent exhibit an inductive bias towards simpler decision boundaries, typically converging to a narrow family of functions, and often fail to capture more complex features. This phenomenon raises concerns about the capacity of deep models to adequately learn and represent real-world datasets. Traditional approaches such as explicit regularization, data augmentation, architectural modifications, etc., have largely proven ineffective in encouraging the models to learn diverse features. In this work, we investigate the impact of pre-training models with noisy labels on the dynamics of SGD across various architectures and datasets. We show that pretraining promotes learning complex functions and diverse features in the presence of noise. Our experiments demonstrate that pre-training with noisy labels encourages gradient descent to find alternate minima that do not solely depend upon simple features, rather learns more complex and broader set of features, without hurting performance.
著者: Rahul Vashisht, P. Krishna Kumar, Harsha Vardhan Govind, Harish G. Ramaswamy
最終更新: 2024-11-07 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2411.04569
ソースPDF: https://arxiv.org/pdf/2411.04569
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://www.neurips.cc/
- https://mirrors.ctan.org/macros/latex/contrib/natbib/natnotes.pdf
- https://www.ctan.org/pkg/booktabs
- https://tex.stackexchange.com/questions/503/why-is-preferable-to
- https://tex.stackexchange.com/questions/40492/what-are-the-differences-between-align-equation-and-displaymath
- https://mirrors.ctan.org/macros/latex/required/graphics/grfguide.pdf
- https://neurips.cc/Conferences/2024/PaperInformation/FundingDisclosure
- https://nips.cc/public/guides/CodeSubmissionPolicy
- https://neurips.cc/public/EthicsGuidelines