Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# データベース# 機械学習

NeurIPS 2024 論文提出のガイドライン

NeurIPS 2024に研究を提出するための要件を学ぼう。

Yannis Chronis, Yawen Wang, Yu Gan, Sami Abu-El-Haija, Chelsea Lin, Carsten Binnig, Fatma Özcan

― 1 分で読む


NeurIPSNeurIPS2024の提出ガイドライン論文を提出するための基本ルール。
目次

NeurIPSは、人工知能と機械学習の研究に関する大きな会議だよ。もしNeurIPS 2024で研究を発表したいなら、論文が要件を満たすようにするための手順を紹介するね。

論文の長さと形式

論文は最大で9ページまで。図も含まれるよ。ただし、謝辞や参考文献は9ページにカウントしないから、余分なページを追加しても大丈夫。ただし9ページ以上だとレビューされないから気をつけて。

正しいスタイルを使う

NeurIPSが提供している特定のスタイルガイドを使わないとダメだよ。公式ウェブサイトからダウンロードできるから、最新のものを使って、書式は変更しないように。ファイルをいじると拒否されるかも。

スタイルファイルの入手

スタイルファイルはNeurIPSのウェブサイトにあるよ。neurips_2024.pdfというファイルを探して、書式要件を確認してね。必要なのはneurips_2024.styだけだから、古いバージョンやMicrosoft Wordからのファイルは使っちゃダメ。

提出オプション

論文を提出する時、いくつかのオプションがあるよ。

  1. 最終版: 印刷されるバージョンを提出する準備ができた時に使うオプション。
  2. プレプリント: arXivのようなプラットフォームで作業を共有したい場合に選択。プレプリント版には各ページの下部に「Preprint. Work in progress.」が表示されるから注意してね。共有する時に提出先の会議名は言わないで。

提出時にはこれらのオプションを含めないように。これで提出が匿名になり、レビュー用に行番号が追加されるよ。

neurips_2024.texファイルをテンプレートとして使えるから、そのセクションを自分の内容に置き換えてね。

一般的なフォーマットガイドライン

  • テキストは横5.5インチ、縦9インチの長方形に収めて。
  • 左の余白は1.5インチ。
  • フォントサイズは10ポイントで、行間は11ポイント。
  • フォントはTimes New Romanが推奨。
  • 段落の間には12ポイントのスペースを空ける。
  • タイトルは17ポイントの太字で中央に。タイトルの上下にもスペースが必要。

著者情報

最終版では著者名を太字にして、住所の上に中央揃えに書いてね。主著者の名前を書いた後に共著者を続けて。

見出し

論文で見出しを使う時は:

  • 第1レベルの見出し: 12ポイントの太字。
  • 第2レベルの見出し: 10ポイントのフォント。
  • 第3レベルの見出し: 同じく10ポイントのフォント。

引用と図の表示

引用にはnatbibパッケージを使ってね。著者の名前と年や番号で引用できるよ。スタイルは一貫性を持たせて。脚注は控えめに使って、番号を付けて。

図や表については:

  • 図はわかりやすくて読みやすいものに。その下にキャプションを置いて、周りにスペースを持たせる。
  • 表も整理されていて見やすく、上にタイトルを付けること。

提出前の最終ステップ

要求された書式を守ってね。サイズやフォントを指定以外のものに変更しないように。最終ファイルはPDF形式で、"US Letter"サイズに設定しておくこと。

PDFの準備

PDFを作成するにはpdflatexコマンドを使って。PDF内のフォントはType 1またはEmbedded TrueTypeフォントに限定してね。フォントが正しいタイプかチェックして。

謝辞と参考文献

研究資金や潜在的な利害の対立についての謝辞を論文の最後に含めて。ただし、レビュー用の版には入れず、最終版で追加してもいいよ。

参考文献セクションは謝辞の後に続く。引用スタイルは好きなものを選んでいいけど、一貫性を保ってね。

補足資料

追加情報がある場合、例えば証明や実験は、付録に含めて。これも提出の一部にしてね。

責任ある研究のためのチェックリスト

NeurIPSには倫理的な研究実践を促進するためのチェックリストがあるよ。すべてのチェックリストの質問には正直に答えて。該当しない質問は適用外としてマークして、その理由を説明してもいいよ。

主張の明確さの重要性

論文を書くときは、要約や導入部分で主な主張をはっきりと書いてね。主張が現実的で、発表する結果と一致しているか確認することが重要。自分の研究に限界がある場合は、それを認めることも大切だよ。

実験デザインと透明性

実験が含まれる場合は、セッティングを明確に説明してね。レビューアーが方法を理解して、結果を再現できるように十分な詳細を提供すること。結果に変動がある場合は、その文脈も論文に含めるべきだよ。テストでの統計的有意性をどう得たかを説明して。

データと技術の責任ある使用

研究が社会に与える影響についても話すこと。公平性、プライバシー、研究の悪用に関連する問題に触れて、負の影響を軽減するための戦略を共有できるなら、ぜひ。

倫理的考慮事項

特に人間被験者やクラウドソーシングを含む研究を行う場合、倫理ガイドラインに従ってね。必要な承認を提供し、参加者に公正な報酬を確保すること。

ライセンスと新しい資産

既存のデータを使う場合は、適切なクレジットを与えて、ライセンスについて言及すること。新しい資産、例えばデータセットを作成する場合は、使用方法や必要な許可についての詳細を共有して。

結論

NeurIPS 2024に論文を提出するには、厳しいガイドラインに従い、研究を明確かつ責任を持って発表することが求められるよ。この指示に従えば、あなたの研究が公正にレビューされ、AIコミュニティに良い貢献ができるはず。

オリジナルソース

タイトル: CardBench: A Benchmark for Learned Cardinality Estimation in Relational Databases

概要: Cardinality estimation is crucial for enabling high query performance in relational databases. Recently learned cardinality estimation models have been proposed to improve accuracy but there is no systematic benchmark or datasets which allows researchers to evaluate the progress made by new learned approaches and even systematically develop new learned approaches. In this paper, we are releasing a benchmark, containing thousands of queries over 20 distinct real-world databases for learned cardinality estimation. In contrast to other initial benchmarks, our benchmark is much more diverse and can be used for training and testing learned models systematically. Using this benchmark, we explored whether learned cardinality estimation can be transferred to an unseen dataset in a zero-shot manner. We trained GNN-based and transformer-based models to study the problem in three setups: 1-) instance-based, 2-) zero-shot, and 3-) fine-tuned. Our results show that while we get promising results for zero-shot cardinality estimation on simple single table queries; as soon as we add joins, the accuracy drops. However, we show that with fine-tuning, we can still utilize pre-trained models for cardinality estimation, significantly reducing training overheads compared to instance specific models. We are open sourcing our scripts to collect statistics, generate queries and training datasets to foster more extensive research, also from the ML community on the important problem of cardinality estimation and in particular improve on recent directions such as pre-trained cardinality estimation.

著者: Yannis Chronis, Yawen Wang, Yu Gan, Sami Abu-El-Haija, Chelsea Lin, Carsten Binnig, Fatma Özcan

最終更新: 2024-08-28 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2408.16170

ソースPDF: https://arxiv.org/pdf/2408.16170

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事