NeurIPS 2024 論文提出のガイドライン
NeurIPS 2024に論文を提出するための基本ルール。
― 1 分で読む
目次
NeurIPS 2024カンファレンスのフォーマットガイドへようこそ。提出基準を満たすために、これらのガイドラインにしっかり従うことが大事だよ。
一般的な要件
論文の長さ: 論文は最大9ページまでで、図を含むけど謝辞と参考文献は含まない。この限度を超えるとレビューされないから注意してね。
余白とテキスト: 論文のテキストは、幅5.5インチ、長さ9インチの長方形に収まるようにして。左の余白は1.5インチにすること。10ポイントのフォントサイズで、行間は11ポイント。フォントはTimes New Romanが推奨。
タイトルと著者: タイトルは17ポイントの太字で、2本の横線の間に中央揃えにする。上の線は4ポイントの太さ、下の線は1ポイント。タイトルの上下には14インチのスペースを空けてね。著者名は太字にして、対応する住所の上に中央揃えにすること。
アブストラクトのガイドライン
- アブストラクトは、左と右の両側で0.5インチインデントしてね。
- 10ポイントのフォントを使って、縦の間隔は11ポイントにすること。
- 「Abstract」は12ポイントの太字で中央揃えにする。
- アブストラクトの前に2行のスペースを空けること。
- アブストラクトは一段落で書いてね。
セクションヘッディング
第一レベル見出し: 小文字で書く(最初の単語と固有名詞以外は)、左揃えで太字、12ポイントのフォント。
第二レベル見出し: 10ポイントのフォントで左揃えの太字。
第三レベル見出し: 10ポイントのフォントで左揃えの太字。
引用と参考文献
- 論文全体で引用スタイルは一貫性を持たせてね。natbibパッケージを使って引用をリンクできるよ。
- 自分の以前の研究を引用する時は三人称で書くこと。
- 脚注は最小限にして、使う場合はテキスト内に番号を付けて、ページの下に置くこと。
図と表のガイドライン
図: 図はきれいで読みやすくすること。図のキャプションの前後に1行のスペースを空けて、図番号とキャプションは図の後にする。
表: 表は中央揃えで、きれいで読みやすく。表のタイトルの前に1行のスペースを空けて、後にも1行空ける。クリーンな見た目のために、表の縦のルールは避けてね。
提出ガイドライン
- NeurIPSのウェブサイトにあるNeurIPSスタイルファイルに従って準備したファイルだけ提出してね。
- レビュー過程で匿名性を保つために、論文には識別情報を含めないように。
最終版の指示
- 最終版では、全著者名を太字にして、対応する住所の上に中央揃えにすること。
- スタイルファイルのフォーマット項目は変更しないで、そうしないと論文が拒否される場合があるからね。
付録と補足資料
- 必要に応じて、付録に追加資料を含めてもいい。このセクションでは、詳細な証明や追加実験を扱って、論文を補完すること。
NeurIPS論文チェックリスト
このチェックリストは、研究が透明性と倫理におけるベストプラクティスを満たしていることを確認するためのもの。すべての質問に答えて、必要な場合は正当化を提供してね。
主張と貢献: 主張を明確に述べて、それがどのように結果によって支持されているかを示すこと。制限についても触れてる?
理論結果: 該当する場合、明確に記載された仮定と適切な証明を含めてね。
再現性: 他の人が実験を再現できる方法を概説して。
コードとデータへのオープンアクセス: コードやデータがあるなら、どうアクセスできるかを言及して。
計算リソース: 実験中に使用したリソースの種類を示してね。
広範な影響: 自分の研究が社会に与える可能性のあるポジティブまたはネガティブな影響について話し合って。
データセットとライセンス: 使用した資産を適切に引用して、ライセンスを明示して。
ヒト被験者研究: 該当する場合、ヒトを対象にした研究に必要な承認について言及して。
これらのガイドラインに従うことで、NeurIPS 2024における研究の誠実さと質を保つことに貢献できるよ。これらの指示に従うことは、提出物がレビューとカンファレンスでの発表に考慮されるために重要だよ。
タイトル: High Fidelity Text-Guided Music Editing via Single-Stage Flow Matching
概要: We introduce MelodyFlow, an efficient text-controllable high-fidelity music generation and editing model. It operates on continuous latent representations from a low frame rate 48 kHz stereo variational auto encoder codec. Based on a diffusion transformer architecture trained on a flow-matching objective the model can edit diverse high quality stereo samples of variable duration, with simple text descriptions. We adapt the ReNoise latent inversion method to flow matching and compare it with the original implementation and naive denoising diffusion implicit model (DDIM) inversion on a variety of music editing prompts. Our results indicate that our latent inversion outperforms both ReNoise and DDIM for zero-shot test-time text-guided editing on several objective metrics. Subjective evaluations exhibit a substantial improvement over previous state of the art for music editing. Code and model weights will be publicly made available. Samples are available at https://melodyflow.github.io.
著者: Gael Le Lan, Bowen Shi, Zhaoheng Ni, Sidd Srinivasan, Anurag Kumar, Brian Ellis, David Kant, Varun Nagaraja, Ernie Chang, Wei-Ning Hsu, Yangyang Shi, Vikas Chandra
最終更新: 2024-10-16 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2407.03648
ソースPDF: https://arxiv.org/pdf/2407.03648
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://github.com/facebookresearch/audiocraft
- https://github.com/ivan-chai/torch-linear-assignment
- https://github.com/LAION-AI/CLAP
- https://melodyflow.github.io
- https://melodyflow.github.io/
- https://neurips.cc/Conferences/2024/PaperInformation/FundingDisclosure
- https://www.neurips.cc/
- https://mirrors.ctan.org/macros/latex/contrib/natbib/natnotes.pdf
- https://www.ctan.org/pkg/booktabs
- https://tex.stackexchange.com/questions/503/why-is-preferable-to
- https://tex.stackexchange.com/questions/40492/what-are-the-differences-between-align-equation-and-displaymath
- https://mirrors.ctan.org/macros/latex/required/graphics/grfguide.pdf
- https://nips.cc/public/guides/CodeSubmissionPolicy
- https://neurips.cc/public/EthicsGuidelines