ACM出版の必須ガイド
ACMの記事テンプレートを効果的に使うためのシンプルなガイド。
― 1 分で読む
目次
ACM出版の世界へようこそ!初めてこのプールに足を踏み入れる人も、以前に来たことがあってサクッと復習が必要な人も、このガイドがACMの記事テンプレートを理解する手助けをします。まるで迷わず行くための頼りになる地図みたいなものです。
ACMテンプレートって何?
ACMテンプレートは、みんなが均一な形で研究を発表できるようにする特別なルールとスタイルのセットです。大事なイベントに行くときの服装みたいなもので、みんながスマートに見えて良い印象を与えます。このテンプレートは、タイトルの書き方から参考文献のフォーマットまで、あなたの作品がプロフェッショナルで読みやすく見えるようにカバーしています。
テンプレートの使い始め
書き始めるときは、「acmart」というドキュメントクラスを使います。これがACM出版用のドキュメントを作成するための主要なツールです。このドキュメントクラスは、フルテクニカルペーパーを提出したり、要約を書いたり、ジャーナル記事を準備したりするのに使えます。
テンプレートスタイルの選び方
最初にやるべきことは、テンプレートスタイルを選ぶことです。これは、出したい料理に基づいて適切なレシピを選ぶようなもので、異なる出版物に応じて異なるスタイルがあります:
ジャーナル用:
acmsmall
: ほとんどのジャーナルの標準スタイル。acmlarge
: 特定のジャーナルで使用。acmtog
: 別の専門ジャーナルスタイル。
会議用:
acmconf
: ほとんどの会議論文のためのスタイル。sigchi
: SIGCHI会議論文用。sigplan
: SIGPLAN会議用。
正しいスタイルを選んで、正しい方向に進んでね。
テンプレートパラメータ:ドキュメントの調整
スタイルを選ぶだけじゃなく、ドキュメントの見た目を変えるために設定できるパラメータもあります。ただ、あまりやりすぎないように!ACMはフォーマットに厳しいからね。いくつかの一般的なパラメータを紹介します:
anonymous,review
: レビュー中にあなたの身元を隠します。authorversion
: 自分のバージョンをオンラインで共有するのに最適。screen
: テキストにカラフルなハイパーリンクを追加します。
ACMには、余計なこと、例えばマージンやフォントを変更することを規制する厳しいルールがあるので、ガイドラインに従って、ドキュメントがスムーズに進むようにしましょう。
タイトルと著者
タイトルに関しては、正しく大文字にすること。これはただの見栄えではなく、読者があなたの作品の内容をすぐに理解できるようにするためです。タイトルが長すぎる場合は、ヘッダー用に短いバージョンを考える必要があります。
著者をリストする際は、フルネームを使ってください。ニックネームやイニシャルはNGで、みんなが輝ける場です!また、読者がもっと情報を得られるように、メールアドレスも忘れずに書いてね。
権利と責任
ACMで出版する際は、権利に関するフォームに記入しなきゃいけません。これは単なる作業じゃなくて、あなたが保持する権利とACMに渡す権利を明確にするためのものです。あなたの選択肢には著作権譲渡やオープンアクセスのオプションが含まれます。記入を終えたら、重要なコマンドが含まれたコピーがもらえるので、それをドキュメントに入れてください。
あなたの作品を分類する
人々があなたの作品を簡単に見つけられるように、ACMコンピューティング分類システムを使ってカテゴリー分けをする必要があります。これは、SNSの投稿にタグを付けることに似ています。興味がある人があなたの記事を見つけやすくなります!研究を説明するキーワードも加えてみてね。
ドキュメントの整理
あなたの論文は、セクションやサブセクションがある明確な構造に従うべきです。これらのセクションは番号を付けてください。セクションヘッダーのように太字やイタリック体を使うのは控えて、適切なコマンドを使ってください。一貫性が大事だよ!
表と図
もし表や図があるなら、わかりやすくきちんとフォーマットしてください。表のキャプションは表の上に、図のキャプションは下に置きます。常に図の説明を加えて、アクセシビリティを確保してください。これにより、視覚的な情報が分かるようになります、特に視覚に障害のある人たちにはね。
数学的な式を書く
あなたの作品に数学が含まれている場合、異なるスタイルで式を含めることができます。例えば、インラインの式はテキストの中に自然に入る一方で、ディスプレイの式は独立して中央に配置されます。読みやすくきちんとフォーマットされていることを確認してね。
引用と参考文献
他の人の作品を参照する際は、注意深く行ってください。BibTeXを使うと引用をきれいに管理・フォーマットできます。読者が簡単に追跡できるように、フルネームと詳細な情報を必ず含めてください。
謝辞
感謝の気持ちを表すのを忘れずに!あなたの研究を手助けしてくれた個人やグループを言及してください。このセクションは参考文献の前に置くべきです。「acks」環境を使って、感謝が正しくフォーマットされるようにしましょう。
付録を追加する
もしあなたの作品を支えるけれど、本文にきちんと収まらない追加資料がある場合、付録を追加できます。ただし、ラベルを付けて、セクション番号には通常の数字ではなく文字を使ってください。
拡張要約の特別テンプレート
もしSIGCHI拡張要約を提出する場合、ユニークなフォーマットが可能な特別なテンプレートがあります。マージンにものを追加したり、サイドバーを加えたりして、あなたの作品をさらに目立たせることができます。
結論
ACMの記事テンプレートに従うことで、あなたの作品が読みやすく、理解しやすくなります。これは、時々トリッキーな学術出版のプロセスを通じての頼りになるガイドのようなものです。ルールを守り、整理整頓を保てば、あなたの研究で素晴らしい印象を与えることができるよ。楽しい執筆を!
タイトル: Learning from Limited and Imperfect Data
概要: The datasets used for Deep Neural Network training (e.g., ImageNet, MSCOCO, etc.) are often manually balanced across categories (classes) to facilitate learning of all the categories. This curation process is often expensive and requires throwing away precious annotated data to balance the frequency across classes. This is because the distribution of data in the world (e.g., internet, etc.) significantly differs from the well-curated datasets and is often over-populated with samples from common categories. The algorithms designed for well-curated datasets perform suboptimally when used to learn from imperfect datasets with long-tailed imbalances and distribution shifts. For deep models to be widely used, getting away with the costly curation process by developing robust algorithms that can learn from real-world data distribution is necessary. Toward this goal, we develop practical algorithms for Deep Neural Networks that can learn from limited and imperfect data present in the real world. These works are divided into four segments, each covering a scenario of learning from limited or imperfect data. The first part of the works focuses on Learning Generative Models for Long-Tail Data, where we mitigate the mode-collapse for tail (minority) classes and enable diverse aesthetic image generations as head (majority) classes. In the second part, we enable effective generalization on tail classes through Inductive Regularization schemes, which allow tail classes to generalize as the head classes without enforcing explicit generation of images. In the third part, we develop algorithms for Optimizing Relevant Metrics compared to the average accuracy for learning from long-tailed data with limited annotation (semi-supervised), followed by the fourth part, which focuses on the effective domain adaptation of the model to various domains with zero to very few labeled samples.
最終更新: Nov 11, 2024
言語: English
ソースURL: https://arxiv.org/abs/2411.07229
ソースPDF: https://arxiv.org/pdf/2411.07229
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。