NLP研究の主要な課題に取り組む
調査によると、NLP研究で持続可能性とリソースへのアクセスに関する重要な懸念があるみたい。
― 1 分で読む
最近の自然言語処理(NLP)における進展は、数百万から数十億のパラメータを持つ大規模言語モデルの使用から主に来ているんだ。これらの進展はすごいけど、高い計算コストが伴って、持続可能性や再現性、公平性についての重要な問題が浮上してる。
この調査は、NLPコミュニティのメンバーからの反応を集めることで、これらの懸念をより深く理解することを目指したんだ。環境への影響、計算リソースへのアクセスの公平性、そしてこれらの要因が査読プロセスにどのように影響するかの3つの主要な領域に焦点を当てたよ。
調査の概要
調査は17日間行われ、学生、研究者、業界の専門家など、NLP分野の312人の参加者からの反応を集めた。主な目的は、さまざまな研究者グループの共通の懸念や違いを定量化するために、意見や経験を集めることだったよ。
主要な発見
環境への影響: 多くの参加者がNLP研究の環境への影響を心配していると表現した。半数以上が、自分の仕事と関連する温室効果ガスの排出について、かなりの関心を持っていることが分かったよ。
リソースへのアクセス: 多くの参加者は計算リソースへのアクセスが限られていると報告した。かなりの数の参加者が10台未満のGPUしか持っておらず、62%が8台未満のアクセスしかなかった。これがしばしば必要な実験を行ったり、結果を再現したりするのを妨げている。
査読の問題: 参加者はまた、かなりの計算リソースが必要なことが査読プロセスにどう影響するかについてコメントした。一部は、コストがかかりすぎる実験を行うように査読者から要求されて、フラストレーションや不公平感を感じると報告したよ。
環境問題
NLPの環境への影響に関する懸念について尋ねたところ、多くの研究者がこの問題に取り組む必要性を感じていることがわかった。大規模モデルのトレーニングには多くの電力が必要で、温室効果ガスの排出に寄与することがあるんだ。
参加者は環境問題に関連する2つの主な要因を特定した:
モデルのトレーニング: トレーニング段階ではかなりのエネルギーを消費する。多くのモデルは、長期間にわたって多数の実験を行うことが必要な、広範なパラメータ調整や開発を経る。
モデルの選定: 正しいモデルを選ぶプロセスもリソースを多く必要とする。研究者は通常、最も効果的なアプローチを見つけるまでにいくつかの異なる方法を試すことが多い。
興味深いことに、一部の参加者はNLPの環境への影響は、航空旅行や大手テクノロジー企業の運営など、気候変動に関連する他の要因と比べると小さいと考えているんだ。
アクセスの公平性
計算リソースへのアクセスの公平性も、NLPコミュニティにおける主要な懸念の一つだ。調査から得られた結果では、強力なハードウェアへのアクセスは均等に分配されていないことが明らかになった。
GPUの分配
結果は、多くの参加者(87.8%)が調査グループ全体で利用可能なGPUの10%未満にしかアクセスできていないことを示した。この不均衡は、最先端の技術を使うことができる人とできない人との間にどれだけの格差があるのかを示している。
- 学生: 多くの学生はリソースの制限から実験を行うのに大きな課題を報告している。
- 業界の研究者: 小さい会社で働いている人々も困難を訴えているが、大手企業には通常、より良い計算能力へのアクセスがある。
職種間の格差を分析すると、大規模な産業企業の研究者は、アカデミアや小規模な産業の研究者に比べてGPUへのアクセスが多いということがわかった。
限られたアクセスの影響
リソースへの限られたアクセスは研究の進展を妨げる可能性がある。多くの参加者は、十分な計算能力がないために重要な実験を実行できなかったと報告している。この状況は、特に学生や小さな企業で働く研究者にとって、コミュニティの基準を満たす結果を得るのを難しくしているんだ。
査読への影響
調査は、これらの問題が査読プロセスにどう影響するかについても取り上げた。多くの参加者が、査読者に対して自分には実行不可能な実験を行うように求められたと示した。
査読者の期待
参加者の約30%が、査読中に高価な実験の要求を受けたと報告した。多くの人にとって、これらの要求は正当ではないと感じられ、査読プロセスにおける不公平感を高めている。
査読者からのフィードバックは、すべての研究者が同じレベルのリソースへのアクセスを持っているわけではないという事実を見落とすことがある。これは、著者がレビューの要求に応じる余裕がなかったために、価値ある研究が却下されることにつながるかもしれない。
改善のための提案
参加者は、査読プロセスを改善するためのいくつかの提言を共有した:
正当性の要求: 多くの人が、査読者は著者が報告した利用可能なリソースに基づいて追加実験の要求を正当化することが求められるべきだと提案した。これにより、公平性と理解が促進される。
効率性トラック: 資源使用を最小限に抑えつつ高品質の結果を提供することに焦点を当てた提出を奨励するために、効率的な手法のための専用トラックを支持する人が多かった。
小型モデルのバージョン: より大きなバージョンと共に、小型の事前トレーニング済みモデルをリリースする強い呼びかけがあった。これは、リソースが限られた研究者が価値ある作業をするのを容易にする。
結論
この調査は、NLP研究における環境影響、アクセスの公平性、査読に関する重要な懸念を浮き彫りにした。多くの参加者は、これらの問題に対処することが、公平で持続可能な研究環境を促進するために重要だと感じている。
提言
調査で示された課題に対処するために、次の提言を提案するよ:
透明性の促進: 研究者は、論文を提出する際に計算リソースを明確に報告するよう奨励されるべきだ。これにより、査読者は研究の文脈や再現性をよりよく理解できるようになる。
リソースの共有促進: コミュニティは、特に学生や小規模な企業のために、共同作業やリソースの共有を奨励するイニシアチブから利益を得ることができる。
機関のサポート: 大学や研究機関は、学生や若手研究者のためにより多くのサポートやリソースを提供して、競争を平等にすることを考慮するべきだ。
コミュニティの関与: NLPコミュニティは、環境への影響についての議論を続け、共に解決策を見つけるために協力するべきだ。
これらの提言を実施することで、NLP研究におけるより公平で持続可能な未来に向かって進むことができ、すべての人がこの分野に意味のある貢献をできるようになるんだ。
タイトル: Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research
概要: Many recent improvements in NLP stem from the development and use of large pre-trained language models (PLMs) with billions of parameters. Large model sizes makes computational cost one of the main limiting factors for training and evaluating such models; and has raised severe concerns about the sustainability, reproducibility, and inclusiveness for researching PLMs. These concerns are often based on personal experiences and observations. However, there had not been any large-scale surveys that investigate them. In this work, we provide a first attempt to quantify these concerns regarding three topics, namely, environmental impact, equity, and impact on peer reviewing. By conducting a survey with 312 participants from the NLP community, we capture existing (dis)parities between different and within groups with respect to seniority, academia, and industry; and their impact on the peer reviewing process. For each topic, we provide an analysis and devise recommendations to mitigate found disparities, some of which already successfully implemented. Finally, we discuss additional concerns raised by many participants in free-text responses.
著者: Ji-Ung Lee, Haritz Puerto, Betty van Aken, Yuki Arase, Jessica Zosa Forde, Leon Derczynski, Andreas Rücklé, Iryna Gurevych, Roy Schwartz, Emma Strubell, Jesse Dodge
最終更新: 2023-11-09 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2306.16900
ソースPDF: https://arxiv.org/pdf/2306.16900
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。