モバイル技術を通じた聴覚的幻覚の洞察
研究は、モバイルデータが聴覚的な言語幻覚を理解するのにどう役立つかを探ってる。
― 1 分で読む
幻覚は、実際には存在しないものを人が知覚する体験のことだよ。その中の一つが聴覚幻覚で、外部の音源なしに音や声を聞くことがあるんだ。聴覚言語幻覚(AVH)は誰も話していないのに声が聞こえる体験を指すんだ。この現象は、双極性障害や統合失調症などのメンタルヘルスの問題が診断された人に多く見られるよ。
聴覚言語幻覚における価数の重要性
AVHをよりよく理解するために、声の性質について見てみよう-それはネガティブかポジティブか?この側面を「価数」と呼ぶんだ。人々が聞く声に対してどんな気持ちを抱いているかを評価することで、彼らのメンタルヘルスの状態の深刻さを知る手がかりになるんだ。この研究では、AVHを体験していると報告した435人と一緒に作業したよ。参加者はモバイルアプリを使って、自分の体験についての情報を共有し、1日に何度も聞こえる声に対する感情を評価したんだ。
データ収集の方法
参加者はスマホで4回、聞こえる声の性質を示すよう促されたよ。「全くない」から「非常にある」までの選択肢があったんだ。この方法はエコロジカル瞬間評価(EMA)と呼ばれ、リアルタイムのデータを集めることができたんだ。これらの自己報告に加えて、参加者はオーディオ日記を記録して、体験していることを言葉で表現したんだ。
モバイルセンシングを通じて追加データも集めたよ。これには、参加者の周囲や行動に関する情報が含まれていて、参加者が積極的に関与しなくても収集できるんだ。携帯デバイスを通じて集めたさまざまな特徴を使って、これらの要因とAVHの発生の関係を分析したんだ。
予測へのアプローチ
オーディオ日記やモバイルセンシングから集めた情報が、聴覚言語幻覚の発生や性質をどれくらい予測できるかを理解したかったんだ。機械学習やデータ融合の高度な技術を使って、収集したデータに基づいて声の価数を予測するモデルを作ったんだ。私たちのニューラルモデルは、幻覚された声の性質を予測するのに、おおよそ54%のトップ1スコアと72%のトップ2スコアを達成したよ。
聴覚言語幻覚の普及
聴覚言語幻覚は珍しいことじゃないよ。研究によれば、一般の人口の5%から28%がAVHを経験することがあるんだ。これらの体験は通常、統合失調症のような重度のメンタル疾患と関連づけられるけど、声を聞く多くの人は精神病の基準に当てはまらないことも多いんだ。
メンタルケアが必要な人とそうでない人を区別することが重要なんだ。一部の人はプロの助けなしで体験を管理できるけど、他の人はもっと集中したサポートが必要かもしれない。この体験のばらつきが、AVHをさらに研究する必要性を大切にしているんだ。
モバイルセンシングをツールとして
モバイル技術はメンタルヘルスのモニタリングにおいて重要なリソースになっているんだ。これらのデバイスは、個人の周囲や行動に関するデータを受動的に集めることができ、研究者は不安やうつ病のようなメンタルヘルスの問題の初期兆候を特定できるんだ。スマートフォンのさまざまなセンサーは、位置の追跡やパターンの明らかにすること、心拍数のような生理的反応を測定することまで、広範囲なデータ収集を可能にするんだ。
私たちは、EMAプロセスを促進するためにモバイルアプリケーションも利用したよ。参加者に現在の体験について質問に答えるよう促したんだ。この方法のリアルタイムな性質が、従来の回顧的な方法に比べてより正確なデータをキャッチできるんだ。
言語とメンタルヘルス
言語の使い方はメンタルヘルスに関して非常に興味深い分野なんだ。研究者は、日常的な言語の微妙な側面が、潜在的なメンタルヘルスの問題を示すかもしれないことを発見したんだ。特定の言語的マーカーは精神病の可能性を予測するかもしれないし、聴覚幻覚は精神病の主要な症状の一つなんだ。
最近の自然言語処理の進展が、話し方パターンの分析や聴覚幻覚の初期兆候の検出に新たな可能性を開いているんだ。人々が自分の体験についてどのように話すかを調べることで、彼らのメンタルヘルスについて貴重な洞察を得られるんだ。
私たちの研究目的
私たちの主な目標は、聴覚言語幻覚の価数を評価することだったんだ。声が主にネガティブかどうかを理解したかったんだ。これは、重度の精神病エピソードのリスクが高いことを示すかもしれないんだ。私たちの研究は、モバイル技術がメンタルヘルスの評価、特にAVHに関連して効果的に使える方法を示すことを目指しているんだ。
研究方法論
私たちは声を聞くと報告した人々と一緒に作業し、EMAやオーディオ日記を通じてデータを収集したんだ。参加者はアプリの使い方や研究中に収集されるデータについて指示を受けたんだ。データには自己報告と受動的センシングの情報が含まれていて、異なる変数がAVHの体験にどのように関連しているかを調べることができるんだ。
データ収集プロセス
参加者はオンライン広告を通じて研究にアクセスしたんだ。彼らは聴覚言語幻覚を経験していることに関連する特定の基準を満たしているかを確認するためのスクリーニングプロセスを受けたよ。適格な人には、私たちのモバイルアプリのインストール方法を案内し、同意を提供してもらい、収集されるデータについて説明したんだ。
参加者のデモグラフィック
合計で435人が私たちの研究に参加したよ。参加者の大多数は女性で、25歳から50歳の年齢層が多かったんだ。参加者にはメンタルヘルスの診断について報告してもらい、私たちが研究している人口をより良く理解するために助けてもらったんだ。
エコロジカル瞬間評価(EMA)
EMAのプロセスは私たちの研究の中心だったんだ。参加者はスマホで、現在声を聞いているか尋ねられたよ。「はい」と答えたら、声の価数、大きさ、声に対するコントロール感、そしてその力についてのフォローアップ質問があったんだ。これらの質問から得られたデータが、私たちの分析の基盤を形成したよ。
アクティブデータとパッシブデータ
私たちの研究は、アクティブデータとパッシブデータの両方の収集方法を利用したんだ。アクティブデータは、参加者がEMAの促しに応じて記録したオーディオ日記から得られたよ。参加者は自分のAVHの体験を詳しく説明できたんだ。一方、パッシブデータは、参加者がモバイルデバイスを使っている間にバックグラウンドで収集されたセンサー情報を含んでいるんだ。
オーディオ日記とその役割
参加者がAVH体験を報告したとき、彼らは聞いたことを説明するオーディオ日記を録音するオプションがあったんだ。この録音は文字起こしされ、声の性質に関する深い洞察を得るために分析されたんだ。オーディオ日記データとEMAの応答を組み合わせることで、各参加者の体験をより明確に把握することを目指したんだ。
受動的センシングデータ
私たちのモバイルアプリは、参加者がデバイスを使用している間も受動的センシングデータを収集したんだ。このデータは、位置情報、電話の使用状況、周りで行われている会話などの文脈情報をキャッチしたんだ。センシングデータは、AVHの自己報告された体験と相関させるための追加の情報層として機能したんだ。
データ分析とモデルのトレーニング
データを集めた後、分析フェーズに移って、収集した特徴セットを使ってさまざまなモデルをトレーニングしたんだ。私たちのアプローチは、オーディオ日記から聴覚的特徴を生成し、音声からテキストへの技術を使ってテキストの特徴を抽出し、マシンラーニングに適した形にパッシブセンシングデータを変換することだったんだ。
私たちは、モデルのパフォーマンスを向上させるために転移学習のような高度な技術を使ったんだ。既存の事前トレーニングされたモデルを活用することで、聴覚言語幻覚の価数を予測するニューラルネットの能力を向上させることができたんだ。
研究結果
私たちの結果は、オーディオ日記、テキストの文字起こし、受動的センシングデータの特徴を組み合わせたハイブリッドモデルがAVHイベントの予測に最も効果的だということを示したんだ。このモデルは、トップ1予測で54%、トップ2予測で72%のスコアを達成し、統合されたアプローチの効果を示しているんだ。
研究の影響
私たちの発見は、モバイルアプリケーションがAVHを経験している患者をモニタリングするために医療専門家にとって重要である可能性を示唆しているんだ。このようなツールは、聴覚幻覚のイベントを継続的に評価でき、その深刻さや発生状況を理解する手助けになるんだ。定期的な更新のプラットフォームを提供することで、患者と専門家の両方がメンタルヘルスの変化に迅速に反応できるんだ。
プライバシーの懸念に対処
モバイルデータ収集の増加に伴い、参加者のプライバシーとデータセキュリティを優先する責任が生じているんだ。一つの解決策は、生データへのアクセスを制限し、敏感な情報が参加者のデバイスに留まるようにすることだよ。必要な分析をローカルで行うことで、データが誤用されたり不適切に共有されたりするリスクを最小限に抑えることができるんだ。
関連研究
私たちの研究は、メンタルヘルスのモニタリングにおけるモバイル技術の利点を強調する他の研究と一致しているんだ。さまざまな研究が、不安、うつ病、その他のメンタルヘルスの状態の兆候を認識するための受動的データの価値を示しているんだ。EMAに基づくアプローチを使用することで、研究者はリアルタイムデータを成功裏にキャッチし、メンタル状態のより正確な評価につながっているんだ。
結論
要するに、私たちの研究は聴覚言語幻覚を理解し、評価するためのモバイル技術の可能性を示しているんだ。自己報告データと受動的センシングを統合することで、AVHを経験している個人の包括的な視点を得ることができるんだ。この研究が、メンタルヘルスケアにおけるより効果的なモニタリングと介入戦略を道筋を示すことを期待しているよ。
タイトル: Using Mobile Data and Deep Models to Assess Auditory Verbal Hallucinations
概要: Hallucination is an apparent perception in the absence of real external sensory stimuli. An auditory hallucination is a perception of hearing sounds that are not real. A common form of auditory hallucination is hearing voices in the absence of any speakers which is known as Auditory Verbal Hallucination (AVH). AVH is fragments of the mind's creation that mostly occur in people diagnosed with mental illnesses such as bipolar disorder and schizophrenia. Assessing the valence of hallucinated voices (i.e., how negative or positive voices are) can help measure the severity of a mental illness. We study N=435 individuals, who experience hearing voices, to assess auditory verbal hallucination. Participants report the valence of voices they hear four times a day for a month through ecological momentary assessments with questions that have four answering scales from ``not at all'' to ``extremely''. We collect these self-reports as the valence supervision of AVH events via a mobile application. Using the application, participants also record audio diaries to describe the content of hallucinated voices verbally. In addition, we passively collect mobile sensing data as contextual signals. We then experiment with how predictive these linguistic and contextual cues from the audio diary and mobile sensing data are of an auditory verbal hallucination event. Finally, using transfer learning and data fusion techniques, we train a neural net model that predicts the valance of AVH with a performance of 54\% top-1 and 72\% top-2 F1 score.
著者: Shayan Mirjafari, Subigya Nepal, Weichen Wang, Andrew T. Campbell
最終更新: 2023-04-20 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2304.11049
ソースPDF: https://arxiv.org/pdf/2304.11049
ライセンス: https://creativecommons.org/licenses/by-nc-sa/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。