OpenAIとMITメディアラボは、AIチャットボットとの対話が人々の社会的・情緒的健康にどのような影響を与えるかを調査する共同研究「Early methods for studying affective use and emotional well-being on ChatGPT(ChatGPTにおける感情的利用と情緒的健康を研究するための初期手法)」を発表しました。
研究の背景
人々はChatGPTなどのAIチャットボットを質問応答、創造性の刺激、問題解決、さらには個人的な対話など様々な方法で利用しています。これらのツールは日常生活を向上させる可能性がありますが、AIチャットボットとの対話が人々の社会的・情緒的健康にどのように影響するかという重要な疑問が生じています。
ChatGPTは人間関係を代替または模倣するようには設計されていませんが、その会話スタイルと拡張する能力により、人々はそのような方法で使用する可能性があります。この研究は、感情的関与を含むAI利用(「感情的利用」と呼ぶ)がユーザーの健康にどのように影響するかを理解するために行われました。
研究アプローチ
研究チームは2つの並行する研究を実施しました:
研究1: 実世界での使用パターン分析
OpenAIチームは、ユーザープライバシーを確保するために人間の関与なしで、約4,000万件のChatGPTの対話の大規模な自動分析を実施しました。この分析とターゲットを絞ったユーザー調査を組み合わせ、実世界での使用状況の洞察を得ました。
研究2: 制御された介入研究
MITメディアラボチームは、4週間にわたってChatGPTを使用する約1,000人の参加者と共にランダム化比較試験(RCT)を実施しました。この研究は、特定のプラットフォーム機能(モデルのパーソナリティやモダリティなど)と使用タイプが、ユーザーの自己報告による心理社会的状態にどのように影響するかについての因果関係を特定するために設計されました。
主な発見
- 感情的関与は稀:実際のプラットフォーム上の会話の大多数では感情的手がかり(共感、愛情、サポートを示す対話の側面)は存在せず、感情的に関与することはChatGPTでは稀なユースケースであることを示しています。
- ヘビーユーザーでも高度な感情的利用は限定的:感情的表現を含む対話は、研究対象のヘビーAdvanced Voice Modeユーザーの小さなグループでのみ大きな割合を占めていました。このサブセットのヘビーユーザーは、「ChatGPTを友人だと考えている」などの記述に同意する可能性が有意に高いことも明らかになりました。
- ボイスモードの影響は混在:テキストでChatGPTと対話するユーザーは、音声ユーザーと比較してメッセージ全体で感情的手がかりをより多く示しました。ボイスモードは短時間使用時には健康状態が良好でしたが、長時間の日常使用では悪化しました。重要なことに、より魅力的な音声を使用しても、研究期間中のユーザーに対して中立的な音声やテキスト条件と比較してより悪い結果をもたらすことはありませんでした。
- 会話タイプによる影響の違い:個人的な会話(非個人的な会話と比較してユーザーとモデルの両方からより多くの感情表現を含む)は、中程度の使用レベルでは孤独感は高いものの、感情的依存と問題のある使用が少ないという関連がありました。対照的に、非個人的な会話は、特に頻繁な使用で感情的依存を増加させる傾向がありました。
- 個人的要因の影響:制御された研究により、ユーザーの情緒的健康に影響を与える可能性のある他の要因を特定することができました。人間関係での愛着傾向が強い人やAIを個人生活に適合する友人と見なす人は、チャットボット使用からの悪影響を経験する可能性が高いことがわかりました。また、長時間の日常使用も悪い結果と関連していました。
- 研究方法の組み合わせ:実世界の使用状況と制御された実験を分析することで、使用の異なる側面をテストすることができました。プラットフォームデータは有機的なユーザー行動を捉え、制御された研究は特定の変数を分離して因果関係を決定します。
結論と今後の展望
この研究は、高度なAIモデルが人間の経験と健康に与える影響を理解するための重要な第一歩です。OpenAIはユーザーの利益を最大化し、健康への悪影響や過度の依存などの潜在的な害を最小化するAIの構築に焦点を当てています。この研究は、OpenAIと業界全体の両方にとって新たな課題を先取りするために実施されました。
また、OpenAIはモデルに関する明確な期待をユーザーに設定することも目指しています。これには、ChatGPTの意図された行動、機能、制限についてより透明性を提供するためのモデル仕様の更新も含まれます。OpenAIの目標は、責任あるAI基準の決定をリードし、透明性を促進し、イノベーションがユーザーの健康を優先することを保証することです。
研究の制限
この研究にはいくつかの重要な制限があります:
- まだピアレビューを受けていない結果であること
- ChatGPTプラットフォームに基づいて実施されたため、他のAIチャットボットプラットフォームのユーザーは異なる経験や結果を持つ可能性があること
- すべての発見が明確な因果関係を示すわけではないこと
- 自己報告データはユーザーの本当の感情や経験を正確に捉えていない可能性があること
- 行動と健康状態の有意義な変化を観察するには、より長い研究期間が必要かもしれないこと
- 感情的手がかりについて推論するために自動分類器を使用したが、これらは不完全であり重要なニュアンスを見逃す可能性があること
- この研究は英語会話と米国参加者のみに焦点を当てており、AIとの感情的な相互作用を完全に理解するためには、多様な言語と文化にわたるさらなる研究が必要であること
出典: OpenAI - Early methods for studying affective use and emotional well-being on ChatGPT(2025年3月21日)
関連リポジトリ: GitHub - OpenAI