OpenAIとMITメディアラボによるChatGPTの感情的利用と情緒的健康に関する共同研究

OpenAIとMITメディアラボは、AIチャットボットとの対話が人々の社会的・情緒的健康にどのような影響を与えるかを調査する共同研究「Early methods for studying affective use and emotional well-being on ChatGPT(ChatGPTにおける感情的利用と情緒的健康を研究するための初期手法)」を発表しました。

研究の背景

人々はChatGPTなどのAIチャットボットを質問応答、創造性の刺激、問題解決、さらには個人的な対話など様々な方法で利用しています。これらのツールは日常生活を向上させる可能性がありますが、AIチャットボットとの対話が人々の社会的・情緒的健康にどのように影響するかという重要な疑問が生じています。

ChatGPTは人間関係を代替または模倣するようには設計されていませんが、その会話スタイルと拡張する能力により、人々はそのような方法で使用する可能性があります。この研究は、感情的関与を含むAI利用(「感情的利用」と呼ぶ)がユーザーの健康にどのように影響するかを理解するために行われました。

研究アプローチ

研究チームは2つの並行する研究を実施しました:

研究1: 実世界での使用パターン分析

OpenAIチームは、ユーザープライバシーを確保するために人間の関与なしで、約4,000万件のChatGPTの対話の大規模な自動分析を実施しました。この分析とターゲットを絞ったユーザー調査を組み合わせ、実世界での使用状況の洞察を得ました。

研究2: 制御された介入研究

MITメディアラボチームは、4週間にわたってChatGPTを使用する約1,000人の参加者と共にランダム化比較試験(RCT)を実施しました。この研究は、特定のプラットフォーム機能(モデルのパーソナリティやモダリティなど)と使用タイプが、ユーザーの自己報告による心理社会的状態にどのように影響するかについての因果関係を特定するために設計されました。

主な発見

結論と今後の展望

この研究は、高度なAIモデルが人間の経験と健康に与える影響を理解するための重要な第一歩です。OpenAIはユーザーの利益を最大化し、健康への悪影響や過度の依存などの潜在的な害を最小化するAIの構築に焦点を当てています。この研究は、OpenAIと業界全体の両方にとって新たな課題を先取りするために実施されました。

また、OpenAIはモデルに関する明確な期待をユーザーに設定することも目指しています。これには、ChatGPTの意図された行動、機能、制限についてより透明性を提供するためのモデル仕様の更新も含まれます。OpenAIの目標は、責任あるAI基準の決定をリードし、透明性を促進し、イノベーションがユーザーの健康を優先することを保証することです。

研究の制限

この研究にはいくつかの重要な制限があります:

出典: OpenAI - Early methods for studying affective use and emotional well-being on ChatGPT(2025年3月21日)

関連リポジトリ: GitHub - OpenAI

OpenAI ChatGPT AI研究 心理学
× 拡大図