中国AI規制の考察|世界初「感情安全性」に焦点を当てたチャットボット規制案

中国AI規制の考察|世界初「感情安全性」に焦点を当てたチャットボット規制案

更新日:2025年12月30日

2025年12月27日、中国国家インターネット情報弁公室(CAC)が「擬人化AI対話サービス管理暫定弁法」の草案を公表しました。AIチャットボットによる感情操作や依存症リスクに対応する世界初の包括的規制案であり、自殺防止のための人間介入義務化、2時間連続利用時の休憩通知、未成年者保護など具体的な措置が盛り込まれています。その内容と国際的な影響について調査・考察してみました。参考になれば幸いです。

1. 規制案の概要と背景

中国国家インターネット情報弁公室(Cyberspace Administration of China, CAC)は2025年12月27日、「人工智能拟人化互动服务管理暂行办法(擬人化AI対話サービス管理暫定弁法)」の草案を公表し、パブリックコメントの募集を開始した。意見募集期間は2026年1月25日までである。

本規制案は、人間の性格特性、思考パターン、コミュニケーションスタイルを模倣し、テキスト、画像、音声、動画などを通じてユーザーと感情的な対話を行うAIサービスを対象としている。具体的には、AIコンパニオンアプリ、バーチャル恋人、感情応答型アシスタントなど、人間と機械の境界を曖昧にするサービスが該当する。

規制案策定の背景には、世界的に報告されているAIチャットボット関連の深刻な事案がある。2025年には、AIチャットボットとの長時間対話後に自殺に至った事例が複数報告されており、米国ではOpenAIに対する訴訟も提起されている。また、ユーザーがAIに過度に感情的に依存する「AIコンパニオン依存症」の問題も顕在化している。

規制対象の定義
本規制案では「擬人化対話サービス」を、人間の性格特性・思考パターン・コミュニケーションスタイルを模倣し、テキスト・画像・音声・動画等を通じてユーザーと感情的対話を行うAI製品・サービスと定義。登録ユーザー100万人以上、または月間アクティブユーザー10万人以上のサービスは強制的なセキュリティ評価の対象となる。

NYU法科大学院客員教授のWinston Ma氏は、本規制案について「2023年の生成AI規制と比較すると、コンテンツ安全性から感情安全性への飛躍を示している」と評価している。中国は2023年に生成AI、レコメンデーションアルゴリズム、ディープフェイクに関する規制を既に施行しており、本規制案はそれらに続くAIガバナンス体制の拡充となる。

2. 主要な規制内容の詳細

本規制案は、AIチャットボット事業者に対して包括的な安全義務を課している。特に注目すべきは、感情操作の禁止、自殺防止措置、利用時間制限、未成年者保護の4つの柱である。

規制項目 具体的内容 根拠条文
禁止コンテンツ 自殺・自傷の美化・示唆、言語的暴力、感情操作、虚偽の約束 第7条
自殺防止措置 ユーザーが自殺・自傷を示唆した場合、即座に人間が会話を引き継ぎ、保護者・緊急連絡先に通知 第11条
利用時間制限 2時間連続利用時にポップアップで休憩を促す通知を表示 第16条
未成年者保護 保護者の同意必須、利用時間制限、年齢非開示でも未成年者を識別する技術的措置 第12条
AI明示義務 ユーザーに対し、対話相手がAIであり人間ではないことを明確に通知 第16条
依存症検知 ユーザーの感情状態と依存度を評価するシステムの構築義務 第9条・第11条

第7条では、国家安全を脅かすコンテンツ、違法な宗教活動の促進、暴力・わいせつコンテンツの生成を禁止するとともに、アルゴリズム操作、情報の虚偽表示、「感情の罠」を用いて不合理な意思決定を誘導することを明確に禁じている。

第11条の自殺防止措置は特に厳格である。ユーザーが自殺や自傷を明示的に言及した場合、AIシステムは「即座に」(段階的ではなく)人間のオペレーターに会話を引き継がなければならない。これは裁量的な措置ではなく、手続き的義務として規定されている。同時に、保護者または指定された緊急連絡先への通知も義務付けられている。

第10条では、モデルの事前学習に使用するデータセットは「社会主義核心価値観に沿い、中国の伝統文化を反映する」ものでなければならないと規定されている。これは中国固有の要件であり、国際的な事業者にとっては課題となる可能性がある。

第9条では、事業者に対し「メンタルヘルス保護、感情境界のガイダンス、依存リスクの警告」を含む安全能力の保持を義務付けている。高リスクの傾向(生命、健康、財産を脅かす傾向)が検知された場合、システムは即座に「慰め、励ましのコンテンツ」を出力し、専門的支援チャネルを提供しなければならない。

3. 国際比較と今後の展望

本規制案は、感情操作や人間らしいAI設計のリスクに正面から取り組む世界初の包括的規制として位置づけられる。米国やEUも同様のリスクを認識しているが、そのアプローチは異なる。

各国・地域の規制アプローチ比較
中国:包括的な事前規制。感情操作の禁止、人間介入義務、利用時間制限を法制化
EU:AI法でリスクベースの分類。心理的脆弱性の悪用は禁止だが、感情AIに特化した規定なし
米国:連邦レベルの包括法なし。FTCの消費者保護、州法(カリフォルニアSB 243等)で対応
日本:AI事業者ガイドライン(2024年)で原則を示すが、感情AIに特化した規制なし

EUのAI法は、教育や医療など機密性の高い分野で使用される場合、感情コンパニオンボットを「ハイリスクAI」に分類する可能性がある。しかし、チャットボットにおける感情操作を具体的に対象とした規定は設けられていない。一方、中国の規制案は、感情的データや行動データの厳格な管理を義務付け、明示的な同意なしにモデル訓練に使用することを制限している。

米国では、2025年にFTC(連邦取引委員会)がAIコンパニオンチャットボットに関する調査を開始し、7社に対して子供への潜在的危害と保護措置について説明を求めた。カリフォルニア州では2025年10月にSB 243が署名され、2026年初頭に施行予定である。この州法は、ユーザーが未成年者であることが判明した場合、3時間ごとにポップアップリマインダーを表示し、AIとの対話であることを年齢に適した言葉で再度強調することを義務付けている。

本規制案の公表は、中国のAIチャットボット企業2社(MiniMaxとZhipu/Z.ai)が香港でのIPOを申請した直後というタイミングであった。MiniMaxは国際的にはTalkieアプリで知られ、バーチャルキャラクターとの対話サービスを提供している。同社の2025年1〜9月の収益の3分の1以上は、このアプリと中国国内版の星野(Xingye)が占めている。

AI事業者・開発者への示唆

  • グローバル展開:中国市場向けサービスでは、感情状態の評価システム、人間介入メカニズム、利用時間制限機能の実装が必須に
  • 技術的課題:ストレスのカジュアルな言及と真の危機を区別する高度な自然言語処理が求められる
  • プライバシー:感情データの監視と安全性確保のバランスが課題。過剰な監視への懸念も
  • 国際標準化:中国の規制が他国の立法に影響を与える可能性。先行対応が競争優位に

本規制案は、AIと人間の関係における心理的側面にどのように政府が対処しうるかの先例を示すものである。西側諸国の規制当局がほとんど手をつけていない領域であり、今後の国際的な議論に影響を与える可能性が高い。一方で、批評家からは、過度に制限的な規則がセラピーボットや教育用ボットなど有益な用途を阻害する可能性への懸念も示されている。

中国のアプローチは、テクノロジーの社会的役割に対するパターナリスティックな見方を反映している。保護者通知の義務化により、国家の監視が個人のデジタル対話にまで及ぶことになる。AIがユーザーの意図を誤解した場合の過剰介入リスクも指摘されており、実装段階での課題は少なくない。

参考文献
[1] CNBC, "China to crack down on AI chatbots around suicide, gambling," 2025年12月29日. https://www.cnbc.com/2025/12/29/china-ai-chatbot-rules-emotional-influence-suicide-gambling-zai-minimax-talkie-xingye-zhipu.html
[2] The AI Insider, "China Publishes Draft of Regulations for Human-Like AI Tech," 2025年12月27日. https://theaiinsider.tech/2025/12/27/china-publishes-draft-of-regulations-for-human-like-ai-tech/
[3] Geopolitechs, "What's in China's first drafts rules to regulate AI companion addiction?" 2025年12月27日. https://www.geopolitechs.org/p/whats-in-chinas-first-drafts-rules
[4] H2S Media, "China Proposes Regulations for Anthropomorphic AI Chatbot Services," 2025年12月29日. https://www.how2shout.com/news/china-anthropomorphic-ai-regulations-chatbot-companion-services-2025.html
[5] Mobile App Daily, "China drafts rules on emotional safety for AI chatbots," 2025年12月29日. https://www.mobileappdaily.com/news/china-draft-rules-emotional-safety-ai-chatbots

免責事項
本記事は2025年12月30日時点の情報に基づいています。規制案はパブリックコメント段階であり、最終版では内容が変更される可能性があります。法的判断は専門家にご相談ください。