結論: 中国のCAC(サイバースペース管理局)が2026年4月3日に「デジタルヒューマン規制草案」を発表。死者AIアバターを含む人格模倣AIサービスへの同意なき使用を禁止し、最大200,000元(約430万円)の罰金を規定。日本企業が今すぐ点検すべきAI倫理対応を解説します。
この記事の要点:
- 中国CAC草案: 個人情報・生体認証データなしにAIアバターを作成・運用することを禁止
- Super Brainなど「死者AIアバター」企業が産業化 — 罰金10,000〜200,000元(約21万〜430万円)
- 日本企業が取るべき3つの対応: AI倫理ポリシー整備・同意フロー設計・グローバル規制モニタリング
対象読者: AI活用を進める経営者・法務・情報システム部門担当者
読了後にできること: 自社のAI利用における同意・プライバシー対応の課題を特定し、日本とグローバルの規制リスクを評価できる
「このAIアバターは、亡くなった方のご家族から同意を得ていますか?」
この質問が、AI倫理の議論で2026年に最も頻繁に投げかけられるようになっています。
2026年4月、中国で「デジタルヒューマン」産業への規制草案が公表されました。AIで故人を「復活」させるサービス、芸能人の無断アバター、感情的な依存を生む「AI恋人」——これらに対する規制の動きは、AIガバナンスの新しい地平を示しています。
100社以上の企業向けAI研修・コンサルをしてきた実務視点から言えば、この規制は中国だけの話ではありません。日本でも同様の論点が数年以内に法制化される可能性が高い。今のうちに「自社のAI利用が同意・倫理の観点でどのような状態か」を点検しておくことが重要です。
AIガバナンスの基本については、AI導入戦略完全ガイドも合わせてご覧ください。
何が起きたのか — 中国CAC草案の全体像
発表の経緯とタイムライン
| 日付 | 出来事 |
|---|---|
| 2026年4月3日 | 中国CAC「デジタル仮想人管理草案」公表(パブリックコメント募集開始) |
| 2026年5月初旬(予定) | パブリックコメント締め切り |
| 2026年下半期(予測) | 正式施行の見込み(草案審議次第) |
| 2025年12月 | 前段として「人間型AI対話サービス暫定措置草案」発表(AI恋人・コンパニオン規制) |
規制の適用対象
草案が規制する「デジタル仮想人サービス」は以下を含みます:
- 故人の顔・声・しぐさをAIで再現した「死者アバター」
- 芸能人・一般人の生体認証データを使ったディープフェイク
- 感情的な親密関係を築くAIコンパニオン(恋人・親友型AI)
- ユーザーを過度な依存状態に誘導するAIサービス
主要な禁止事項と義務
- 同意なき生体認証使用の禁止: 本人または遺族の明示的な同意なしに、顔・声・動作パターンをAIで模倣することを禁止
- 明示的な「AI識別」義務: AIとのやり取りであることを常に明示。ユーザーが依存状態の兆候を示した場合はポップアップ警告を表示
- 未成年者への特別保護: 未成年への「AI親密関係」サービス、極端な感情を煽るコンテンツ、有害な習慣形成サービスを禁止
- 罰則: 違反には10,000〜200,000元(約21万〜430万円)の罰金。悪質な場合はサービス停止処分も
なぜこれが重要なのか — 死者AIアバター産業の実態
規制の背景にある産業の実態を見てみましょう。
Super Brainなど「デジタルヒューマン」企業の台頭
南京を拠点とするSuper Brain(超脳)は、2022年以降に600家族以上に対して「故人のAIアバター」を作成してきたスタートアップです。料金は基本プランで10,000〜20,000元(約21〜43万円)。20日ほどで生前の音声・映像データからAIアバターを生成します。
このサービスは中国社会で急速に広まりました。ある女性が癌で亡くなった父親のAIアバターと会話するエピソードがSNSで拡散。「亡くなった息子のアバターと話す老婦人」の動画クリップがWeiboで9,000万回を超える再生回数を記録しました。
一方で問題も噴出しています。
「父は2016年に亡くなりましたが、誰かが無断で父の映像からAIを作り、私の姪に送ってきた。私はひどく不快でした。許可を求めてもいなかった。これは言葉にできない痛みです。」
— Qiao Renliang(俳優)の父親、メディアインタビューより
この事件では、Weiboで関連ハッシュタグが2億4,000万回以上閲覧されました。80%以上の回答者が「このような技術は他者の痛みを商品化している」として反対意見を示しました(中国オンライン調査、32,180人回答)。
産業規模と主要プレイヤー
| 企業 | サービス内容 | 料金目安 |
|---|---|---|
| Super Brain(超脳) | 故人のAIアバター生成(家族向け) | 10,000〜20,000元 |
| HeyGen | デジタルヒューマン動画生成(B2B向け) | 月額$24〜 |
| Synthesia | 企業向けAIアバター動画 | 月額$30〜 |
| 各種SNSフィルターアプリ | セレブの顔・声を模倣した短動画 | 無料〜 |
規制の効果と限界 — 楽観論と慎重論
規制賛成派の主張
- 故人・遺族のプライバシーと人格権を守るために法的枠組みが必要
- 感情的に脆弱な状態にある遺族が「AI詐欺」の被害を受けるリスクを防げる
- 未成年者の精神的健康への影響を考慮すると、未成年保護は急務
- Super Brain創業者自身も「規制は産業の健全化に必要」と支持を表明
慎重論・懸念点
- 「同意の取り方」の定義が不明確 — 死者の生前同意がない場合の遺族同意で十分か?
- グリーフケア(悲嘆支援)の観点から、適切に使われるAIアバターには心理的効果があるという研究も存在する
- 実施・執行の困難さ — SNS上の無断投稿は規制が難しい
- クロスボーダーサービス(日本発・米国発のサービスへの域外適用)の法的解釈が未確定
日本の現状 — 関連法制とグレーゾーン
日本では現時点で「AIアバター」に特化した法律はありません。しかし既存法でカバーできる部分とグレーゾーンが混在しています。
| 論点 | 日本の現行法での対応 | グレーゾーン |
|---|---|---|
| 生体認証データの収集 | 個人情報保護法(要配慮個人情報)で取得に同意必須 | SNS投稿済みの顔画像から収集する場合の解釈 |
| 故人の肖像権 | 民法上の人格権・著作権(生存中のみ明確) | 死後の人格権保護は遺族の権利として不明確 |
| ディープフェイク動画 | 特定法なし(名誉毀損・プライバシー侵害で対応) | 非中傷目的のディープフェイクは現行法で規制困難 |
| AI倫理ガイドライン | 内閣府「AI戦略2022」・経産省「AI原則」は法的拘束力なし | 企業の自主対応が現状の主な防衛線 |
2025年に総務省が公表した「AIガバナンスに関する調査研究」では、「デジタルヒューマン・バーチャルインフルエンサーの人格権保護」を今後の検討課題として明記しています。法制化は時間の問題と見てよいでしょう。
日本企業が今すぐ取るべき対応チェックリスト
自社チェック: AIアバター・デジタルヒューマン利用の現状確認
確認項目(AIアバター利用がある企業向け):
□ 利用しているAIアバター・デジタルヒューマンツールを棚卸しているか?
□ 顔・声・生体情報を使う際、本人から明示的な同意を取得しているか?
□ 同意取得の記録(ログ・書面)を保持しているか?
□ 従業員のAIアバター利用に関する社内ポリシーがあるか?
□ 利用しているツールのデータ保存地域(国)を確認しているか?
□ 顧客の顔・声を使う場合、個人情報保護方針にその旨を明記しているか?
不足している情報があれば、最初に法務部門に確認してから作業を開始してください。対応ステップ1: AI倫理ポリシーの整備
まず「AIアバター・生成AI利用に関する社内ポリシー」を文書化することから始めます。以下が最低限含めるべき要素です:
- 生体認証データ(顔・声・身体的特徴)の収集・使用に関するルール
- AIコンテンツの「AI生成であることの明示」義務
- 第三者(顧客・パートナー)の生体情報を使う際の同意取得プロセス
- 違反時の報告・対応フロー
対応ステップ2: 同意フローのアップデート
デジタルヒューマン・AIアバターを使う場合、以下の同意フローを設計してください:
AI利用同意フロー設計プロンプト:
「以下の情報を使って、GDPR・個人情報保護法に準拠した
AIアバター利用の同意取得フローを設計してください。
利用目的: [例: 社内トレーニング動画のナレーター用AIアバター]
収集するデータ: [例: 従業員の顔・声]
利用期間: [例: 3年間]
第三者提供の有無: [例: AIツールベンダー(米国企業)への提供あり]
含めるべき要素: 目的の明示、収集するデータの範囲、保存期間、
同意撤回の権利、第三者提供先の開示、不同意時の不利益の有無。
仮定した点は必ず"仮定"と明記してください。」対応ステップ3: グローバル規制モニタリングの仕組み
中国の規制が先行しているが、EU・米国・日本でも類似規制が続く可能性が高い。以下を定期確認することをおすすめします:
- 内閣府AI戦略室の動向(aistrategic.go.jp)
- 経産省「AI事業者ガイドライン」の改訂
- EU AI法(2024年施行開始)のデジタルヒューマン関連条項
- China Law Translateの中国AI規制翻訳(chinalawtranslate.com)
【要注意】AI倫理対応でよくある失敗パターン
失敗1: 「日本には関係ない」と思って静観する
❌ 「中国の規制だから、うちは国内企業だし関係ない」
⭕ 「中国市場で展開するサービス・グローバルな取引先を持つ企業は影響を受ける。また日本の法制化は数年内に起こる可能性が高い」
実際、EUのAI法に対応するために日本企業が欧州事業のAI利用方針を全面見直した事例を研修で複数見ています。規制は「自国の規制」だけでなく「取引先・販路先の規制」も考慮が必要です。
失敗2: ツール導入時に個人情報処理の確認をしない
❌ 「HeyGen使ってAI社員の顔を使ったトレーニング動画を作ったが、同意書は取っていない」
⭕ 「AIアバターツール導入前に、①収集するデータの種類、②データ保存国、③利用目的、④削除手順を確認してから利用を開始する」
失敗3: 「同意書さえ取れば大丈夫」と思い込む
❌ 「従業員に同意書を1枚サインさせたからOK」
⭕ 「同意は目的・期間・利用範囲が明確であることが必要。包括的な同意は無効とされるリスクがある(EU GDPR基準)」
特に外資系との取引がある企業は、GDPR基準を想定した同意フロー設計が安全です。
失敗4: 故人・社外の人物のAIアバターを実験で使う
❌ 「著名人のインタビュー動画からClaudeで音声クローンを作り、社内プレゼン用のテスト素材にした」
⭕ 「たとえ社内のみ・非公開であっても、第三者の生体情報を無断使用することは各国法令リスクがある。自社・自組織でコントロールできる素材のみ使用する」
まとめ:今日から始める3つのアクション
中国のデジタルヒューマン規制は、AIガバナンスの潮流が「ツール規制」から「人格権・同意」へシフトしていることを示しています。日本企業も早めの対応が競争優位につながります。
- 今日やること: 自社のAIアバター・デジタルヒューマン利用の棚卸しを行う(上記チェックリストを使用)
- 今週中: 既存のAI利用同意書・プライバシーポリシーを見直し、AIアバター・生体認証データに関する記載の有無を確認する
- 今月中: 法務・人事・IT部門合同で「AIアバター利用ポリシー」の草案を作成する。中国規制草案・EU AI法を参照基準にする
次回予告: 次の記事では「AIエージェントのサイバーセキュリティリスクと企業対策チェックリスト」をテーマに、より実務的な防御策を解説します。
あわせて読みたい:
- AI導入戦略完全ガイド — 導入前に知っておくべきリスク管理の基礎
- AIエージェント完全ガイド — 自律型AIの活用と安全運用
参考・出典
- China’s draft rules on AI ‘virtual humans’ target biometric deepfakes — Biometric Update(参照日: 2026-04-19)
- China drafts new rules for AI ‘humans’ and children’s addictive tech — CGTN(参照日: 2026-04-19)
- China Moves to Regulate Digital Humans — US News(参照日: 2026-04-19)
- Provisional Measures on the Administration of Human-like Interactive AI Services — China Law Translate(参照日: 2026-04-19)
- Deepfakes of your dead loved ones are a booming Chinese business — MIT Technology Review(参照日: 2026-04-19)
- China seeks to rein in risks from AI ‘digital humans’ — The Star(参照日: 2026-04-19)
著者: 佐藤傑(さとう・すぐる)
株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(旧Twitter)で活用法を発信(@SuguruKun_ai、フォロワー約10万人)。100社以上の企業向けAI研修・導入支援を展開。著書『AIエージェント仕事術』(SBクリエイティブ)。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。
ご質問・ご相談はお問い合わせフォームからお気軽にどうぞ。


