「これって本当?」
電子透かしで紐解くディープフェイク対策
AI技術の進化により、私たちの仕事や生活は便利になりましたが、その裏で「ディープフェイク」という深刻な問題があります。ディープフェイクとは、深層学習(ディープラーニング)を用いて人物の顔や声を合成し、本物と区別がつかない偽のコンテンツを作り出す技術です。
この技術は悪戯の域を超え、専門家が「産業化された欺瞞(Industrialized Deception)」と呼ぶ段階に突入しています。これは、AIエージェントが自律的に大量生産する、説得力のある偽情報を大規模にばらまく脅威を指します。
- なりすまし詐欺:ビデオ会議でAIが生成したCFO(最高財務責任者)の顔と声を使い、社員に40億円規模の不正送金を指示させた事件が報告されています。
- 高度な標的型攻撃:知人のアカウントを乗っ取り、偽のZoom会議へ誘導。本人の録画映像で安心させた隙に、PCの操作権や「セッションクッキー(通行証)」を奪い取る手口も登場しています。
- 政治的な偽情報:選挙期間中に、実在しない大聴衆の画像や政治家の偽発言を拡散し、世論を操作するリスクが現実のものとなっています。
日本国内の調査では、ディープフェイクを正しく見分けられる人は、わずか16%に過ぎないという驚くべき結果が出ています。私たちの目や耳が通用しないこの時代に、技術はどのようにして「真実」を証明しようとしているのでしょうか。その切り札となるのが「電子透かし」です。
ディープフェイクの「産業化」が意味するもの
量産される偽情報
かつてディープフェイクは、高度な技術を持つ一部の専門家だけが扱える「特殊技術」でしたが、今は誰でも使えるアプリやWebサービスが登場し、偽動画や偽音声が大量生産されています。
専門家はこれを「産業化された欺瞞(Industrialized Deception)」と呼びます。
私たちの身近に迫る3つの脅威
- なりすまし詐欺の高度化:上司や取引先の顔と声を完璧に再現したビデオ通話で、不正な送金や情報漏洩を指示される。
- 政治的世論操作:選挙期間中、実在しない大聴衆の画像や、政治家の偽発言動画がSNSで拡散。有権者の判断を歪める。
- 個人攻撃と名誉毀損:人の顔を使った卑猥な動画が勝手に作られ、ネット上で拡散される
製造業の世界では「不良品を検査で弾く」という明確な基準がありました。しかしデジタルの世界では、何が「不良」で何が「本物」なのか、その線引きすら曖昧になっています。
電子透かし——デジタル時代の「刻印」
「透かし」の歴史に学ぶ信頼の証明
「透かし」という仕組みは、何百年も前から存在しています。
- 15世紀の勘合貿易:日本と中国の間で、一枚の紙を半分に切った「割符」を互いに持ち、本物の貿易船であることを証明しました。
- 紙幣の透かし:お札を光にかざすと浮かび上がる肖像は、偽造品でないことを視覚的に保証します。
デジタルの世界でも、この「本物の証明」が必要です。しかし、デジタルデータは簡単にコピー・改変できてしまうため、物理的な透かしよりも遥かに高度な技術が求められます。
それが「電子透かし」で、目には見えないデジタル署名を埋め込み、専用ツールでのみ検出できる技術です。
GoogleのSynthID:「統計」という名の魔法
文章にどうやって「印」を刻むの?
画像に透かしを入れるのは比較的容易です。
しかし、テキストはどうでしょう?
文章は言葉の連なりで、ピクセルのような物理的な要素がありません。
GoogleDeepMindが開発した「SynthID」は、この難題を「イカサマサイコロの原理」で解決しました。
仕組みを噛み砕く:3つのステップ
AIが文章を書くとき、次にどの単語を選ぶかは「確率」で決まります。例えば「今日の天気は」の次には、「晴れ(40%)」「曇り(30%)」「雨(30%)」といった候補があるとします。
- 秘密の封印:直前の文脈と「Googleだけが知る秘密の鍵」を組み合わせて、その瞬間専用の「サイコロの種(シード値)」を生成します。
- 単語への意味付け:候補の単語(晴れ、曇り、雨)に対し、生成したシード値をもとに「G値」という0か1の数字をランダムに割り振ります。
- 勝ち抜き戦:AIが本来選ぶはずだった確率に、このG値をわずかに加味します。G値が「1」の単語が、ほんの少しだけ有利になるようにルールを調整するのです。
何が起きるか?
一文ごとに見ると自然な文章ですが、全体を通して統計的に見ると「G値が1の単語が異常に多い」という偏りが生まれます。この偏りは人間には気づけませんが、秘密の鍵を持つ者だけが検証できる「AI製の証拠」になります。
これは、機械部品の微細な傷跡(ツールマーク)のようなもので、製造工程を知る者だけが、「この機械で作られた」と判別できるのと似ています。
業界全体の取り組み
SynthID以外にも、業界全体でさまざまな「透かし」が開発されています。
C2PA(Coalition for Content Provenance and Authenticity)
「デジタルコンテンツの出生証明書」
開発主体と背景
Adobe、Microsoft、Intel、BBC、SONYなど、テクノロジー企業とメディア企業が連合して設立した標準化団体で2021年に発足し、CAI (Content Authenticity Initiative) の技術仕様を基盤として標準規格を策定しました。
技術の核心:Content Credentials(コンテンツ資格情報)
C2PAの最大の特徴は、「Chain of Custody:CoC(管理の連鎖)」 を実現することです。
これは法廷で証拠品の信頼性を証明する際に使われる概念と同じです。
<記録される情報>
- 作成者情報:誰が作ったのか(個人名、組織名)
- タイムスタンプ:いつ作成・編集されたのか(UTC標準時刻)
- 使用ツール:どのソフトウェア・カメラで作成されたか(Adobe Photoshopなど)
- 編集履歴:どのような加工が施されたか(トリミング、色調補正、AIによる生成など)
二重の紐付け方式
C2PAが他の技術より優れている点は、状況に応じて2種類の検証方法を使い分けることです。
【ハードバインディング(完全性の保護)】
- 原理:ファイル全体の暗号学的ハッシュ値を計算し、デジタル署名に紐付け
- 特徴:1ビットでも変更されれば「改ざん検知」される
- 用途:法的証拠、公文書、報道写真の原本など
- 例:裁判で提出する証拠動画。ピクセル一つ変わっても「改ざんの可能性あり」と判定
【ソフトバインディング(追跡性の維持)】
原理:画像の視覚的特徴(Perceptual Hash;知覚ハッシュ)を抽出し、類似度で判定
特徴:リサイズ、圧縮、フォーマット変換されても「同一の出所」と認識
用途:SNSでの拡散追跡、フェイクニュースの出所特定
例:TwitterにアップロードされJPEG圧縮された画像でも、元の撮影者を辿れる
実装状況
- Adobe製品全般(Photoshop、Lightroom、Premiereなど)
- Leica M11-P(世界初のC2PA対応カメラ)
- ソニー α9 III(ミラーレスカメラ)
- Microsoft Designer(AI画像生成ツール)
IPTC(International Press Telecommunications Council)
「報道写真のDNA鑑定」
歴史と信頼性
IPTCは1965年に設立された報道業界の国際標準化団体です。60年以上の歴史を持ち、世界中の通信社やメディアが採用している「写真メタデータの世界標準」を管理しています。
IPTC Photo Metadataの構造
IPTCは単なる「透かし」ではなく、画像ファイルに埋め込まれるメタデータ規格です。
【IPTCコア】(基本情報)
- 著作権情報:Copyright Notice、Rights Usage Terms
- 説明情報:Caption、Headline、Keywords
- 作成者情報:Creator、Credit Line、Source
【IPTC拡張】(詳細情報)
- 撮影場所:Location Created、Location Shown(GPS座標含む)
- イベント情報:Event、Organisational Image Code
- ライセンス:Licensor URL、Model Release Status
C2PAとの相互運用
2025年、IPTCはC2PAと統合する動きを加速させています。
- IPTCメタデータをC2PAの「Content Credentials」に含める
- IPTCの Digital Source Type フィールドで「AI生成」「編集済み」を明示
- 報道機関が「信頼できる情報源」として暗号署名を付与
実際の利用例
<AP通信(Associated Press)の運用>
- 記者が撮影した写真には、撮影者名・日時・場所がIPTCメタデータとして自動記録
- 編集部でトリミングや色調補正を行うと、編集履歴が追記される
- 配信先メディアは、このメタデータを元に「改ざんされていない報道写真」と確認できる
Stable Signature
「生成モデルの遺伝子レベルに刻まれた署名」
開発元と革新性
Meta(旧Facebook)とフランスの国立情報学研究所INRIAが共同開発。2023年に発表され、「モデルそのものに透かしを埋め込む」 という画期的なアプローチで注目を集めました。
従来の透かしとの決定的な違い
【従来の後処理型透かし】
- AIが画像を生成
- 生成後に別のツールで透かしを追加
- 問題点:透かし追加を「スキップ」できてしまう
【Stable Signatureの組み込み型透かし】
- 画像生成モデル(Stable Diffusion等)の訓練段階で透かしエンコーダーを統合
- 生成と同時に自動的に透かしが埋め込まれる
- 利点:生成者が意図的に透かしを外せない
技術的仕組み:2つのニューラルネットワーク
【エンコーダー(埋め込み側)】
- 入力:生成される画像 + ランダムな秘密メッセージ(例:128ビットのバイナリ列)
- 処理:畳み込みニューラルネットワーク(CNN)が、人間の目に見えないレベルで画像にメッセージを埋め込む
- 出力:透かし入り画像(見た目は元画像と区別不可)
【デコーダー(検出側)】
- 入力:透かしが疑われる画像
- 処理:別のCNNが画像から秘密メッセージを抽出
- 出力:「Stable Diffusion製」か否かの判定 + 埋め込まれたメッセージ
耐性テストの驚異的な結果
Meta AIが公開した実験データ
- JPEG圧縮(品質50%):検出率 96.8%
- Gaussian Blur(σ=1.5):検出率 94.2%
- トリミング(50%カット):検出率 89.1%
- Instagram経由の再アップロード:検出率 87.3%
つまり、かなり加工を施しても、90%近い確率で「AI製」と見破れます。
オープンソース化の意義
Stable Signatureは2023年にGitHubで公開されました。
- 研究者:透かし技術の改良・攻撃手法の研究が可能に
- 開発者:自社のAI画像生成サービスに組み込める
- 悪意ある者:逆に透かしを除去する攻撃手法の開発も容易に
この「オープン化のジレンマ」は、セキュリティ技術全般が抱える永遠の課題です。
Video Seal
「動画の周波数領域に刻まれた消えない印」
開発元と公開時期
MetaのFAIR(Fundamental AI Research)チームが2024年12月に発表した、動画専用の電子透かし技術。同時にオープンソースとして公開され、世界中の研究者が利用可能になりました。
動画透かしの難しさ
静止画と違い、動画には特有の課題があります。
- フレーム数が膨大:30fps(秒間30フレーム)の10秒動画 = 300枚の静止画
- 圧縮の激しさ:YouTubeやTikTokは容量削減のため、元動画を大幅に圧縮
- 編集の多様性:カット、トリミング、速度変更、フィルター適用など
これらすべてに耐える透かしを実現するのは、至難の業でした。
周波数領域への埋め込み——フーリエ変換の魔法
Video Sealの核心は、「周波数領域(Frequency Domain)」 への透かし埋め込みです。
【空間領域(通常の画像データ)】
- ピクセルごとのRGB値として情報を保持
- 圧縮やフィルター処理で簡単に失われる
【周波数領域(フーリエ変換後)】
- 画像を「周波数成分」の集合として表現
- 低周波成分(画像の大まかな構造)と高周波成分(細かいテクスチャ)に分離
- 低〜中周波成分に透かしを埋め込むことで、圧縮に強い
具体的な処理フロー
【透かし埋め込み】
- 動画の各フレームをフーリエ変換(DCTやDWT)
- 低〜中周波成分の係数に、秘密鍵で生成した微細なパターンを加算
- 逆変換して透かし入り動画を生成
- 重要:人間の視覚特性(HVS: Human Visual System)を考慮し、知覚できない範囲に調整
【透かし検出】
- 疑わしい動画をフーリエ変換
- 秘密鍵で生成したパターンとの相関を計算
- 閾値を超えれば「透かしあり」と判定
耐性テストの結果(Metaが公開した技術論文)
| 加工内容 | 検出成功率 |
| H.264圧縮(CRF=23) | 98.7% |
| 解像度変更(1080p→480p→1080p) | 96.3% |
| トリミング(画面の30%カット) | 93.8% |
| ぼかし(Gaussian σ=2.0) | 91.2% |
| TikTok経由の再アップロード | 88.5% |
| 複数編集の組み合わせ | 82.1% |
TikTokのような「容赦ない圧縮」を経ても、約90%の確率で検出できる。
容量(Capacity)とトレードオフ
Video Sealは用途に応じて3つのモデルを提供しています。
| モデル | 埋め込み可能ビット数 | 耐性 | 用途 |
| High Capacity | 128ビット | 中 | 詳細なメタデータ埋め込み |
| Balanced | 64ビット | 高 | 一般的な透かし用途 |
| High Robustness | 32ビット | 最高 | SNS拡散追跡 |
実用化の動き
2025年11月、Metaはプラットフォーム(Facebook、Instagram、Threads)にVideo Sealを統合すると発表しました。
- AI生成動画:Meta AIで生成された動画に自動的に透かし
- 投稿者トラッキング:動画が拡散されても「最初の投稿者」を追跡可能
- ディープフェイク検出:悪意ある加工動画を自動フラグ
技術の限界:完璧な防御は存在しない
電子透かしの「弱点」を知る
どんなに優れた技術にも、必ず限界があります。
下記の点は、ユーザーとして知っておくべき内容です。
- 再翻訳攻撃(SynthIDの場合):SynthIDの統計的な偏りは、「日本語→英語→日本語」のように再翻訳すると破壊されることがあります。
- 編集による消失(画像・動画透かし):画像を大幅に切り抜いたり、フィルターを何度もかけたりすると、埋め込まれた透かしが読み取れなくなります。Video Sealでも、複数の編集を組み合わせると検出率が80%台に低下します。
- メタデータの削除(C2PA、IPTC):XやInstagramにアップロードすると、C2PAやIPTCのメタデータが自動的に削除されるケースがあります。これはプラットフォーム側の「軽量化処理」によるものですが、透かしを失わせます。
- オープンソースのジレンマ(Stable Signature、Video Seal):技術を公開することで研究は進みますが、同時に攻撃者に「透かし除去の手がかり」を与えてしまいます。
重要な心構え
透かしがあれば「AI製」と分かりますが、透かしがないからといって「人間が作った本物」とは限らないことに注意が必要です。
AIと人間の新しい「信頼関係」を築く3つの習慣
- 出所を確認する習慣:「誰が・いつ・どこで」作ったコンテンツかを意識する。
- 複数の情報源で照合する習慣:一つの情報だけを鵜呑みにせず、必ず裏を取る。
- 違和感を大切にする習慣:「なんか変だな」という直感を軽視しない。
まとめ:5つの核心
- ディープフェイクは「産業化」された脅威:もはや特殊技術ではなく、誰でもアクセスできる日常的なリスク
- C2PAは「デジタルの出生証明書」:作成者、日時、ツール、編集履歴を暗号署名で記録。Adobe、Microsoft、カメラメーカーが実装中
- IPTCは「報道写真のDNA」:60年の歴史を持つ業界標準メタデータ。C2PAと統合し、信頼できる情報源の証明に活用
- Stable SignatureとVideo Sealは「遺伝子レベルの刻印」:生成モデル自体に透かしを組み込み、圧縮・編集に強い耐性を実現。Metaがオープンソース化
- 完璧な防御は存在しない:技術は「杖」であり、最終的に判断するのは私たち自身。デジタルリテラシーが生死を分ける時代です
閲覧ありがとうございました。
*****************
中年独身男のお役立ち情報局
Friends-Accept by 尾河吉満
*****************



