Signal共同創業者の「Confer」暗号技術がMeta AIに統合——プライバシーAI時代の幕開けか、罠か?
AIを使うたびに、会話がどこかのサーバーに保存されているかもしれない——そんな不安を感じたことはないか。ChatGPTに送った質問はOpenAIのサーバーに残る。Claudeへの相談も同様だ。AIが便利になればなるほど、プライバシーのリスクは静かに膨らんでいく。
そこに登場したのが「Confer」だ。Signalを作った男が、AI時代にも暗号化革命を起こそうとしている。

Conferとは何か——Signalを作った男が設計したプライバシーAI
Moxie Marlinspike:Signalプロトコル誕生の経緯
Moxie Marlinspike(モクシー・マーリンスパイク)という名前を聞いたことがなくても、Signalプロトコルは知っているかもしれない。WhatsAppやSignalで使われているE2E暗号化の基盤を作った人物だ。「誰も信用しなくていい設計にする」——これが彼の一貫した思想の核心である。
Signalプロトコルが革新的だったのは、サーバーに秘密鍵を預けないアーキテクチャにある点だった。通信の中身は受信者の端末にしか復号できない。プロバイダーでさえ会話内容を読めないという設計は、当時としては業界の常識を覆すものだった。
2025年12月:Confer登場——「ChatGPTにE2E暗号化を」
2025年12月、Moxieは新たなプロダクト「Confer」をローンチした。コンセプトはシンプルだ。「AIとの会話に、Signalと同じ暗号化を適用する」というものである。
ChatGPTやClaudeとの違いは構造レベルで存在する。通常のAIサービスでは、ユーザーの入力がサーバーに送られ、そこでモデルが処理する。会話履歴はクラウドに保存され、プロバイダーがアクセスできる状態に置かれる。Conferはこの構造そのものを変えようとした。AIデータ漏洩リスク2026でも詳しく解説しているが、AI利用に伴うデータリスクは年々深刻化している。
2026年3月:突然のMeta AI統合発表が意味すること
2026年3月17〜18日、プライバシーコミュニティを揺るがすニュースが飛び込んだ。ConferがMeta AIに統合されることが発表されたのだ(aidirectory.com、piunikaweb.comが相次いで報道)。
反応は真っ二つに割れた。「Meta×E2E暗号化は本物のプライバシー革命の始まりだ」という歓迎の声がある一方、「なぜMetaなのか」という疑問が噴出した。Facebookのデータスキャンダルの歴史、個人情報収集を中核としたビジネスモデル——Metaはプライバシー界隈では象徴的な「敵」として認識されてきた企業だ。その会社にMoxieが技術を提供するという事実は、単純には受け入れられないものがあった。
Conferの暗号化アーキテクチャ——なぜChatGPTより安全と言えるのか
E2E暗号化とは?AIに適用する技術的な課題
E2E(エンドツーエンド)暗号化とは、通信の「端(エンド)」から「端(エンド)」まで暗号化が維持される方式だ。メッセージは送信側の端末で暗号化され、受信側の端末でのみ復号される。中間にあるサーバーは暗号化されたデータしか見られない。
AIへの適用には技術的なジレンマがある。通常のAI処理はサーバー上で行われるため、入力データが平文でサーバーに届く必要がある。暗号化したまま推論を行う「準同型暗号」は理論上可能だが、現時点では計算コストが実用レベルに達していない。Conferがこの問題をどう解決しているかは、アーキテクチャの全容がまだ完全には公開されていない。
Signalプロトコルの仕組みをAIに転用する方法
Signalプロトコルの核心は「ラチェット方式」の鍵交換にある。セッションごとに異なる鍵を生成し、過去のセッションを遡れない設計(前方秘匿性)だ。Conferはこの考え方をAI会話セッションに適用している。各会話が独立した暗号化ユニットとして扱われるため、仮にサーバーが侵害されても、過去の会話が芋づる式に漏洩しない。
「サーバーが会話を見られない」設計の意味
重要なのは「信頼の配置」だ。ChatGPTを使うにはOpenAIを信頼しなければならない。ClaudeにはAnthropicへの信頼が必要だ。Conferの設計では、Conferのサーバーを信頼しなくてもよい——会話の内容はサーバーに届かないという立場をとる。これは個人情報保護法2026年AI改正と今すぐできる対策の観点からも意義深い。サービス側がデータを持たなければ、法的な開示要求にも対応できないからだ。
Meta AIとの統合——プライバシー強化か、メタデータ収集のリスクか
Metaはなぜ暗号化AIを取り込みたいのか
Metaの動機は複数考えられる。プライバシー意識の高いユーザー層への訴求、欧州GDPR規制への対応、そして「E2E暗号化をうたうことで信頼を獲得する」ブランディング戦略だ。WhatsAppへのSignalプロトコル採用も同様の文脈で行われた経緯がある。技術的な信頼性を外部から調達する、というMetaの戦略は一貫している。
「会話内容」は守られても「メタデータ」は?
ここが最大の問題点だ。E2E暗号化が守るのは「会話の中身」であって、「誰がいつAIを使ったか」というメタデータではない。Metaのプラットフォームを経由する以上、利用時刻・頻度・セッション長・デバイス情報などはMetaが収集できる立場にある。
このメタデータはそれ自体が高い価値を持つ。「毎晩2時間AIに医療相談している」というパターンだけで、広告ターゲティングに利用できる情報になる。会話内容が暗号化されていても、行動パターンは丸見えになりかねない。
プライバシーコミュニティの懸念:Moxieへの信頼は続くか
プライバシー活動家の間では「Moxieが売られた」という声も出ている。Signal財団を離れた後、Moxieは商業的なプロジェクトへ移行しつつあるが、Metaとの提携は象徴的な転換点として見る向きもある。
一方で「技術は中立だ。実装が正しければ問題ない」という擁護論も根強い。重要なのは、ConferのコードがオープンソースでVerifiableかどうかだ。現時点では独立した第三者監査の結果が待たれる状況であり、「信頼するかどうか」の判断は時期尚早と言わざるを得ない。
2026年版:プライバシー重視派が選ぶAIツール比較

Confer vs ChatGPT vs Claude:プライバシーポリシー比較表
| 項目 | Confer | ChatGPT | Claude | Gemini |
|---|---|---|---|---|
| E2E暗号化 | ✓ | ✗ | ✗ | ✗ |
| 会話ログ保存 | なし(設計上) | あり | 30日間 | あり |
| 学習データへの利用 | 不可(暗号化) | オプトアウト可 | 条件付き | あり |
| メタデータ収集 | Meta経由あり | あり | 最小限 | あり(Google連携) |
| オープンソース | 一部公開 | 非公開 | 非公開 | 非公開 |
| 独立監査 | 未実施(予定) | 部分的 | 部分的 | なし |
※ 2026年3月時点の公開情報をもとに作成。各社の利用規約・プライバシーポリシーは随時変更される。GPT-5.4 vs Claude Opus 4.6 vs DeepSeek V4:最新AI比較2026も参照のこと。
ローカルLLM(Ollama)という選択肢
完全なプライバシーを求めるなら、ローカルLLMが最強の選択肢だ。Ollamaを使えば、Llama3・Mistral・Gemmaなどのオープンソースモデルを自分のPC上で動かせる。データは外部に一切出ない。サーバーが存在しないのだから、メタデータ収集も原理的にあり得ない。
ただし、GPT-5やClaudeと比べると性能差は否めない。「センシティブな相談はローカルLLM、一般的な作業はConferかClaude」という使い分けが、2026年時点での現実的な選択と言える。
VPN・Torと組み合わせてAI利用を匿名化する方法
AIサービスを使う際のIPアドレスは、それ自体が識別情報になる。VPNやTorと組み合わせることで、メタデータレベルの匿名化が可能だ。ただし、通常のVPNはVPNプロバイダーが通信記録を持つ可能性がある。より強固な匿名化には、Mixnetを採用した仕組みが有効で、NymVPNはTorと何が違う?AI利用のメタデータを守る方法で詳しく解説している。
まとめ——AIを使いながらプライバシーを守るための実践チェックリスト
Conferの登場とMeta AI統合は、AI時代のプライバシー問題を一段と複雑にした。技術が本物であっても、エコシステムへの信頼は別問題だ。重要なのは、ツールの仕組みを理解した上で、自分のリスク許容度に合わせた選択をすることである。
- ☑ センシティブな会話はConferかローカルLLMを使う
- ☑ ChatGPT・Claudeの会話ログは定期的に削除する
- ☑ AI利用時はVPN(できればNymVPN)で接続する
- ☑ 各AIサービスのプライバシーポリシーを年1回見直す
- ☑ Conferのオープンソース監査結果をウォッチし続ける
- ☑ メタデータと会話内容は「別の脅威」として対策する
Moxieが「Metaに技術を売った」のか、「Metaの内側からプライバシーを変えようとしている」のか——その答えはまだ出ていない。だが、私たちユーザーが技術の仕組みを理解し、適切なツールを選ぶ力を持つことが、プライバシーAI時代の最大の防衛策であることは間違いない。