AIを使うたびに、会話がどこかのサーバーに保存されているかもしれない——そんな不安を感じたことはないか。ChatGPTに送った質問はOpenAIのサーバーに残る。Claudeへの相談も同様だ。AIが便利になればなるほど、プライバシーのリスクは静かに膨らんでいく。

そこに登場したのが「Confer」だ。Signalを作った男が、AI時代にも暗号化革命を起こそうとしている。

SignalのConfer暗号技術とMeta AI統合を示すサイバーパンクスタイルの図

Conferとは何か——Signalを作った男が設計したプライバシーAI

Moxie Marlinspike:Signalプロトコル誕生の経緯

Moxie Marlinspike(モクシー・マーリンスパイク)という名前を聞いたことがなくても、Signalプロトコルは知っているかもしれない。WhatsAppやSignalで使われているE2E暗号化の基盤を作った人物だ。「誰も信用しなくていい設計にする」——これが彼の一貫した思想の核心である。

Signalプロトコルが革新的だったのは、サーバーに秘密鍵を預けないアーキテクチャにある点だった。通信の中身は受信者の端末にしか復号できない。プロバイダーでさえ会話内容を読めないという設計は、当時としては業界の常識を覆すものだった。

2025年12月:Confer登場——「ChatGPTにE2E暗号化を」

2025年12月、Moxieは新たなプロダクト「Confer」をローンチした。コンセプトはシンプルだ。「AIとの会話に、Signalと同じ暗号化を適用する」というものである。

ChatGPTやClaudeとの違いは構造レベルで存在する。通常のAIサービスでは、ユーザーの入力がサーバーに送られ、そこでモデルが処理する。会話履歴はクラウドに保存され、プロバイダーがアクセスできる状態に置かれる。Conferはこの構造そのものを変えようとした。AIデータ漏洩リスク2026でも詳しく解説しているが、AI利用に伴うデータリスクは年々深刻化している。

2026年3月:突然のMeta AI統合発表が意味すること

2026年3月17〜18日、プライバシーコミュニティを揺るがすニュースが飛び込んだ。ConferがMeta AIに統合されることが発表されたのだ(aidirectory.com、piunikaweb.comが相次いで報道)。

反応は真っ二つに割れた。「Meta×E2E暗号化は本物のプライバシー革命の始まりだ」という歓迎の声がある一方、「なぜMetaなのか」という疑問が噴出した。Facebookのデータスキャンダルの歴史、個人情報収集を中核としたビジネスモデル——Metaはプライバシー界隈では象徴的な「敵」として認識されてきた企業だ。その会社にMoxieが技術を提供するという事実は、単純には受け入れられないものがあった。

Conferの暗号化アーキテクチャ——なぜChatGPTより安全と言えるのか

E2E暗号化とは?AIに適用する技術的な課題

E2E(エンドツーエンド)暗号化とは、通信の「端(エンド)」から「端(エンド)」まで暗号化が維持される方式だ。メッセージは送信側の端末で暗号化され、受信側の端末でのみ復号される。中間にあるサーバーは暗号化されたデータしか見られない。

AIへの適用には技術的なジレンマがある。通常のAI処理はサーバー上で行われるため、入力データが平文でサーバーに届く必要がある。暗号化したまま推論を行う「準同型暗号」は理論上可能だが、現時点では計算コストが実用レベルに達していない。Conferがこの問題をどう解決しているかは、アーキテクチャの全容がまだ完全には公開されていない。

Signalプロトコルの仕組みをAIに転用する方法

Signalプロトコルの核心は「ラチェット方式」の鍵交換にある。セッションごとに異なる鍵を生成し、過去のセッションを遡れない設計(前方秘匿性)だ。Conferはこの考え方をAI会話セッションに適用している。各会話が独立した暗号化ユニットとして扱われるため、仮にサーバーが侵害されても、過去の会話が芋づる式に漏洩しない。

「サーバーが会話を見られない」設計の意味

重要なのは「信頼の配置」だ。ChatGPTを使うにはOpenAIを信頼しなければならない。ClaudeにはAnthropicへの信頼が必要だ。Conferの設計では、Conferのサーバーを信頼しなくてもよい——会話の内容はサーバーに届かないという立場をとる。これは個人情報保護法2026年AI改正と今すぐできる対策の観点からも意義深い。サービス側がデータを持たなければ、法的な開示要求にも対応できないからだ。

Meta AIとの統合——プライバシー強化か、メタデータ収集のリスクか

Metaはなぜ暗号化AIを取り込みたいのか

Metaの動機は複数考えられる。プライバシー意識の高いユーザー層への訴求、欧州GDPR規制への対応、そして「E2E暗号化をうたうことで信頼を獲得する」ブランディング戦略だ。WhatsAppへのSignalプロトコル採用も同様の文脈で行われた経緯がある。技術的な信頼性を外部から調達する、というMetaの戦略は一貫している。

「会話内容」は守られても「メタデータ」は?

ここが最大の問題点だ。E2E暗号化が守るのは「会話の中身」であって、「誰がいつAIを使ったか」というメタデータではない。Metaのプラットフォームを経由する以上、利用時刻・頻度・セッション長・デバイス情報などはMetaが収集できる立場にある。

このメタデータはそれ自体が高い価値を持つ。「毎晩2時間AIに医療相談している」というパターンだけで、広告ターゲティングに利用できる情報になる。会話内容が暗号化されていても、行動パターンは丸見えになりかねない。

プライバシーコミュニティの懸念:Moxieへの信頼は続くか

プライバシー活動家の間では「Moxieが売られた」という声も出ている。Signal財団を離れた後、Moxieは商業的なプロジェクトへ移行しつつあるが、Metaとの提携は象徴的な転換点として見る向きもある。

一方で「技術は中立だ。実装が正しければ問題ない」という擁護論も根強い。重要なのは、ConferのコードがオープンソースでVerifiableかどうかだ。現時点では独立した第三者監査の結果が待たれる状況であり、「信頼するかどうか」の判断は時期尚早と言わざるを得ない。

2026年版:プライバシー重視派が選ぶAIツール比較

AIツールのプライバシー比較イメージ(Confer・ChatGPT・Claude・Gemini)

Confer vs ChatGPT vs Claude:プライバシーポリシー比較表

項目 Confer ChatGPT Claude Gemini
E2E暗号化
会話ログ保存 なし(設計上) あり 30日間 あり
学習データへの利用 不可(暗号化) オプトアウト可 条件付き あり
メタデータ収集 Meta経由あり あり 最小限 あり(Google連携)
オープンソース 一部公開 非公開 非公開 非公開
独立監査 未実施(予定) 部分的 部分的 なし

※ 2026年3月時点の公開情報をもとに作成。各社の利用規約・プライバシーポリシーは随時変更される。GPT-5.4 vs Claude Opus 4.6 vs DeepSeek V4:最新AI比較2026も参照のこと。

ローカルLLM(Ollama)という選択肢

完全なプライバシーを求めるなら、ローカルLLMが最強の選択肢だ。Ollamaを使えば、Llama3・Mistral・Gemmaなどのオープンソースモデルを自分のPC上で動かせる。データは外部に一切出ない。サーバーが存在しないのだから、メタデータ収集も原理的にあり得ない。

ただし、GPT-5やClaudeと比べると性能差は否めない。「センシティブな相談はローカルLLM、一般的な作業はConferかClaude」という使い分けが、2026年時点での現実的な選択と言える。

VPN・Torと組み合わせてAI利用を匿名化する方法

AIサービスを使う際のIPアドレスは、それ自体が識別情報になる。VPNやTorと組み合わせることで、メタデータレベルの匿名化が可能だ。ただし、通常のVPNはVPNプロバイダーが通信記録を持つ可能性がある。より強固な匿名化には、Mixnetを採用した仕組みが有効で、NymVPNはTorと何が違う?AI利用のメタデータを守る方法で詳しく解説している。

NymVPNを無料で試す →

まとめ——AIを使いながらプライバシーを守るための実践チェックリスト

Conferの登場とMeta AI統合は、AI時代のプライバシー問題を一段と複雑にした。技術が本物であっても、エコシステムへの信頼は別問題だ。重要なのは、ツールの仕組みを理解した上で、自分のリスク許容度に合わせた選択をすることである。

  • センシティブな会話はConferかローカルLLMを使う
  • ChatGPT・Claudeの会話ログは定期的に削除する
  • AI利用時はVPN(できればNymVPN)で接続する
  • 各AIサービスのプライバシーポリシーを年1回見直す
  • Conferのオープンソース監査結果をウォッチし続ける
  • メタデータと会話内容は「別の脅威」として対策する

Moxieが「Metaに技術を売った」のか、「Metaの内側からプライバシーを変えようとしている」のか——その答えはまだ出ていない。だが、私たちユーザーが技術の仕組みを理解し、適切なツールを選ぶ力を持つことが、プライバシーAI時代の最大の防衛策であることは間違いない。