「便利だから」と業務のメモや顧客情報をAIチャットに貼り付けていませんか? 2026年はいよいよAIデータ漏洩が“事故”ではなく“日常リスク”として扱われ始めています。ChatGPT/Claude/Geminiのような生成AIは強力ですが、使い方を間違えると、あなたや会社の情報が取り返しのつかない形で外部に出ることがあります。

生成AIでデータ漏洩が起きる仕組み(入力→クラウド→流出のイメージ)

この記事では「何を入力してはいけないか(レッドリスト)」と「今日からできる具体策」を、個人・チーム・企業それぞれの目線でまとめます。結論だけ先に言うと、AIに渡すべきなのは“公開しても困らない形に加工した情報”だけです。

z.aiを試してみる(入力データの扱いは必ず利用規約で確認)

なぜ生成AIで「データ漏洩」が起きるのか

生成AIでの情報流出は、単に「ハッキング」だけが原因ではありません。よくある経路は大きく4つです。

  • 入力データがサービス側に保存される:チャット履歴や添付ファイルが残り、意図しない共有・閲覧の対象になる。
  • 学習・評価に利用される可能性:設定やプランによっては、入力が将来のモデル改善に使われうる。
  • アカウント侵害:パスワード流出やマルウェアにより、チャット履歴が丸ごと見られる。
  • 人間のミス(シャドーAI):ルールなしで現場が使い、機密をそのまま貼り付ける。

たとえばESETの解説を紹介した@ITの記事では、ChatGPT利用に関するリスクとして「認証情報の盗難」「学習利用」「プロンプトインジェクション」「偽アプリ」「シャドーAI」などが挙げられ、入力すべきでない情報の“レッドリスト”も整理されています(参考:@IT)。

【結論】ChatGPT/Claude/Geminiに絶対入力してはいけないもの(レッドリスト)

最重要パートです。ここにある情報は、どのAIでも原則「入力禁止」にしておくのが安全です。

AIに入力してはいけない情報(レッドリスト)のイメージ

1) 個人を特定できる情報(PII)

  • 氏名、住所、電話番号、メールアドレス、顔写真、免許証/パスポート番号
  • 家族構成、子どもの学校・習い事など、組み合わせで特定できる情報

2) 金融情報・決済情報

  • クレジットカード番号、口座番号、暗号資産取引所のログイン情報
  • 請求書・見積書の原本(取引先名、金額、口座が入っている)

3) 認証情報・秘密(最優先で禁止)

  • パスワード、ワンタイムコード、リカバリコード
  • APIキー、秘密鍵(SSH/PGP/ウォレットのシードフレーズ)
  • 社内ツールの管理画面URLや、未公開の設定画面キャプチャ

4) 企業の機密(ソースコード・顧客データ・契約書)

  • 顧客名簿、問い合わせ履歴、サポートチケットの原文
  • 契約書、NDA、未公開の財務情報、M&A関連資料
  • ソースコードや設計資料(特にリポジトリ構造や社内IPが分かるもの)

5) 要配慮個人情報(健康・障害・診断・医療)

  • 診断結果、病歴、服薬、検査結果など

6) “公開前”の情報(ローンチ前、研究、採用、戦略)

  • 新機能の仕様、未発表の価格、提携、採用計画、炎上前提の危機対応案

「どうしてもAIに相談したい」というときは、固有名詞・数字・日付・識別子を消し、架空の例に置き換えるのが基本です。DXPOの解説でも「入力した情報は自分の手を離れる」という前提で、個人情報や機密情報、未公開情報などを避けるべきだと整理されています(参考:DXPOカレッジ)。

安全に使うための「加工」テンプレ(コピペ可)

禁止リストを守っても、現場では「じゃあどう書けばいい?」で止まりがちです。以下のテンプレで、入力を“安全な形”に変換できます。

やりたいこと NG(そのまま貼る) OK(安全に加工)
顧客メールの返信文 実名・注文番号・住所入りの原文 「B2C EC」「配送遅延」「怒っている」など状況だけ要約し、個人識別子は削除
社内資料の要約 未公開の数値・取引先名・戦略 「売上はX〜Yの範囲」「主要取引先A社→大手小売」など、抽象化してレンジ化
コードレビュー リポジトリ全体・秘密鍵混入 再現可能な最小コード(MRE)だけ貼る。キー/URL/社名はダミーに

今すぐできる対策(個人・チーム共通)

「入力しない」以外にも、漏洩確率を下げる打ち手があります。ここは今日からやってください。

  • データ利用設定(学習/改善)を見直す:各サービスの設定画面で、会話の学習利用をオフにできないか確認する。
  • 一時チャット/履歴オフを使う:履歴が残る運用を避ける(ただし“残らない”も過信しない)。
  • MFA(多要素認証)を必ず有効化:アカウント侵害は「履歴丸見え」に直結する。
  • パスワードマネージャーでユニークな強パスワードを作る。
  • 共有端末ではログアウト:ブラウザの自動ログインを放置しない。
  • 怪しい拡張機能を削除:入力内容を盗む“情報窃取型”マルウェアの入口になりうる。

ブラウザ起点の追跡や情報収集も侮れません。AIに入力しなくても、アクセス環境が漏れていくことがあります。気になる人は、先にブラウザフィンガープリント対策も押さえておくと安心です。

(開発用途の人向け)z.aiをチェックしてみる

企業・チームがやるべき「ルール化」チェックリスト

個人対策だけだと、結局“誰かが貼って事故る”のを止められません。最小のルールだけでも決めると効果が出ます。

AI利用ルール(社内ポリシー)チェックリストのイメージ
  1. 入力禁止データの定義(顧客情報、契約書、APIキー、未公開数値など)
  2. 例外運用(どうしても使う場合は、匿名化・レンジ化・最小化を必須に)
  3. 推奨ツールと用途(文章校正、要約、コード補助など、使ってよい範囲を明確に)
  4. 監査と教育(新入社員オンボーディングで“貼ってはいけない”を最初に教える)
  5. 事故時の連絡手順(何を、誰に、いつ報告するか)

ユーザーローカルの解説では、プランによって「学習に使われる/使われない」が変わる点や、ガイドラインの作成の重要性がまとめられています(参考:ユーザーローカル)。ただし、どのプランでも“入力しない”が最強という原則は変わりません。

よくある質問(FAQ)

Q. 「機密は入れない」だけで十分?

A. 半分だけ正解です。機密を入れないのは大前提ですが、アカウント侵害や共有リンク、PCのマルウェアなど別経路もあるので、MFAや端末衛生までセットで考えた方が安全です。

Q. 匿名化すれば何でも入れていい?

A. いいえ。匿名化しても、文脈や細部(時期、業界、固有の数字)で再特定されることがあります。匿名化は“リスク低減”であって“無敵化”ではありません。

Q. じゃあAIは怖くて使えない?

A. 使えます。ポイントは「入力の設計」です。AIに渡す前提で最初からデータを最小化し、公開情報やダミーデータで同じ目的を達成できるようにするのがコツです。

まとめ:AIは“便利な外注先”。渡す情報を設計しよう

  • 2026年のAIデータ漏洩は「ハッキング」だけでなく「保存」「学習」「人間のミス」で起きる。
  • PII、金融情報、認証情報、顧客データ、契約書、未公開情報は入力禁止にする。
  • どうしても使うなら、匿名化・レンジ化・最小化で“公開しても困らない形”に加工する。
  • 個人はMFAと設定見直し、チームはルール化で事故確率を下げる。

z.aiを試してみる

関連記事