生成AIに社外秘を入力してない?— 職場で気をつけたいAI利用リスク

生成AIに社外秘を入力してない?— 職場で気をつけたいAI利用リスク


「ちょっと要約してもらおう」「この企画書、整えてほしい」——そんな気軽な気持ちで、社外秘の資料を生成AIに貼り付けていませんか?実は、生成AI利用者の約5人に1人が、会社が許可していないツールを業務に使っているという調査結果があります(エルテス調べ、2026年1月)。便利だからこそ潜む落とし穴。本記事では、初心者でもわかるようにAI利用のリスクと安全な使い方を解説します。

なぜ生成AIへの情報入力が危ないのか?

ChatGPTやClaudeなどの生成AIは、文章の要約・翻訳・資料作成など、様々な業務で活躍します。しかし、その便利さの裏には「入力した情報がどこへ行くのか」という根本的な問題があります。

多くの一般向け(無料・個人向け)生成AIサービスでは、ユーザーが入力した内容がAIモデルの品質改善・学習データとして再利用される規約になっています。つまり、社外秘の文書や顧客情報をプロンプトに貼り付けた場合、その内容がAIの知識の一部として蓄積され、将来的に別のユーザーへの回答として出力されてしまう可能性があるのです。

⚠️ 重要:「学習に使わない」と明記されているサービスでも、入力データはクラウドサーバーに一時保存されます。サービス側のシステムに脆弱性があれば、その段階での漏洩リスクも存在します。法人向けプラン(Enterprise版など)と無料・個人向けプランでは、データの取り扱いが大きく異なります。

衝撃のデータ:職場の実態

2026年1月、株式会社エルテスが会社員・公務員300名を対象に実施した調査から、職場のAI利用の実態が浮き彫りになりました。

34.3%
業務で生成AIを利用していると回答した割合
約5人に1人
生成AI利用者のうち「シャドーAI」(会社非許可のツール)を使っている割合
45%
勤務先に生成AIの利用規程(ガイドライン)が「ない」と回答
26.7%
勤務先のAIガイドラインについて「わからない」と回答(約4人に1人が把握できていない)
38%
雇用主の許可なくAIツールで機密情報を共有していると認めた従業員の割合(IBM調査・グローバル)

特に注目すべきは、ガイドラインが「ない(45%)」と「わからない(26.7%)」を合わせると70%超の従業員が、自社の生成AIルールを把握できていない状態で業務を行っている点です。ルールが不明確な環境ほど、シャドーAIが横行しやすくなります。

代表的な3つのリスク

生成AIを業務利用する際に直面するリスクは、大きく3つに分類されます。

📤
① 入力情報の漏洩リスク
プロンプトに入力した社外秘・個人情報・ソースコードなどが、AIの学習データとして蓄積され、第三者の質問への回答に含まれる可能性がある。
🛡️
② サービス側のシステムリスク
AIサービス提供者のサーバーへのサイバー攻撃、システムバグによって、入力データが第三者に露出するリスク。実際にチャット履歴が別ユーザーに見えた事例も発生している。
⚠️
③ 出力内容の不正確性リスク
生成AIの回答は正確性を保証しない(ハルシネーション)。誤った情報を確認せず業務に使用した場合、顧客対応ミスや社内文書への誤情報混入が起きる可能性がある。

これらのリスクは「起きるかもしれない話」ではなく、すでに現実のインシデントとして報告されています。リスクを正しく理解し、適切な使い方を身につけることが重要です。

「シャドーAI」とは何か?

「シャドーAI」とは、企業が公式に承認・管理していない生成AIツールを、従業員が個人の判断で業務に使用する行為のことです。従来からある「シャドーIT(私物端末や未承認アプリの業務利用)」の、AI版と考えるとわかりやすいでしょう。

ただし、シャドーAIの危険性はシャドーITより深刻です。従来のシャドーITは「情報の置き場所」が問題でしたが、シャドーAIは「情報の使われ方(学習への転用)」が問題であり、一度入力された情報を完全に消すことは非常に困難です。

⚠️ なぜシャドーAIが生まれるのか?
企業が生成AIを全面禁止にすると、業務効率を上げたい従業員が隠れて個人ツールを使い始めます。「禁止するだけ」の対策は、むしろシャドーAIのリスクを拡大させることになります。重要なのは、安全なAI環境を会社が提供し、利用ルールを明確にすることです。

実際に起きた情報漏洩事例

事例①:大手電子機器メーカーのソースコード流出

韓国の大手電機メーカーで、従業員が開発中のソースコードをデバッグや要約目的でChatGPTに入力し、機密情報が外部に流出した事案が発生しました。同社はこれを受け、生成AIの社内利用を一時的に制限し、アップロード容量の制限や使用禁止の措置を講じました。企業の競争力の源泉である知的財産が、「ちょっと使っただけ」で漏洩するリスクを示す典型事例です。

事例②:システムバグによるチャット履歴の露出

ある有名な生成AIチャットサービスで、システムのバグが原因で、一部のユーザーに他の利用者のチャット履歴タイトルが表示されるインシデントが発生しました。個人情報や機密情報を含む会話の内容が、意図せず第三者に見られてしまう状態になりました。これは「入力した情報が安全に管理されているとは限らない」という現実を示しています。

事例③:アカウント認証情報の大規模流出

2025年2月、ダークウェブ上のフォーラムで大手生成AIサービスのアカウント認証情報とされる約2,000万件のデータが売買されているとの投稿が確認されました。調査の結果、AIサービス自体のシステムが侵害されたわけではなく、マルウェアによって個人端末から認証情報が盗まれたものとされています。生成AIのアカウントが乗っ取られると、会話ログに含まれる情報がすべて漏洩する危険があります。

入力してはいけない情報・してもよい情報

IPA(独立行政法人 情報処理推進機構)の「テキスト生成AIの導入・運用ガイドライン」でも明記されている通り、生成AIへの入力情報には明確な線引きが必要です。

🚫 入力してはいけない情報
  • 顧客の氏名・住所・電話番号・メールアドレス
  • 未公開の決算データ・売上情報
  • 社外秘の企画書・提案書・議事録
  • 秘密保持契約(NDA)で保護された情報
  • 自社・他社のソースコード(機密部分)
  • 採用情報・人事評価データ
  • 医療・健康に関する個人情報
  • 競合分析など競争上の機密情報
✅ 比較的安全な入力の例
  • 公開されている一般情報の要約依頼
  • 汎用的なビジネスメールの文体改善
  • 固有名詞を伏せた汎用的な文章構成の相談
  • プログラムの構文・デバッグ(機密部分を除く)
  • 既に公開済みのプレスリリース・資料の翻訳
  • 一般的なアイデアのブレインストーミング

🔴 入力前に必ず自問してください:「この情報が外部に出ても問題ないか?」——「No」であれば入力してはいけません。迷ったら入力しない、が鉄則です。

今日からできる5つの安全対策

  1. 使っているAIサービスのデータポリシーを確認する
    ChatGPT・Claude・Geminiなど、普段使っているサービスの「プライバシーポリシー」「利用規約」を確認しましょう。特に「入力データが学習に使われるか否か」を確認することが重要です。無料プランと法人プランでは扱いが異なります。
  2. チャット履歴の保存をオフにする
    ChatGPTなどは設定から「チャット履歴の保存をオフ」にできます。これにより、入力データが学習に使われるリスクを低減できます。設定画面の「データのコントロール」または「プライバシー」から変更できます。
  3. 個人情報・機密情報は必ず匿名化・抽象化してから入力する
    どうしても社内文書を参考にしたい場合は、固有名詞や数値を「A社」「○○万円」などに置き換えてから入力しましょう。AI側への情報量を減らしつつ、活用の恩恵は受けられます。
  4. 会社が承認したツール・プランのみを使う
    個人契約のChatGPT(無料)ではなく、会社が契約した法人プランや社内承認済みのAIツールを使いましょう。法人プランは多くの場合、入力データが学習に使われない設定が可能です。
  5. AIの回答を鵜呑みにせず必ず確認する
    生成AIはもっともらしい嘘(ハルシネーション)をつくことがあります。特に数値・法律・医療などの情報は、必ず一次情報(公式サイト・文書)で裏取りをしてから使いましょう。AIはあくまで「補助ツール」です。

参考資料

  • 株式会社エルテス「生成AIの利用に関する調査」(2026年1月)― eltes.co.jp
  • IBM「シャドーAIとは」― ibm.com
  • IPA「テキスト生成AIの導入・運用ガイドライン」(2024年7月)― ipa.go.jp
  • NTTデータ「情報漏洩?企業における生成AI活用の落とし穴」― nttdata.com
  • NRIセキュア「生成AIのリスクを整理する」(2026年3月更新)― nri-secure.co.jp
  • Gartner「2026年 日本のセキュリティ重要論点」(2026年1月)― gartner.co.jp