Microsoft 365 Copilotが機密メールを「うっかり要約」— DLP設定を無視するバグが発覚
企業の機密情報を守るはずのセキュリティ設定が、AIアシスタントに無視されていた。
Microsoft 365 CopilotがDLP(Data Loss Prevention=データ損失防止)ポリシーの設定を無視し、保護されているはずの機密メール内容を要約として表示してしまうバグが見つかった。
Microsoftは修正プログラムの展開を進めているが、企業がAIを導入する際に「セキュリティとAI機能は本当に両立できるのか」という根本的な問いを突きつける事例となっている。
概要
Microsoft 365 Copilotに、DLP(企業の機密情報が漏洩するのを防ぐセキュリティ機能)で保護されたメールの内容をAIが要約してしまうバグが発覚。
「送信済みアイテム」や「下書き」フォルダ内の機密ラベル付きメールが対象で、本来見せてはいけない情報がCopilotの要約に含まれる可能性がある。
Microsoftはメッセージセンター「CW1226324」でこの問題を追跡中。
詳細
1. 何が起きたのか — AIがセキュリティの壁を「すり抜けた」
DLPは、企業が「この情報は社外に出してはいけない」「この人には見せてはいけない」といったルールを設定するセキュリティ機能。
クレジットカード番号、顧客の個人情報、未公開の財務データなど、漏洩すれば大きな問題になる情報を自動的に検知・保護する仕組みだ。
今回のバグでは、この保護が設定されているメールに対して、Microsoft 365 Copilotが通常のメールと同様に要約を生成。
DLPで「見せない」と設定したはずの内容が、Copilot経由でユーザーの目に触れる状態になっていた。
たとえば、機密ラベルが付与されたメールの内容が、Copilotの要約処理に誤って含まれてしまう可能性がある。ただし、これは権限外のユーザーに新たなアクセスを与えるものではなく、当該ユーザーのメールボックス内で発生する問題とされている。
2. 影響範囲とMicrosoftの対応
Microsoftによると、影響を受けるのは「送信済みアイテム(Sent Items)」および「下書き(Drafts)」フォルダに保存された機密ラベル付きメール。
無料版・個人向けCopilotは影響外で、影響はMicrosoft 365 Copilot Chat(業務向け)で確認されている。データが外部に流出した証拠は現時点で報告されていない。
Microsoftによると、この問題は1月21日ごろに検出され、2月上旬から修正プログラムの展開が開始された。現在も継続的に監視・対応が進められている。
ただし、影響を受けた組織の具体的なリストや、問題が発生していた期間についての詳細情報は、現時点では公開されていない。
公式のメッセージセンターID「CW1226324」で追跡が可能なので、Microsoft 365の管理者はこのIDで最新状況を確認すべき。
3. なぜこの問題が深刻なのか — 「AIと既存セキュリティの連携」という未解決課題
この問題が単なるバグ以上の意味を持つのは、AI機能と既存のセキュリティ機能が正しく連携できていなかったことを露呈したためだ。
企業のIT環境では、長年かけてDLPや情報分類、アクセス制御といったセキュリティ層を構築してきた。
しかし、そこにAIアシスタントが加わると、AIは「ユーザーの利便性のために情報を横断的に読み取る」という性質を持つため、従来のセキュリティ境界と衝突しやすい。
今回のケースは、AIが持つ「なんでも読んで要約する」能力と、DLPの「特定の情報は見せない」ルールが噛み合わなかったという構造的な問題を示している。
Microsoft以外のAIアシスタント(Google Workspace向けGemini、Slack AIなど)でも同種のリスクは存在しうる。
4. 企業のAI導入担当者が今すぐやるべきこと
このバグから得られる教訓は「AIを導入する前に、既存のセキュリティ設定がAIとどう相互作用するかを検証すべき」ということ。
具体的には、以下のアクションが考えられる。
- Microsoft 365管理センターでメッセージID「CW1226324」を確認し、修正パッチの適用状況をチェック
- 機密レベルの高いメールがCopilotの処理対象に含まれていないか、設定を見直す
- AI機能の導入前に、DLP・情報分類・アクセス制御との整合性テストを実施する運用フローの策定
- 社内のAI利用ポリシーに「機密情報を含む可能性のあるデータソースからのAI要約の取り扱い」を追加
まとめ
今回のバグは「AIは便利だが、セキュリティとの整合性は自動的に保証されない」という現実を示した。
Microsoftは修正を進めているが、これはMicrosoft固有の問題ではなく、AIと企業セキュリティの共存という業界全体の課題。
AI導入を検討している組織は、この事例を参考に、セキュリティ設定との連携テストを導入プロセスに組み込むことをおすすめする。