【生成AI事件簿】既存のセキュリティ・アクセス管理とエージェント型AIの間には構造的なミスマッチも、その4つの原因
![]()
小林 啓倫
経営コンサルタント
著者フォロー
フォロー中
2026.3.27(金)
経営 IT・デジタル
AIエージェントの「暴走」をどう止めるか?(筆者がChatGPTで生成)
(小林 啓倫:経営コンサルタント)
2026年3月、米Meta(旧Facebook)の社内で、重大なセキュリティインシデントが発生した。機密性の高い社内データが、本来ならそれに対するアクセス権を持たない社員も閲覧可能な状態に、約2時間にわたって置かれていたのである。原因は人間の犯罪者によるハッキングでも、サイバー攻撃でもない。社内で業務支援ツールとして導入・運用していたAIエージェントの「暴走」だった。
外部へのデータ流出こそ確認されなかったものの、Metaはこのインシデントを、社内セキュリティ指標において上から2番目に高い深刻度に当たる「Sev 1(セブ・ワン)」に分類した。これはMeta社内で「最高クラスの緊急事態」に相当する分類であり、その深刻さがうかがえる。
この事件について第一報を報じた米メディアThe Informationが、内部のインシデントレポートを入手したことで事件の全貌が明らかになり、TechCrunchやVentureBeatなど複数の大手テックメディアが相次いで報道。AIエージェントを業務に活用する最先端企業でさえも制御しきれていないという事実が、多くの関係者に衝撃を与えている。
この事件は、AIエージェントを業務に導入している、あるいは導入を検討しているすべての企業・組織にとって、他人事ではない教訓を含んでいる。
事件の経緯
事の発端は、ごく日常的な出来事だった。Metaのあるエンジニアが、技術的な問題の解決策を求めて、社内のディスカッションフォーラムに質問を投稿した。社内の専門家やチームメンバーに意見を求める、日常的に行われている標準的な作業だ。
問題は次のステップで起きた。別のエンジニアが「この質問を分析してほしい」とAIエージェントに指示した。ここで使われたAIエージェントは、Meta社内でコーディング支援やITトラブルの解決、ナレッジ管理などをサポートする社内専用のシステム(自社開発されたもの)だった。
このエージェントは単純に情報を検索して返すだけでなく、社内のさまざまなシステムやAPIに接続してタスクを自律的に実行できる能力を持っていた点が、後の被害拡大につながった。