メインコンテンツまでスキップ

2026年のAI Securityの挑戦

· 約30分
hi120ki
Hiroki Akamatsu

2025年は新しいAI/LLM技術の流行が生まれては消えてを繰り返した1年でした。業界全体で様々なAIのセキュリティ対応が進められてきました。2026年もAIの利活用はさらに拡大し、新しい技術の登場とともにセキュリティ対策が求められるでしょう。本記事では、2025年の主要なトピックを振り返り、2026年のAI Security現場で想定される業界全体の課題を具体的なアクションアイテムに落とし込み、AIを安全に利用・提供するためのセキュリティ対策をまとめます。

2025年の振り返り

2025年のAI Security活動では、新たに登場するAI技術の導入と並行してセキュリティ対策を進めてきました。2025年初期はベストプラクティスが少なかったものの、現在では以下のような網羅的なガイドラインが整備され、認知も進んでいます。

これらをベースにAIの基本的なセキュリティ対策が可能となりました。ここでは特に注目すべき5つのトピックを深掘りします。

AI Security 2025

AI Solutionの安全な導入

2025年はClaude CodeCursorDevinなどのCoding Agent、n8nDifyなどのAIワークフローサービス、AI Meeting NoteといったAI Solutionが、毎月のように入れ替わりながら流行していました。

組織内でのAI Solution利用における最大のリスクは、無料プランの利用データがモデル学習に使われることを意識せず、機密情報が間接的に流出してしまうことです。またデータがサービス提供元のサーバーに保持される場合、利用データの種別やアクセス方法・権限の管理も必須です。これらのサービスはモデルの性能向上に伴い流行が頻繁に入れ替わるため、特定ツールのみの導入では対応しきれません。そこで利用状況の管理だけでなく、「すべてのツールを安全に試すための基盤」と「安全に利用できるAI Solutionを管理するプロセス」を整備することが重要です。

基盤への投資例として、LLM API Proxy (LiteLLM)の活用があります。これによりOpenAI API仕様を満たす独自LLM APIをサポートするツール群(Claude Code、Codex、Gemini CLI、OpenCommit等)を安全に利用でき、複数のモデルを統一的に管理できる中央集権的な体制(LLM Key ServerによるLLM APIへの安全で便利なアクセス提供)を構築できます。このプラットフォームは、LLM API利用で問題となりがちなアクセス権限付与・監査・APIキー管理・予算管理・モデル管理を一度に解決するベストプラクティスの1つです。

安全に利用できるAI Solutionを管理するプロセスとしては、新規ツールのレビュープロセスやガイドラインの整備が重要です。また不足するセキュリティ機能を独自開発・導入(運用して初めてわかったDevinのセキュリティ課題 - Devin Meetup Tokyo 2025, n8nの静的解析CLIツールをOSS化 – JSON解析とDAGで実現するセキュリティチェックの自動化)するアプローチも有効です。

MCP Security

Claude Codeやn8nといった”AI Agent”に加えて最も盛り上がったトピックはMCPでした。AI Agentに正しくタスクを遂行してもらうために必要なContextを自動で集める拡張機能として一般的になりましたが、MCPにはSupply-chainリスクとアクセス権限管理の重大なリスクがあります。

MCP登場初期、Atlassianが先行して公式MCPサーバーの提供を始めましたが、大手サービスベンダーの公式MCPサーバー整備は遅れています。結果として、GitHub上で公開されているオープンソースのMCPサーバーや、独自開発したMCPサーバーを利用する実態となっています。オープンソースのMCPサーバーを検査せず使用すると、postmark-mcpという非公式MCPサーバーにメール漏洩処理が入り込んでいた事案のように、サービスのアクセス権限を悪用されたり、ローカル環境での悪意あるコード実行を許してしまいます。

また、MCPはサービスへのアクセス権限付与のため、設定ファイルに長期有効なAPIキーをそのまま記載する必要がある場合があります。さらにMCP公式仕様が推奨していた認可仕様のDynamic Client Registrationには複数のセキュリティ欠陥(MCPの認証と認可 - MCP Meetup Tokyo 2025)があり、既存サービスの認可サーバーでは対応が進みにくい状況です。各AI AgentのMCPクライアント実装では公式仕様が推奨する認可仕様のサポートが遅れており、接続方法を変換するツールmcp-remoteを使用すると、OS公式の暗号化されたキーストアではなく~/.mcp-auth/に平文で認証情報が保存されてしまう懸念もありました。

これらのリスクに対しては、MCPサーバーを可能な限り公式提供のものに限定し、MCPサーバー実装と管理体制のレビュープロセスを設けてSupply-chainリスクを低減しつつ、最新の認可仕様が利用できるMCPサーバー・クライアントへの移行を促すことが重要です。

Confused Deputy Problem

2025年は単一の命令改善を行うPrompt EngineeringからContext EngineeringへとAI Agentへの命令と情報の受け渡し方の基本的なアイデアが変わった年でした。その中でより多くのContextを取得するよう推奨されAI Agentが様々なデータソースへの権限を持つようになりました。

一方、データには元々の権限体系があります。例えばHR部門が管理する個人情報はエンジニアは閲覧できません。また部門ごとに独自管理する機密情報は、その部門メンバーのみが閲覧できるよう管理・監査されています。AI Agentの利用者や出力の公開範囲・影響範囲を意識せずに権限付与を行うと、AI Agentを介した機密情報漏洩が発生します。例えばHR部門が従業員情報を自動要約するAI Agentを社内チャット全ユーザーに公開してしまうと、本来閲覧できない他の従業員の個人情報を閲覧できてしまいます。このような低権限ユーザーの要求を高権限エージェントが適切な権限スコープなしに実行してしまうConfused Deputy Problemは、AI Agentの大きな課題の1つです。

これを防ぐためには以下のような原則を守ることが重要です。

  • 利用者や出力閲覧者全員がすでに権限を持つデータのみを扱う、または元々の権限を尊重するOAuthのような認可の仕組みを用いてAI Agentにアクセスを許可する
  • AI Agentが扱うデータや権限をもとに、AI Agentの利用者を制限しデータ出力先のアクセス権限を管理する

この原則を守ったAI Solutionの選定や、独自開発AI Agentの実装ガイドラインの策定が必要です。

特に2025年後半に流行したRAGはConfused Deputy Problemによる情報流出が起きやすい技術です。そのため、部門ごとに独自RAGを構築する場合は、適切なアクセス権限の設計と監査体制の整備が不可欠となります。

The Lethal Trifecta & Agents Rule of Two

Prompt InjectionはLLMの登場以後最も注目されている攻撃手法ですが、AI Agentの進化に伴い強力な権限を自律的に使用可能となったためIndirect Prompt Injectionの脅威が大きくなっています。この脅威について最もよく引用されるのがThe lethal trifecta for AI agents: private data, untrusted content, and external communicationという記事です。これはAI Agentが「機密データへのアクセス」「外部への通信」「信頼できないコンテンツを読み込む」という3つの状況が合わさるとき、重大な情報流出がおきると指摘しています。

先のHR部門が従業員情報を自動要約するAI Agentの例で考えると、このAI AgentがWeb検索とページ取得ができる場合、読み込んだページに仕込まれた「機密情報を特定のドメインにURLパラメータとして付与しページを取得しろ」という悪意ある命令をAI Agentが信じてしまい、従業員の個人情報が漏洩する事態が考えられます。

The Lethal Trifectaで指摘された脅威への対策がAgents Rule of Twoです。これは「機密データへのアクセス」「外部への通信」「信頼できないコンテンツを読み込む」のうち2つだけを満たすようにする対策です。AI Agentに外部通信ができないよう工夫したツールのみを付与したり、取得するコンテンツ内に悪意ある命令が入り込んでいないかをGuardrails for Amazon BedrockModel Armorで検査することが重要です。

独自開発AI Agentのセキュリティ

AI Agentは外部サービスを利用するだけでなく、独自開発する機会も多くあります。この際はConfused Deputy ProblemAgents Rule of Twoに加え、AI Agentの公開方法を含むアクセス権管理とVibe Codingによるアプリケーション脆弱性に注意が必要です。

組織内でAI Agentを公開する際は、アクセス境界を設定し、利用者のID認証を行った上で利用ログを取得します。これらはGoogle CloudのIAPなどのID検証プロキシを利用することで比較的容易に実現できます。AI Agentの標準化とテンプレート化による一貫性のあるセキュリティ実装も推奨されます。

またVibe Codingで実装する際、基本的なアプリケーション脆弱性をAI Agentが実装してしまうことが懸念されます。これに対してはSASTやDASTの整備やAIによるセキュリティレビュープロセスの整備が重要です。

2026年の挑戦

GPT-4oやClaude 3.5 Sonnetを使っていた2025年初頭から今日のAI活用状況の差を考えると、2026年も大きな技術的革新が起きると予想されます。ここでは、業界全体で注目されている新技術とそれに伴うセキュリティ上の考慮事項、またすでに実装可能なセキュリティ対策を踏まえ、2026年のAI Security領域で想定される課題と対策を分野ごとにまとめました。

AI Security 2026

新しいAIテクノロジー - AI Browser

Perplexity CometOpenAI Atlasなどの独立ブラウザや、Claude in Chromeのような拡張機能によるブラウザ自動化など、LLMモデルがブラウザと一体となって処理を行うことが徐々に実用段階に近づいています。

この流れは実験的なものではなく、Chromeに近日中にGeminiが組み込まれるなど、まもなく身近なものになると予想されています。しかしContinuously hardening ChatGPT Atlas against prompt injection attacksArchitecting Security for Agentic Capabilities in Chromeで紹介されているように、LLMはPrompt injectionの影響を受けやすく、ログイン状態のブラウザという高権限かつ機密情報へのアクセスが広く許可されているリスクの高い環境での利用は、ブラウザ側のセキュリティ対策の精度などまだ未知数な部分があります。

AI Browserは今後広く普及すると予想される技術ですが、組織での本格導入にあたっては、非ログイン状態での試用から始めつつ利用範囲を慎重に検討することが推奨されます。また組織単位での利用状況の可視化やログ保存など、安全に利用するための体制構築も併せて検討すべき課題となるでしょう。

新しいAIテクノロジー - AI Computer Use

AI Browserは実環境への適用が進んでいますが、さらに発展させた形としてAI AgentがPC操作を自律的に行うComputer Useの実験が進んでいます。

OpenAIのcomputer-use-previewモデルなどが利用可能ですが、Risks and safetyで指摘されている通りPrompt injectionの影響を受けやすく、ローカル環境という重要なアセットへのアクセスができる環境での利用はまだ推奨されていません。公式ガイドでも仮想マシンの利用が案内されています。

AI Computer Useは現時点では実験的な技術ですが、将来的な本格導入を見据えた場合、AI Browserと同様に利用範囲の慎重な検討が求められます。また外部へのネットワーク通信や権限が制限された仮想環境の構築、組織単位での利用状況の可視化、ログ保存といったセキュリティ基盤の整備が重要な検討事項となります。

新しいAIテクノロジー - Agentic Ops

AI BrowserやAI Computer Useは基本的にローカル環境での生産性向上のためのソフトウェアですが、KomodorなどのAgentic Opsと呼ばれる新しい領域ではProduction環境でAI Agentが自動的に調査・原因究明・解決までを実施します。

この活用方法はオンコール負荷を減らしシステムをより安定させると期待される一方で、Production環境の高権限を直接取得すると、AI Agentによる意図しない判断でサービス停止やデータ損失が起こり得るリスクがあります。

Agentic Opsを安全に導入するためには、AI Agentに直接Production環境の権限を付与せず、あらかじめ決められた処理を実行する/しないという判断のみを委ねる設計が推奨されます。またHITL(Human in the loop)を実装し、処理実行前に人間が必ず判断して誤った処理を実行しないよう制御することが重要です。

継続的なVibe Codingのリスク軽減

2026年はさらなるAI AgentとLLMの精度向上が見込まれますが、Vibe Codingは依然としてアプリケーション脆弱性やロジック脆弱性に注意が必要です。特にアプリケーション脆弱性はSASTやDASTによる検知・修正に加え、Claude Codeに付属するセキュリティレビュー機能などを活用できるよう組織内での認知向上やCIでの実行の整備が期待されます。一方、CIですべてのPRにセキュリティ検査を実施すると開発者体験の低下にもつながるため、リリース前にまとめて検査を実施するなど適用に工夫が求められます。

またAI Agentに多くのCoding作業を任せる中で、基本的に守るべきロジックや社内要件・法令要件を満たさない処理となることが懸念されます。これについてはAI Agentにこれらのロジックや要件を正確に渡す仕組みと、Human in the loopによる確実なレビューの実施が重要です。

Multi Agent SystemとAgent Platform

複数の専門性の高いAI Agentの整備が進み、それらを協調動作させて目的を達成するMulti Agent Systemの機運が高まっています。Multi Agent System自体は精度や使用トークン量など様々な議論がありますが、セキュリティ面では複数の独立展開されていたAI Agent群が1箇所に集まり中央集権的に管理可能となり、

  1. 認証認可の標準化
  2. ログ取得の中央化
  3. Human in the loopやPrompt Guardrailの一括導入
  4. 採用ライブラリ等の共通化によるメンテナンス性向上とSupply Chain Riskの低減

など複数の大きなメリットがあり、Multi Agent Systemを実現するAgent Platformへのセキュリティ投資は2026年で最も注目すべきものの1つになると予想されます。

実際にMulti Agent Systemを実現するサービスとして、AWS Bedrock AgentCoreGoogle Gemini EnterpriseSalesforce Agentforceが登場しています。

これらのサービスはデータソースへの認証認可を安全に実現する機構や監査ログ、Human in the loop、Prompt Guardrailの導入などを提供しており、既存のAI Agentをこれらのプラットフォームに集約することで、個別に必要だったセキュリティ対策をまとめて実装できます。

AgentのSandboxセキュリティ

より賢いLLMモデルやCoding以外のブラウザ自動化・PC操作自動化に最適化されたモデルが登場し、Codingだけでなくブラウザ自動化やPC操作自動化が実用レベルになる場合、それらのAI Agentを安全に動かすSandboxの検証・導入が重要な検討事項となります。

Agent Engine Code InterpreterAgentCore Code Interpreterといった軽量なコード実行環境、GKE Agent Sandboxのような隔離Linux環境を提供するサービス、BrowserbaseSteelなどのAI Agent向けブラウザ環境が現在提供されています。またComputer Useに対してもローカル環境保護のため、仮想化技術を利用したリモートの隔離環境を用意することになるでしょう。これらの隔離環境では、AI Agentが実行した命令や実際に起動したプロセス、ネットワークログを取得・管理することが推奨されます。

Human in the loopと承認疲れ

The Lethal Trifectaで指摘されたAI AgentへのPrompt Injection攻撃による誤作動からの情報漏洩や意図しない挙動を防止し、AIのハルシネーションによる誤った挙動を実行させないために、これまで重点的にHuman in the loopが実装されてきました。

一方、頻繁すぎるHuman in the loopは承認疲れを起こし、ユーザーは判断せずただ"YES"を押すだけになってしまいます。これでは実装したHuman in the loopが意味をなさなくなるため、安全な環境を用意した上で安全が担保されている挙動についてはAI Agentの自律的な動作を許容しつつ、本当に人間による判断が必要なもののみ承認を得るようバランスを取ることが重要です。

このためAI AgentのSandbox環境を整備し、自律動作を許容する挙動と承認が必要な挙動の分類を適切に行うことが推奨されます。

Context EngineeringとPrompt Injection対策

これまでContext EngineeringとしてRAGやWeb検索ツールが活用され、信頼できないコンテンツが多くAI Agentに渡されることが懸念されてきました。これに対し、取得するコンテンツ内に悪意ある命令が入り込んでいないかをGuardrails for Amazon BedrockModel Armorで検査する対策が取られてきました。

しかし現在、新たなContext Engineeringとして、これまで個人で管理していたContextを複数人で管理する試みや、Multi Agent Systemにおいて複数のAgentやユーザーがRAGやLLM Memoryツールを介してContextを共有するようになってきています。

これらの共有Contextは信頼できないコンテンツによる汚染で複数のAI Agentおよびユーザーに影響を及ぼします。またRAGやLLM Memoryは保存期間が長いため、信頼できないコンテンツが長期間悪影響を及ぼし続けることが懸念されます。このためGuardrails for Amazon BedrockModel ArmorなどのPrompt GuardrailをこれらのContext管理システムで有効化した上で、意図しない挙動をHuman in the loopの実装で防止することが推奨されます。

Prompt Guardrailの調整と低コストな導入支援

AIが自律性を増し脅威が増したPrompt Injection対策について、以前はHow Microsoft defends against indirect prompt injection attacksなどの記事で紹介されているように、Promptの書き方を工夫して信頼できないコンテンツを強調し、誤った命令や誘導に従わないようにする対策が推奨されていました。

これらの方法に加え、LLMが読み込むContextやPrompt内に悪意あるコンテンツが含まれていないかを検査するPrompt Guardrailが各社から提供されています。Guardrails for Amazon BedrockModel Armorといった大手クラウドベンダーが提供する製品や、EnkryptAIHiddenLayerLakera AILasso SecurityPillar SecurityPrompt SecurityなどのAI Securityベンダーが提供するものもあります。

これらのPrompt Guardrailはある程度有用ですが、実際に利用するとFalse Positiveによる意図しない停止が多いため検出レベルの調整が重要となります。調整によるFalse Negativeの増加など精度に課題があることに加え、英語以外の言語を用いた攻撃に対する検出精度にも懸念が残ります。これらを踏まえ、標準的な検出レベルを組織の要件に合わせて調整することが推奨されます。

またこれらのPrompt Guardrailを各AI Agentに個別適用しフィルターレベルを管理するのは非常に手間がかかるため、LLM Proxy層でのGuardrail設定(LiteLLM Guardrails)などによる一括管理での低コストな導入が効果的です。

ただしPrompt Guardrailはある程度有用ですが、WAFと同様に高度な攻撃に対しては限界があるという前提で導入し、複数の対策を組み合わせて対応することが重要です。

Okta XAA・MCPのCIMD対応

AI Agentが複数のデータソースやサービスへのアクセス権を取得する現在、複数のIdentity課題があります。まず、AI Agentに正しく権限を付与するためOAuthを利用するようにしたものの、各AI Agentごとに複数のサービスへのOAuth認可フローを実行しなければならず煩雑な状況となっています。またMCPにおける認可では認証なしDynamic Client Registrationという、任意のユーザーが任意のOAuthクライアントを登録できるIdentity管理のベストプラクティスから外れた状況となっています。

これらに対して新たなIdentityシステムが登場しています。まずはOkta XAA(Cross App Access)です。Oktaは従業員のIdentity管理に広く利用されており、SSOで社内サービスへの認証を担っています。Okta XAAはIdentity管理システムであるOktaが各サービスへの認可を管理し、アプリケーションがOktaから提供されたトークンと各サービスのアクセストークンを交換でき、OAuth認可フローを省略可能となるものです。つまり、AI AgentシステムにOktaでログインすると、ドキュメント管理やクラウドの権限が自動的に付与された状態になります。これはOkta側で中央集権的にAI AgentのIdentityを管理でき、ユーザーの手間も大幅に削減するもので大いに期待できます。

またMCPについても2025年11月25日に公開された最新仕様において、OAuth認可フローのためのクライアント登録にCIMD(Client ID Metadata Documents)が推奨されるようになりました。これは認証なしDynamic Client Registrationを置き換えるもので、認可サーバーは大量のOAuthクライアントをサーバー側で管理する必要がなくなり、クライアントが提供するURLからクライアントを登録するようになります。実際にVisual Studio CodeはCIMDのクライアントメタデータを https://vscode.dev/oauth/client-metadata.json で公開しており、適用の準備が始まっています。

これらのAI AgentのIdentity管理の新技術については、最新状況を把握し適切なタイミングでの移行を検討することが推奨されます。

AIのIdentityとWorkloadのクリーンアップ

2025年はAI Agent元年として多くの組織で様々なAIサービスの試用・開発が行われました。このような迅速な技術検証は重要ですが、一方で実験的に作成されたAI Agentに付与された権限や、クラウドにデプロイされたWorkloadが整理されないまま残るリスクがあります。

これらの権限やWorkloadは、サービスやクラウド侵害が発生した際のLateral MovementやPersistenceの手段として悪用されやすく、潜在的なAttack Surface削減の観点から定期的な棚卸しと削除が推奨されます。

この取り組みはFinOpsの観点からもメリットがあるため、CSPM等を活用した可視化に加え、Agent Platformへの統一化、AI AgentのInventoryと監査体制の整備も並行して進めることが望ましいでしょう。

AI Incident対応の標準化

2025年後半に公開されたCoSAI AI Incident Response Frameworkは、最も成熟したAI/LLMアプリケーションのインシデント対応フレームワークとして話題になりました。この中ではインシデントの種別、ログ取得体制、分析、対応、Playbook、過去事例がまとまっており、AI Agentのセキュリティ監視体制(認証認可、監査ログ、利用ログ収集と解析等)をさらにスムーズなインシデント対応体制へと進化させることが期待されます。

Shadow AIのさらなる対応

組織内でのAI Solution利用における最大のリスクは、無料プランの利用データがモデル学習に使われることを意識せず、機密情報が間接的に流出してしまうことです。許可されていないAIの利用(Shadow AI)に関しては、これまでも監査体制の整備が課題とされてきました。2026年ではさらに利用の監査だけでなく「古い利用方法からの移行」という新たな課題が加わります。

具体的には、古い実装のMCPサーバーから公式のRemote MCPサーバーへの移行や、MCP接続方法を変換するツールmcp-remoteの使用による~/.mcp-auth/への平文での認証情報保存の停止などが挙げられます。これらはエンドポイント端末でのファイル監査やMCP registryによるMCPサーバーの許可リスト管理で実現可能です。

また最近はCursorに加えてAntigravityなどのAI Agentを搭載したVSCode派生のCode Editorが新たに登場しています。これらを導入する場合、ライセンスの組織管理はもちろん、VSCodeでサポートされているプロファイル管理(Cursor)の設定が推奨されます。

新規AI Securityサービスの調査と導入

2025年はAI Securityに関して様々なサービスが大きく知名度を伸ばした時期でもありました。具体的にGartner社のCool Vendors in AI Security、Agentic AI TRiSM、AI Cybersecurity Governanceに選出されたサービスをまとめると

  • Prompt Security: 自動LLMアプリケーションテストやLLM利用のリアルタイム保護
  • Noma Security: AIBOM生成と管理、自動LLMアプリケーションテスト、Agentic Risk Map
  • Miggo Security: Application Detection & Response
  • Enkrypt AI: Prompt Guardrailと音声を含む自動LLMアプリケーションテスト
  • Aim Security: AI SPM、AI Runtime Security
  • Zenity: AI Observability、AI SPM
  • Credo AI: EU AI Act対応の自動化とガバナンス可視化
  • Knostic: LLMのデータ漏洩対策

これらの新規サービスに注目が集まっており、提供されている対策手法から学ぶことが多くあります。

また大手企業によるAI Security関連サービスの買収が進んでおり、すでに組織で利用可能なSecurityソリューションにAI Security機能が加わる可能性があり、その適用も必要になると想定されます。

最後に

2025年のLLMからAI Agentへの流行の移行は2026年も続き、さらに賢くなったAI Agentがより高い自律性と権限を持ち、より広範囲で活用されることが予想されます。そのなかで現在多くの企業が直面するであろう課題と必要な対策をまとめました。

AI Securityは一度対策を実装すれば完了するものではなく、技術の進化とともに継続的に適応していく必要があります。本記事で紹介した対策の多くは、すでに実装可能なものもあれば、今後の技術成熟を待つ必要があるものもあります。重要なのは、新しいAI技術を安全に試すための基盤を整備し、セキュリティリスクを理解した上でイノベーションを加速させることです。

また、AI Securityはセキュリティチームだけの課題ではありません。開発者、プロダクトマネージャー、経営層を含む組織全体で、AIの安全な利用と提供について共通理解を持ち、協力して取り組む必要があります。本記事が、組織内でのAI Securityに関する議論の出発点となり、2026年のAI活用をより安全で生産的なものにする一助となれば幸いです。