用語解説
AIセキュリティとは、生成AIシステムを標的にしたサイバー攻撃・悪用・情報漏洩から組織を守るための技術的・運用的対策の総称です。
主要な脅威としてプロンプトインジェクション・学習データ汚染(データポイズニング)・モデル逆転攻撃・機密情報の意図しない出力があります。OWASP Top 10 for LLM Applicationsを参照した脅威モデリングと、入出力フィルタリング・アクセス制御・監査ログ整備が基本対策です。
どんな場面で活用するか
- 社内チャットボットへのプロンプトインジェクション攻撃を検知・ブロックするフィルターを実装する
- LLMへの入力から個人情報・機密情報を自動マスキングする前処理パイプラインを構築する
- AIシステムの操作ログを全件記録し不正アクセスや異常な使用パターンをアラートで検知する
よくある誤解
「クラウドAIサービスを使えばセキュリティは全てベンダー任せでよい」は誤りです。正しくはベンダーはインフラ層を保護しますが、アプリケーション層のプロンプト設計・入出力制御・アクセス管理は利用側が責任を持つ必要があります。
判断のヒント
最初の対策OWASP LLM Top 10を読み、自社AIシステムの入力経路を全て洗い出してプロンプトインジェクション対策(入力サニタイズ・権限分離)から着手することを推奨します。