GLOSSARY

AI Model Drift Detection

AIモデルのドリフト検知

用語解説

AIモデルのドリフト検知とは、運用中のAIモデルが時間経過とともに精度が低下する「ドリフト」現象を早期に検知・対処する監視手法です。

ドリフトには2種類あります。「データドリフト(入力データの統計的分布が学習時から変化)」と「コンセプトドリフト(入力と出力の関係性自体が変化)」です。例えば、コロナ禍で消費者行動が変化したことで従来の需要予測モデルが機能しなくなった事例がコンセプトドリフトの典型です。

Evidently AI・Arize・WhyLogsなどのMLモニタリングツールを使い、PSI(Population Stability Index)やKL発散などの統計指標でドリフトを定量検知します。

どんな場面で活用するか

  • 需要予測モデルの入力特徴量の分布を毎週監視し、ドリフトを検知したら再学習をトリガーする
  • 不正検知AIの判定基準が詐欺師の手口変化により陳腐化していないか月次でレビューする
  • レコメンドエンジンのCTR・購買転換率をリアルタイムモニタリングし、性能低下時に即アラートを発報する

よくある誤解

一度精度検証済みのモデルは再評価不要だ」は誤りです。正しくは、AIモデルは学習時のデータ分布に依存するため、現実世界の変化に追従できなくなります。定期的な再評価と再学習サイクルの設計が、長期運用の必須条件です。

判断のヒント

監視設計の最初の一歩:本番デプロイ時に「どのメトリクスをどの頻度で監視するか」「閾値を超えたら誰がどう対処するか」をRunbookとして文書化しておきましょう。ドリフトは必ず起きるものとして事前に対処フローを設計することが重要です。

「この用語を自社で活用できるか確認したい」
「どの施策から始めるべきか相談したい」

無料相談で最適な活用方法をご提案します。