GPR モデルの回帰変数サブセット近似
回帰変数サブセット (SR) 近似法では、厳密 GPR 法のカーネル関数 を、与えられたアクティブ セット に対する近似 に置き換えます。パラメーター推定に SR 法を指定するには、fitrgp
を呼び出すときに名前と値のペアの引数 'FitMethod','sr'
を使用します。予測に SR 法を指定するには、fitrgp
を呼び出すときに名前と値のペアの引数 'PredictMethod','sr'
を使用します。
カーネル関数の近似
厳密 GPR モデルの場合、GPR で起こり得る予測は 個の一連の関数 に依存します。ここで、 はすべての観測値に対応する一連のインデックス、n は観測値の総数です。考え方は、より小さい関数のセット によってこれらの範囲の関数を近似する、というものです。ここで は、アクティブ セットとして選択する、点のインデックスのサブセットです。 を考えます。目的は、 の要素を の要素の線形結合として近似することです。
の関数を使用した に対する近似を次のように仮定します。
ここで、 は を近似するための線形結合の係数です。 という行列にすべての係数 が含まれていると仮定します。すると、 は となる の行列になります。ソフトウェアは、次の誤差関数を最小化することにより、アクティブ セット を使用して の要素に対する最適な近似を求めます。
ここで は、カーネル関数 k に関連付けられた再生カーネル ヒルベルト空間 (RKHS) です[1]、[2]。
を最小化する係数行列は、次のようになります。
アクティブ セット の要素を使用してカーネル関数を近似すると、次のようになります。
アクティブ セット を使用するカーネル関数の SR 近似は、次のように定義されます。
の SR 近似は次のようになります。
パラメーター推定
周辺対数尤度関数の を に置き換えると、SR 近似が得られます。
厳密法の場合と同じように、ソフトウェアは与えられた および に対して の最適な推定である をはじめに計算することによりパラメーターを推定します。そして、 でプロファイルした周辺対数尤度を使用して と を推定します。与えられた および に対する の SR 推定は、次のようになります。
ここで
でプロファイルした周辺対数尤度に対する SR 近似は、次のようになります。
予測
与えられた 、 および に対する の分布の SR 近似は、次のようになります。
ここで と は、厳密 GPR モデルの使用による予測で示されている と の SR 近似です。
と は、 をそれぞれ と における SR 近似 に置き換えることにより得られます。
つまり、
なぜならば
なので、 は次のように記述できます。
同様に、 は次のように導かれます。
なぜならば
は次のように求められます。
予測分散の問題
SR 法の欠点の 1 つは、選択したアクティブ セット から大きく離れた領域で予測を行うと予測分散が不当に小さくなる可能性がある、ということです。学習セット から大きく離れている新しい点 で予測を行うとします。つまり、 であると仮定します。
厳密 GPR の場合、与えられた 、 および に対する の事後分布は、平均が 、分散が の正規分布になります。この値は、 が から離れている場合、データ は に関する新しい情報を提供しないので、与えられた 、 および に対する の事後分布は、与えられた に対する事前分布 (平均が 、分散が の正規分布) に帰着するはずである、という意味で正確です。
SR 近似の場合、 が から離れていると (したがって からも離れていると)、 および になります。したがって、この極端なケースでは、 は厳密 GPR の に一致しますが、 は厳密 GPR の と比較して不当に小さくなります。
完全独立条件近似法は、この問題を回避するために役立てることができます。
参照
[1] Rasmussen, C. E. and C. K. I. Williams. Gaussian Processes for Machine Learning. MIT Press. Cambridge, Massachusetts, 2006.
[2] Smola, A. J. and B. Schökopf. "Sparse greedy matrix approximation for machine learning." In Proceedings of the Seventeenth International Conference on Machine Learning, 2000.