ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

GPR モデルの完全独立条件近似

完全独立条件 (FIC) 近似 [1] は、有効なガウス過程を維持したままSR 近似の予測分散の問題を回避するように、適切な GPR カーネル関数を体系的に近似計算する方法です。パラメーター推定に FIC 法を指定するには、fitrgp を呼び出すときに名前と値のペアの引数 'FitMethod','fic' を使用します。予測に FIC 法を指定するには、fitrgp を呼び出すときに名前と値のペアの引数 'PredictMethod','fic' を使用します。

カーネル関数の近似

アクティブ セット AN={1,2,...,n} に対する k(xi,xj|θ) の FIC 近似は、次により与えられます。

k^FIC(xi,xj|θ,A)=k^SR(xi,xj|θ,A)+δij(k(xi,xj|θ)k^SR(xi,xj|θ,A)),δij={1,ifi=j,0ifij.

つまり、ij の場合、FIC 近似は SR 近似と等しくなります。i=j の場合、ソフトウェアは近似値ではなく厳密なカーネル値を使用します。n 行 n 列の対角行列 Ω(X|θ,A) を次のように定義します。

[Ω(X|θ,A)]ij=δij(k(xi,xj|θ)k^SR(xi,xj|θ,A))={k(xi,xj|θ)k^SR(xi,xj|θ,A)ifi=j,0ifij.

すると、K(X,X|θ) の FIC 近似は次により与えられます。

K^FIC(X,X|θ,A)=K^SR(X,X|θ,A)+ Ω(X|θ,A)= K(X,XA|θ)K(XA,XA|θ)1K(XA,X|θ)+Ω(X|θ,A).

パラメーター推定

周辺対数尤度関数の K(X,X|θ)K^FIC(X,X|θ,A) に置き換えると、FIC 近似が得られます。

logPFIC(y|X,β,θ,σ2,A)=12(yHβ)T[K^FIC(X,X|θ,A)+σ2In]1(yHβ)N2log2π12log|K^FIC(X,X|θ,A)+σ2In|.

厳密法の場合と同じように、ソフトウェアは与えられた θ および σ2 に対して β の最適な推定である β^(θ,σ2) をはじめに計算することによりパラメーターを推定します。そして、β でプロファイルした周辺対数尤度を使用して θσ2 を推定します。与えられた θ および σ2 に対する β の FIC 推定は、次のようになります。

β^FIC(θ,σ2,A)=[HT(K^FIC(X,X|θ,A)+σ2 IN)1H*]1HT(K^FIC(X,X|θ,A)+σ2 IN)1y**,

*=HTΛ(θ,σ2,A)1HHTΛ(θ,σ2,A)1K(X,XA|θ)BA1K(XA,X|θ)Λ(θ,σ2,A)1H,**=HTΛ(θ,σ2,A)1yHTΛ(θ,σ2,A)1K(X,XA|θ)BA1K(XA,X|θ)Λ(θ,σ2,A)1y,BA=K(XA,XA|θ)+K(XA,X|θ)Λ(θ,σ2,A)1K(X,XA|θ),Λ(θ,σ2,A)=Ω(X|θ,A)+σ2In.

β^FIC(θ,σ2,A) を使用すると、β でプロファイルした周辺対数尤度は、FIC 近似では次のようになります。

logPFIC(y|X,β^FIC(θ,σ2,A),θ,σ2,A)=12(yHβ^FIC(θ,σ2,A))T(K^FIC(X,X|θ,A)+σ2IN)1(yHβ^FIC(θ,σ2,A))N2log2π12log|K^FIC(X,X|θ,A)+σ2IN|,

ここで、

(K^FIC(X,X|θ,A)+σ2IN)1=Λ(θ,σ2,A)1Λ(θ,σ2,A)1K(X,XA|θ)BA1K(XA,X|θ)Λ(θ,σ2,A)1,log|K^FIC(X,X|θ,A)+σ2IN|=log|Λ(θ,σ2,A)|+log|BA|log|K(XA,XA|θ)|.

予測

与えられた yX および xnew に対する ynew の分布の FIC 近似は、次のようになります。

P(ynew|y,X,xnew)=N(ynew|h(xnew)Tβ+μFIC,σnew2+ΣFIC),

ここで μFICΣFIC は、厳密 GPR 法を使用する予測で与えられる μΣ の FIC 近似です。SR の場合と同じように、μFICΣFIC は真のカーネルをすべて FIC 近似に置き換えることにより得られます。μFICΣFIC の最終的な形式は、次のようになります。

μFIC= K(xnewT,XA|θ) BA1 K(XA,X|θ) Λ(θ,σ2,A)1(yHβ),

ΣFIC=k(xnew,xnew|θ)K(xnewT,XA|θ)K(XA,XA|θ)1K(XA,xnewT|θ)+K(xnewT,XA|θ)BA1K(XA,xnewT|θ),

ここで、

BA=K(XA,XA|θ)+K(XA,X|θ)Λ(θ,σ2,A)1K(X,XA|θ),Λ(θ,σ2,A)=Ω(X|θ,A)+σ2In.

参照

[1] Candela, J. Q. A Unifying View of Sparse Approximate Gaussian Process Regression. Journal of Machine Learning Research. Vol 6, pp. 1939–1959, 2005.

参考

|

関連するトピック