ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

ベイズ最適化のアルゴリズム

アルゴリズムの概要

ベイズ最適化のアルゴリズムでは、有界領域でスカラー目的関数 f(x) を x について最小化しようとします。関数は確定的でも確率的 (同じ点 x で評価したときに異なる結果を返す可能性がある) でもかまいません。x の成分は、連続的な実数、整数、カテゴリカル (離散的な名前の集合) のいずれにすることもできます。

メモ

この説明全体で、D は x の成分の個数を表します。

最小化の主な要素は以下になります。

  • f(x) のガウス過程モデル。

  • f(x) の新しい評価位置のそれぞれでガウス過程モデルを変更するためのベイズ更新法。

  • 次の評価点 x を決定するために最大化する (f のガウス過程モデルに基づく) "獲得関数" a(x)。詳細は、獲得関数のタイプ獲得関数の最大化 を参照してください。

アルゴリズムの概要:

  • 変数の範囲内で無作為に選択した NumSeedPoints 個の点 xi について yi = f(xi) を評価します。NumSeedPointsbayesopt の設定です。評価の失敗がある場合は、評価が NumSeedPoints 回成功するまで無作為な点を選択します。各成分の確率分布は、optimizableVariableTransform の値に応じて均等スケールまたは対数スケールのいずれかになります。

次に、以下の手順を繰り返します。

  1. f(x) のガウス過程モデルを更新して、Q(f|xi, yi, i = 1,...,t) の各関数に対する事後分布を取得します (内部的に、bayesoptfitrgp を使用してガウス過程モデルをデータにあてはめます)。

  2. 獲得関数 a(x) を最大化する新しい点 x を求めます。

このアルゴリズムは次のいずれかに達すると停止します。

並列におけるアルゴリズムの違いについては、並列ベイズ アルゴリズムを参照してください。

モデルをあてはめるためのガウス過程回帰

目的関数 f の基となる確率モデルは、観測値にガウス ノイズが追加されたガウス過程の事前分布です。つまり、f(x) の事前分布は、平均が μ(x;θ)、共分散カーネル関数が k(x,x′;θ) のガウス過程です。ここで、θ はカーネル パラメーターのベクトルです。bayesopt が使用する特定のカーネル関数については、カーネル関数を参照してください。

少し詳しく説明すると、一連の点 X = xi は関連する目的関数の値 F = fi で表されます。関数値 F の事前分布の同時分布は、平均が μ(X)、共分散行列が K(X,X) の多変量正規分布になります。ここで、Kij = k(xi,xj) です。

一般性を失うことなく、事前平均は 0 になります。

さらに、分散が σ2 のガウス ノイズが観測値に追加されていると考えられます。したがって、事前分布の共分散は K(X,X;θ) + σ2I になります。

ガウス過程回帰モデルを観測値にあてはめるには、ノイズ分散 σ2 とカーネル パラメーター θ を求めることになります。このあてはめは、fitrgp によって実行される計算負荷の高いプロセスです。

観測値へのガウス過程のあてはめの詳細については、ガウス過程回帰を参照してください。

カーネル関数

カーネル関数 k(x,x′;θ) はガウス過程回帰の品質に大きく影響を与える可能性があります。bayesopt は、カーネル (共分散) 関数のオプションで定義されている ARD Matérn 5/2 カーネルを使用します。

Snoek、Larochelle および Adams[3]を参照してください。

獲得関数のタイプ

bayesopt では、6 種類の獲得関数を使用できます。3 つの基本タイプがありますが、expected-improvement には per-second または plus による修正もあります。

  • 'expected-improvement-per-second-plus' (既定の設定)

  • 'expected-improvement'

  • 'expected-improvement-plus'

  • 'expected-improvement-per-second'

  • 'lower-confidence-bound'

  • 'probability-of-improvement'

獲得関数は、事後分布関数 Q に基づいて点 x の適合度を評価します。誤差制約 (目的関数のエラーを参照) など連結制約がある場合、すべての獲得関数は Gelbart、Snoek および Adams[2]の提案に従って "適合度" の推定を変更します。制約が満たされる確率の推定値を適合度に乗算することにより獲得関数が得られます。

改良の期待量

'expected-improvement' 群の獲得関数は、目的関数の増大要因となる値を無視して、目的関数の改良の期待量を評価します。つまり、以下を定義します。

  • 最小の事後平均の位置として xbest

  • 事後平均の最小値として μQ(xbest)

その場合、改良の期待量は

EI(x,Q)=EQ[max(0,μQ(xbest)f(x))].

改良の確率

'probability-of-improvement' の獲得関数は、'expected-improvement' と同様の計算をよりシンプルな方法で行います。どちらの場合も、bayesopt はじめに xbestμQ(xbest) を計算します。そして、'probability-of-improvement' の場合、bayesopt はマージン パラメーター m で修正することにより新しい点 x で目的関数の値が向上する確率 PI を計算します。

PI(x,Q)=PQ(f(x)<μQ(xbest)m).

bayesopt は推定ノイズ標準偏差として m を使用します。bayesopt はこの確率を次のように計算します。

PI=Φ(νQ(x)),

ここで、

νQ(x)=μQ(xbest)mμQ(x)σQ(x).

ここで、 は単位正規 CDF、σQ は x におけるガウス過程の事後標準偏差です。

信頼限界の下限

'lower-confidence-bound' の獲得関数は、各点で事後平均から標準偏差の 2 倍を減算した曲線 G を調べます。

G(x)=μQ(x)2σQ(x).

G(x) は目的関数モデルの信頼包絡線より 2σQ 小さくなります。そして、bayesopt は G の負数を最大化します。

LCB=2σQ(x)μQ(x).

秒単位

目的関数を評価する時間は、領域によって異なる場合があります。たとえば、多くのサポート ベクター マシンは特定の点の範囲で大幅に計算時間が変化します。このような場合、bayesopt は獲得関数で時間の重みを使用することにより、秒単位で向上させることができます。コストに重みを付けた獲得関数には、名前に per-second という語句が含まれています。

これらの獲得関数は以下のように機能します。目的関数の評価時に、bayesopt は目的関数の評価時間を点 x の関数として別のベイズ モデルに保持します。獲得関数が使用する毎秒の改善の期待量は次のようになります。

EIpS(x)=EIQ(x)μS(x),

ここで、μS(x) は時間のガウス過程モデルの事後平均です。

プラス

目的関数の局所的な最小値を回避するため、名前に plus がある獲得関数は、領域を "過剰利用" していると推定した場合に動作を変更します。過剰利用について理解するため、σF(x) が x における事後目的関数の標準偏差であるとします。σ を加法性ノイズの事後標準偏差であるとします。したがって

σQ2(x) = σF2(x) + σ2.

正の数値である ExplorationRatio オプションの値になるように tσ を定義します。bayesoptplus の獲得関数は、各反復後に次の点 x が以下を満たすかどうかを評価します。

σF(x) < tσσ

条件が満たされる場合、x は過剰利用であると判断されます。そして、Bull[1]が提案しているように、θ に反復回数を乗算することにより獲得関数のカーネル関数が修正されます。この変更により、観測値の間にある点の分散 σQ が大きくなります。次に、新しくあてはめたカーネル関数に基づいて新しい点が生成されます。新しい点 x が再び過剰利用になる場合、θ に 10 という追加係数を乗算して再度試します。これを最大 5 回繰り返して、過剰利用にならない点 x を生成しようとします。このアルゴリズムでは、次の点として新しい x が受け入れられます。

したがって、ExplorationRatio は大域解を向上させる新しい点を探索するか、あるいは既に調べた点の近傍に集中するかのトレードオフを制御します。

獲得関数の最大化

内部的に、bayesopt は以下の一般的な手順を使用して獲得関数を最大化します。

  1. 'expected-improvement' で始まるアルゴリズムの場合と 'probability-of-improvement' の場合、bayesopt は変数の範囲内で数千個の点を抽出し、最良 (平均値が小さい) 実行可能点をいくつか選択し、局所探索を使用して改善を行い、表面上の最良実行可能点を見つけることにより、事後分布について最小実行可能平均 μQ(xbest) を推定します。実行可能とは、点が制約 (ベイズ最適化の制約を参照) を満たすことを意味します。

  2. すべてのアルゴリズムの場合、bayesopt は変数の範囲内で数千個の点を抽出し、最良 (獲得関数の値が大きい) 実行可能点を選択し、局所探索を使用して改善を行い、表面上の最良実行可能点を見つけます。獲得関数の値は目的関数のサンプルではなくモデル化された事後分布に基づくので、高速に計算することができます。

参照

[1] Bull, A. D. Convergence rates of efficient global optimization algorithms. https://arxiv.org/abs/1101.3501v3, 2011.

[2] Gelbart, M., J. Snoek, R. P. Adams. Bayesian Optimization with Unknown Constraints. https://arxiv.org/abs/1403.5607, 2014.

[3] Snoek, J., H. Larochelle, R. P. Adams. Practical Bayesian Optimization of Machine Learning Algorithms. https://arxiv.org/abs/1206.2944, 2012.

関連するトピック