Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

自動微分の背景

自動微分とは

自動微分 ("autodiff""AD"、または "アルゴリズム微分" とも呼ばれる) は、最適化で広く使用されるツールです。solve 関数は、一般的な非線形目的関数と制約の問題ベースの最適化で既定で自動微分を使用します。Optimization Toolbox の自動微分を参照してください。

自動微分は、導関数 (勾配) を数値的に評価する手法のセットです。この手法は、微分に対して記号規則を使用します。この規則は、有限差分近似より正確です。純粋な記号アプローチとは異なり、自動微分は、大量の記号計算を実行するのではなく、計算の初期段階で式を数値的に評価します。つまり、自動微分は、特定の数値で導関数を評価します。導関数の記号式を作成することはありません。

  • "フォワード モード" の自動微分は、基本的な導関数演算と関数自体を評価する演算を同時に実行することによって、数値導関数を評価します。次の節で詳しく説明しますが、ソフトウェアは、これらの計算を計算グラフ上で実行します。

  • "リバース モード" の自動微分は、フォワード モードの計算グラフの拡張を使用して、グラフのリバース トラバーサルによる勾配の計算を可能にします。ソフトウェアはコードを実行して関数とその導関数を計算すると、演算を "トレース" と呼ばれるデータ構造に記録します。

多くの研究者 (Baydin、Pearlmutter、Radul、および Siskind [1] など) が言及しているように、多くの変数のスカラー関数では、リバース モードのほうがフォワード モードより効率的に勾配を計算します。目的関数はスカラーのため、solve 自動微分はスカラー最適化にリバース モードを使用します。ただし、非線形最少二乗のようなベクトル値関数や方程式求解の場合、solve は計算にフォワード モードを使用する場合があります。詳細は、Optimization Toolbox の自動微分を参照してください。

フォワード モード

次の関数とその勾配を評価する問題を考えます。

f(x)=x1exp(12(x12+x22)).

自動微分は特別な点で機能します。この場合は、x1 =2 と x2 =1/2 を使用します。

下の計算グラフは、関数 f(x) の計算をエンコードしたものです。

フォワード モードを使用して f(x) の勾配を計算するために、同じグラフを同じ方向に計算しますが、微分の基本的な規則に基づいて計算を修正します。計算をさらに単純化するために、部分式 ui ごとに導関数の値を入力します。勾配全体を計算するには、独立変数ごとの部分導関数に対して 1 回ずつの計 2 回グラフを移動しなければなりません。連鎖律内の部分式ごとに数値が割り当てられるため、式全体の評価グラフの種類が関数自体と同じになります。

計算は、連鎖律の反復適用です。この例では、x1 に関する f の導関数が次の式に展開されます。

dfdx1=du6dx1=u6u1+u6u5u5x1=u6u1+u6u5u5u4u4x1=u6u1+u6u5u5u4u4u3u3x1=u6u1+u6u5u5u4u4u3u3u1u1x1.

u˙i で x1 に関する式 ui の導関数を表してみましょう。下の図に示すように、関数評価からの ui の評価値を使用して、x1 に関する f の部分導関数を計算します。u˙i のすべての値が、グラフを上から下に移動するときに入手できることに注意してください。

x2 に関する部分導関数を計算するには、同様の計算グラフを移動します。そのため、関数の勾配を計算すると、グラフ トラバーサルの回数が変数の数と同じになります。目的関数または非線形制約が多くの変数に依存している場合は、多くの用途でこのプロセスの実行速度が遅くなる可能性があります。

リバース モード

リバース モードは、計算グラフの 1 回のフォワード トラバーサルを使用してトレースを設定します。その後で、グラフの 1 回のリバース トラバーサルで関数の勾配全体を計算します。多くの変数を含む問題では、このモードがはるかに効率的です。

リバース モードの背後にある理論も、上線で示される関連する随伴変数とともに、連鎖律に基づきます。ui の随伴変数は次のとおりです。

u¯i=fui.

計算グラフの観点では、1 つの変数から伸びる矢印が、連鎖律の項別に対応する随伴変数に寄与します。たとえば、変数 u–1 からは 2 つの変数の u1 と u6 に矢印が伸びています。グラフには、次の方程式が関連付けられています。

fu1=fu1u1u1+fu6u6u1=u¯1u1u1+u¯6u6u1.

この計算では、u1=u12u6 = u5u–1 を思い出すことによって、次の式が得られます。

u¯1=u¯12u1+u¯6u5.

グラフのフォワード トラバーサル中は、ソフトウェアが中間変数 ui を計算します。シード値 u¯6=ff=1 で始まるリバース トラバーサル中は、リバース モード計算によって、すべての変数の随伴行列値が得られます。そのため、リバース モードでは、1 回の計算だけで勾配が計算されるため、フォワード モードに比べて大幅な時間の節約になります。

下の図は、関数のリバース モードでの勾配の計算を示しています。

f(x)=x1exp(12(x12+x22)).

繰り返しになりますが、この計算では x1 = 2 と x2 = 1/2 を使用します。リバース モードの計算は、元の計算グラフ内の関数の計算中に取得される ui の値に左右されます。図の右側の部分では、図の左側の部分からの公式を使用して計算された随伴変数の値が、随伴変数名の横に表示されています。

最終勾配値が u¯0=fu0=fx2 および u¯1=fu1=fx1 として表示されています。

詳細については、Baydin、Pearlmutter、Radul、および Siskind [1] または自動微分に関する Wikipedia の記事[2]を参照してください。

Optimization Toolbox の自動微分

自動微分 (AD) は、以下の条件の下で、solve 関数と prob2struct 関数に適用されます。

  • 最適化変数および式でサポートされる演算で説明されているように、目的関数と制約関数がサポートされています。これらの関数は、fcn2optimexpr 関数を使用する必要がありません。

  • solve に呼び出されるソルバーは、fminconfminuncfsolvelsqnonlin のいずれかです。

  • 最適化問題では、solve または prob2struct'ObjectiveDerivative''ConstraintDerivative' の名前と値のペアの引数が 'auto''auto-forward'、または 'auto-reverse' に設定されます。

  • 方程式問題の場合、'EquationDerivative' オプションは 'auto''auto-forward'、または 'auto-reverse' に設定されます。

AD の適用時サポートされているすべての制約関数サポートされていない 1 つ以上の制約
サポートされている目的関数目的と制約に使用される AD目的のみに使用される AD
サポートされていない目的関数制約のみに使用される AD使用されない AD

これらの条件が満たされなかった場合は、solve が有限差分によって勾配を推定し、prob2struct が生成された関数ファイル内に勾配を作成しません。

ソルバーは既定で次のタイプの AD を選択します。

  • 一般的な非線形目的関数の場合、fmincon は既定で目的関数用のリバース モードの AD になります。fmincon は、非線形制約の数が変数の数よりも少ない場合に既定で非線形制約関数用のリバース モードの AD になります。それ以外の場合、fmincon は既定で非線形制約関数用のフォワード モードの AD になります。

  • 一般的な非線形目的関数の場合、fminunc は既定でリバース モードの AD になります。

  • 最小二乗目的関数の場合、fminconfminunc は既定で目的関数用のフォワード モードの AD になります。問題ベースの最小二乗目的関数の定義については、問題ベースの最小二乗法の目的関数の記述を参照してください。

  • lsqnonlin は、目的ベクトルに含まれる要素数が変数の数以上である場合に既定でフォワード モードの AD になります。それ以外の場合、lsqnonlin は既定でリバース モードの AD になります。

  • fsolve は、方程式の数が変数の数以上の場合に既定でフォワード モードの AD になります。それ以外の場合、fsolve は既定でリバース モードの AD になります。

メモ

prob2struct によって変換された問題内で自動導関数を使用するには、これらの導関数を指定するオプションを渡します。

options = optimoptions('fmincon','SpecifyObjectiveGradient',true,...
    'SpecifyConstraintGradient',true);
problem.options = options;

現時点で、AD は、最初の導関数に対してのみ機能します。2 番目以降の導関数には適用されません。そのため、たとえば、解析的ヘッシアンを使用して最適化を高速化するには、solve を直接使用できず、代わりに、問題ベースのワークフローへの導関数の供給で説明されているアプローチを使用しなければなりません。

参照

[1] Baydin, Atilim Gunes, Barak A. Pearlmutter, Alexey Andreyevich Radul, and Jeffrey Mark Siskind. "Automatic Differentiation in Machine Learning: A Survey." The Journal of Machine Learning Research, 18(153), 2018, pp. 1–43. Available at https://arxiv.org/abs/1502.05767.

[2] Automatic differentiation. Wikipedia. Available at https://en.wikipedia.org/wiki/Automatic_differentiation.

参考

|

関連するトピック

外部の Web サイト