templateLinear
線形学習器テンプレート
説明
は、1 つ以上の名前と値の引数で指定された追加オプションを使用してテンプレートを返します。 t = templateLinear(Name,Value)
たとえば、正則化のタイプまたは強度や、目的関数の最小化に使用するソルバーを指定できます。学習器を指定しない場合、既定値 "svm" が使用されます。
名前と値の引数 Type を使用してモデルのタイプを指定する場合、コマンド ウィンドウに t を表示すると、すべてのオプションは、名前と値の引数を使用して指定する場合を除き、空 ([]) として示されます。モデルのタイプを指定しない場合、この表示では、空のオプションは非表示になります。学習中、空のオプションに既定値が使用されます。
例
既定の線形学習器テンプレートを作成し、これを使用して複数のバイナリ線形分類モデルを含む ECOC モデルに学習をさせます。
NLP のデータ セットを読み込みます。
load nlpdataX は予測子データのスパース行列、Y はクラス ラベルの categorical ベクトルです。データには 13 個のクラスが含まれています。
既定の線形学習器テンプレートを作成します。
t = templateLinear
t =
Fit template for Linear.
Learner: 'svm'
t は線形学習器のテンプレート オブジェクトです。t のプロパティはすべて空です。t を学習関数 (ECOC マルチクラス分類用の fitcecoc など) に渡す場合、空のプロパティはそれぞれの既定値に設定されます。たとえば、Type は "classification" に設定されます。既定値を変更するには、templateLinear の名前と値の引数を参照してください。
複数のバイナリ線形分類モデルで構成される ECOC モデルに学習させます。これらの分類モデルは、ドキュメンテーション Web ページにおける単語の度数分布からソフトウェア製品を特定します。学習時間を短縮するため、予測子データを転置し、観測値が列に対応することを指定します。
X = X'; rng(1); % For reproducibility Mdl = fitcecoc(X,Y,'Learners',t,'ObservationsIn','columns')
Mdl =
CompactClassificationECOC
ResponseName: 'Y'
ClassNames: [comm dsp ecoder fixedpoint hdlcoder phased physmod simulink stats supportpkg symbolic vision xpc]
ScoreTransform: 'none'
BinaryLearners: {78×1 cell}
CodingMatrix: [13×78 double]
Properties, Methods
または、Learners","Linear" を指定して、既定の線形分類モデルを含む ECOC モデルに学習をさせることができます。
メモリを節約するため、fitcecoc は線形分類学習器を含む学習済みの ECOC モデルを CompactClassificationECOC モデル オブジェクトで返します。
名前と値の引数
オプションの引数のペアを Name1=Value1,...,NameN=ValueN として指定します。ここで、Name は引数名で、Value は対応する値です。名前と値の引数は他の引数の後に指定しなければなりませんが、ペアの順序は重要ではありません。
R2021a より前では、名前と値をそれぞれコンマを使って区切り、Name を引用符で囲みます。
例: 'Learner','logistic','Regularization','lasso','CrossVal','on' は、LASSO ペナルティがあるロジスティック回帰と 10 分割の交差検証を実装するように指定します。
分類モデルと回帰モデル
正則化項の強度。'Lambda' と 'auto'、非負のスカラーまたは非負値のベクトルから構成されるコンマ区切りのペアとして指定します。
'auto'の場合、Lambda= 1/n です。交差検証の名前と値のペアの引数 (
CrossValなど) を指定した場合、n は分割内観測値の数です。それ以外の場合、n は学習標本のサイズです。
非負値のベクトルの場合、
templateLinearは、Lambdaの異なる値それぞれについて目的関数の最適化を逐次的に昇順で実行します。Solverが'sgd'または'asgd'でRegularizationが'lasso'の場合、templateLinearが前の係数の推定値を次の最適化反復のウォーム スタートとして使用することはありません。それ以外の場合、templateLinearはウォーム スタートを使用します。Regularizationが'lasso'の場合、templateLinearがLambdaの以後の値を使用して最適化を行うときに、係数の推定値 0 は値が保持されます。templateLinearは、指定された正則化強度ごとに係数の推定値を返します。
例: 'Lambda',10.^(-(10:-2:2))
データ型: char | string | double | single
線形学習器のタイプ。"svm"、"logistic"、または "leastsquares" として指定します。
次の表では、 です。
β は p 個の係数のベクトルです。
x は p 個の予測子変数による観測値です。
b はスカラー バイアスです。
| 値 | アルゴリズム | 応答の範囲 | 損失関数 |
|---|---|---|---|
"svm" | サポート ベクター マシン (分類または回帰) | 分類: y ∊ {–1,1}。陽性クラスの場合は 1、それ以外の場合は –1 回帰: y ∊ (-∞,∞) | 分類: ヒンジ 回帰: イプシロン不感応 |
"logistic" | ロジスティック回帰 (分類のみ) | y ∊ {–1,1}。陽性クラスの場合は 1、それ以外の場合は –1 | 逸脱度 (ロジスティック) |
"leastsquares" | 通常の最小二乗による線形回帰 (回帰のみ) | y ∊ (-∞,∞) | 平均二乗誤差 (MSE) |
例: "Learner","logistic"
複雑度ペナルティのタイプ。'Regularization' と 'lasso' または 'ridge' から構成されるコンマ区切りのペアとして指定します。
最小化のための目的関数は、平均損失関数 (Learner を参照) と次の表の正則化項を加算することにより作成されます。
| 値 | 説明 |
|---|---|
'lasso' | LASSO (L1) ペナルティ: |
'ridge' | リッジ (L2) ペナルティ: |
正則化項の強度 (式の λ) を指定するには、Lambda を使用します。
バイアス項 (β0) は正則化ペナルティから除外されます。
Solver が 'sparsa' の場合、Regularization の既定値は 'lasso' になります。それ以外の場合は、既定値は 'ridge' です。
例: 'Regularization','lasso'
目的関数の最小化手法。'Solver' と次の表の値をもつ文字ベクトル、string スカラー、string 配列、または文字ベクトルの cell 配列から構成されるコンマ区切りのペアとして指定します。
| 値 | 説明 | 制限 |
|---|---|---|
'sgd' | 確率的勾配降下法 (SGD) [4][2] | |
'asgd' | 平均化確率的勾配降下法 (ASGD) [7] | |
'dual' | SVM 用の双対 SGD [1][6] | Regularization は 'ridge'、Learner は 'svm' でなければなりません。 |
'bfgs' | Broyden-Fletcher-Goldfarb-Shanno 準ニュートン アルゴリズム (BFGS) [3] | X の次元数が非常に多い場合は非効率的です。Regularization は 'ridge' でなければなりません。 |
'lbfgs' | メモリ制限 BFGS (LBFGS) [3] | Regularization は 'ridge' でなければなりません。 |
'sparsa' | 可分近似によるスパース再構成 (SpaRSA) [5] | Regularization は 'lasso' でなければなりません。 |
指定する項目によって、内容は次のように変わります。
予測子データ セットに 100 個以下の予測子変数が格納されている場合にリッジ ペナルティ (
Regularizationを参照) を指定すると、既定のソルバーは'bfgs'になります。予測子データ セットに 100 個より多い予測子変数が格納されている場合に SVM モデル (
Learnerを参照) とリッジ ペナルティを指定すると、既定のソルバーは'dual'になります。予測子データ セットに 100 個以下の予測子変数が格納されている場合に LASSO ペナルティを指定すると、既定のソルバーは
'sparsa'になります。
それ以外の場合、既定のソルバーは 'sgd' になります。既定のソルバーはハイパーパラメーターの最適化を実行するときに変更できることに注意してください。詳細については、ハイパーパラメーターの最適化で使用される線形学習器ソルバーを正則化手法に基づいて決定を参照してください。
ソルバー名の string 配列または cell 配列を指定する場合、Lambda のそれぞれの値に対して、ソルバー j の解がソルバー j + 1 のウォーム スタートとして使用されます。
例: {'sgd' 'lbfgs'} は、オブジェクティブを解決するために SGD を適用し、解を LBFGS のウォーム スタートとして使用します。
ヒント
SGD および ASGD は他のソルバーより高速に目的関数を解決できるのに対し、LBFGS および SpaRSA は他のソルバーより正確な解が得られます。
{'sgd' 'lbfgs'}や{'sgd' 'sparsa'}のようにソルバーを組み合わせると、速度と精度の最適化のバランスをとることができます。SGD と ASGD のいずれかを選択する場合、以下を考慮します。
SGD は反復あたりの時間が短くなりますが、収束するまでに必要な反復回数が多くなります。
ASGD は収束するまでに必要な反復回数が少なくなりますが、反復あたりの時間が長くなります。
予測子データが高次元で
Regularizationが'ridge'の場合、Solverに次の組み合わせのいずれかを設定します。'sgd''asgd''dual'(Learnerが'svm'の場合)'lbfgs'{'sgd','lbfgs'}{'asgd','lbfgs'}{'dual','lbfgs'}(Learnerが'svm'の場合)
他の組み合わせも設定できますが、多くの場合、不十分な精度の解となります。
予測子データが中~低次元で
Regularizationが'ridge'の場合、Solverを'bfgs'に設定します。Regularizationが'lasso'の場合、Solverに次の組み合わせのいずれかを設定します。'sgd''asgd''sparsa'{'sgd','sparsa'}{'asgd','sparsa'}
例: 'Solver',{'sgd','lbfgs'}
線形係数の初期推定値 (β)、'Beta' と p 次元の数値ベクトルまたは p 行 L 列の数値行列から構成されるコンマ区切りのペアとして指定します。p はカテゴリカル変数用にダミー変数が作成された後の予測子変数の数 (詳細については、CategoricalPredictors を参照)、L は正則化強度値の数 (詳細については、Lambda を参照) です。
p 次元ベクトルを指定した場合、次のプロセスを使用して目的関数が L 回最適化されます。
初期値として
Beta、正則化強度としてLambdaの最小値を使用して最適化を行う。前回の最適化で生成された推定値をウォーム スタートとして使用し、
Lambda内の次に小さい値を正則化強度として使用して、再度最適化を行う。Lambdaの値をすべて使用するまでステップ 2 を繰り返す。
p 行 L 列の行列を指定した場合、目的関数が L 回最適化されます。反復
jでは、初期値としてBeta(:,が使用され、j)Lambdaを昇順で並べ替えた後で正則化強度としてLambda(が使用されます。j)
'Solver','dual' を設定した場合、Beta は無視されます。
データ型: single | double
切片の初期推定値 (b)。'Bias' と数値スカラーまたは L 次元の数値ベクトルから構成されるコンマ区切りのペアとして指定します。L は正則化強度値の数です (詳細については、Lambda を参照)。
スカラーを指定した場合、次のプロセスを使用して目的関数が L 回最適化されます。
初期値として
Bias、正則化強度としてLambdaの最小値を使用して最適化を行う。生成された推定値を次回の最適化の反復でウォーム スタートとして使用し、
Lambda内の次に小さい値を正則化強度として使用する。Lambdaの値をすべて使用するまでステップ 2 を繰り返す。
L 次元ベクトルを指定した場合、目的関数が L 回最適化されます。反復
jでは、初期値としてBias(が使用され、j)Lambdaを昇順で並べ替えた後で正則化強度としてLambda(が使用されます。j)既定の設定では、次のようになります。
Learnerが'logistic'の場合、gj はY(が陽性クラスであれば 1、そうでなければ -1 になります。j)Biasは、学習の場合は g の、交差検証の場合は分割内観測値の加重平均になります。Learnerが'svm'の場合、Biasは 0 になります。
データ型: single | double
線形モデルの切片使用フラグ。'FitBias' と true または false から構成されるコンマ区切りのペアとして指定します。
| 値 | 説明 |
|---|---|
true | 線形モデルにバイアス項 b が追加され、推定されます。 |
false | 推定時に b = 0 に設定されます。 |
例: 'FitBias',false
データ型: logical
最適化後に線形モデルの切片を当てはめるフラグ。'PostFitBias' と true または false から構成されるコンマ区切りのペアとして指定します。
| 値 | 説明 |
|---|---|
false | 最適化時にバイアス項 b と係数 β が推定されます。 |
true | b を推定するため、以下が行われます。
|
true を指定する場合、FitBias は true でなければなりません。
例: 'PostFitBias',true
データ型: logical
R2023b 以降
線形モデルのタイプ。"classification" または "regression" として指定します。
| 値 | 説明 |
|---|---|
"classification" | 分類線形学習器テンプレートを作成します。Type を "classification" と指定しない場合、近似関数 fitcecoc、testckfold、および fitsemigraph に t を渡すと、この値が設定されます。 |
"regression" | 回帰線形学習器テンプレートを作成します。Type を "regression" と指定しない場合、近似関数 directforecaster に t を渡すと、この値が設定されます。 |
例: "Type","classification"
データ型: char | string
詳細レベル。'Verbose' と 0 または 1 のいずれかから構成されるコンマ区切りのペアとして指定します。Verbose は、コマンド ラインにおける診断情報の表示を制御します。
| 値 | 説明 |
|---|---|
0 | templateLinear は診断情報を表示しません。 |
1 | templateLinear は、目的関数の値、勾配の大きさ、および他の診断情報を定期的に表示します。 |
例: 'Verbose',1
データ型: single | double
回帰モデルのみ
イプシロン不感応区間の幅の半分。非負のスカラー値を指定します。この引数は、サポート ベクター マシン学習器にのみ適用されます。
Epsilon の既定値は、iqr(Y)/13.49 です。これは、応答変数 Y の四分位数間範囲を使用した標準偏差の推定値です。iqr(Y) がゼロに等しい場合、Epsilon の既定値は 0.1 になります。
例: "Epsilon",0.3
データ型: single | double
SGD および ASGD ソルバーのオプション
ミニバッチのサイズ。'BatchSize' と正の整数から構成されるコンマ区切りのペアとして指定します。各反復では、学習データの観測値を BatchSize 個使用して勾配が推定されます。
予測子データが数値行列の場合、既定値は
10です。予測子データがスパース行列の場合、既定値は
max([10,ceil(sqrt(ff))])です。ここで、ff = numel(X)/nnz(X)(Xの "スパース性係数") です。
例: 'BatchSize',100
データ型: single | double
学習率。'LearnRate' と正のスカラーで構成される、コンマ区切りのペアとして指定します。LearnRate は、劣勾配をスケールすることによって最適化のステップ サイズを制御します。
Regularizationが'ridge'の場合、LearnRateは初期学習率 γ0 を指定します。templateLinearは、次の式を使用して、反復 t、γt についての学習率を決定します。Regularizationが'lasso'の場合、すべての反復についてLearnRateは一定になります。
既定の設定では、LearnRate は 1/sqrt(1+max((sum(X.^2,obsDim)))) です。obsDim は、観測値が予測子データ X の列から構成されている場合は 1、それ以外の場合は 2 です。
例: 'LearnRate',0.01
データ型: single | double
発散 (最小値の限度を超える状態) が検出された場合に学習率を減少させるフラグ。'OptimizeLearnRate' と true または false から構成されるコンマ区切りのペアとして指定します。
OptimizeLearnRate が 'true' の場合、次のようになります。
数回の最適化反復について、
LearnRateを学習率として使用して最適化が開始される。目的関数の値が増加した場合、現在の学習率の半分の値を使用して再開される。
目的関数が減少するまで、ステップ 2 が繰り返される。
例: 'OptimizeLearnRate',true
データ型: logical
LASSO 切り捨て実行間のミニバッチの回数。'TruncationPeriod' と正の整数から構成されるコンマ区切りのペアとして指定します。
切り捨て実行の後で、ソフトしきい値が線形係数に適用されます。つまり、k = TruncationPeriod 回のミニバッチが処理された後で、次を使用して係数推定 j が切り捨てられます。
SGD の場合、 はミニバッチを次を満たす k の回数処理した後の係数 j の推定値です。γt は反復 t における学習率です。λ は
Lambdaの値です。ASGD の場合、 はミニバッチを次を満たす k の回数処理した後の係数 j の平均推定値です。
Regularization が 'ridge' の場合、TruncationPeriod は無視されます。
例: 'TruncationPeriod',100
データ型: single | double
SGD と ASGD の収束制御
バッチを処理する最大回数。'BatchLimit' と正の整数から構成されるコンマ区切りのペアとして指定します。BatchLimit 回のバッチが処理されると、最適化が終了します。
例: 'BatchLimit',100
データ型: single | double
線形係数およびバイアス項 (切片) の相対許容誤差。'BetaTolerance' と非負のスカラーから構成されるコンマ区切りのペアとして指定します。
であるとします。これは、最適化反復 t における係数およびバイアス項のベクトルです。 で最適化が終了します。
Solver で指定された最後のソルバーで収束する場合、最適化が終了します。それ以外の場合、Solver で指定された次のソルバーが使用されます。
例: 'BetaTolerance',1e-6
データ型: single | double
次回の収束チェックの前にバッチを処理する回数。'NumCheckConvergence' と正の整数から構成されるコンマ区切りのペアとして指定します。
バッチのサイズの指定について、BatchSize を参照してください。
既定の設定では、データ セット全体が通されるたびに約 10 回収束がチェックされます。
例: 'NumCheckConvergence',100
データ型: single | double
データを通す最大回数。'PassLimit' と正の整数から構成されるコンマ区切りのペアとして指定します。
データが完全に 1 回通されると、すべての観測値が処理されます。
データが通される回数が PassLimit になると、最適化が終了します。
BatchLimit を指定した場合、templateLinear では、BatchLimit と PassLimit の引数のうち、処理する観測値の数が少なくなる方が使用されます。
例: 'PassLimit',5
データ型: single | double
双対 SGD の収束制御
線形係数およびバイアス項 (切片) の相対許容誤差。'BetaTolerance' と非負のスカラーから構成されるコンマ区切りのペアとして指定します。
であるとします。これは、最適化反復 t における係数およびバイアス項のベクトルです。 で最適化が終了します。
DeltaGradientTolerance も指定した場合、いずれかの終了条件が満たされると最適化が終了します。
Solver で指定された最後のソルバーで収束する場合、最適化が終了します。それ以外の場合、Solver で指定された次のソルバーが使用されます。
例: 'BetaTolerance',1e-6
データ型: single | double
上位および下位プールのカルーシュ・キューン・タッカー (KKT) 相補性条件違反値の間における勾配差分の許容誤差。非負のスカラーとして指定します。
KKT 違反値の大きさが
DeltaGradientToleranceより小さい場合、最適化が終了します。Solverで指定された最後のソルバーで収束する場合、最適化が終了します。それ以外の場合、Solverで指定された次のソルバーが使用されます。
例: 'DeltaGradientTolerance',1e-2
データ型: double | single
次回の収束チェックの前に処理するデータ セット全体が通される回数。'NumCheckConvergence' と正の整数から構成されるコンマ区切りのペアとして指定します。
例: 'NumCheckConvergence',100
データ型: single | double
データを通す最大回数。'PassLimit' と正の整数から構成されるコンマ区切りのペアとして指定します。
データが完全に 1 回通されると、すべての観測値が処理されます。
データが通される回数が PassLimit になると、最適化が終了します。
例: 'PassLimit',5
データ型: single | double
BFGS、LBFGS および SpaRSA の収束制御
線形係数およびバイアス項 (切片) の相対許容誤差。非負のスカラーとして指定します。
であるとします。これは、最適化反復 t における係数およびバイアス項のベクトルです。 で最適化が終了します。
GradientTolerance も指定した場合、いずれかの終了条件が満たされると最適化が終了します。
Solver で指定された最後のソルバーで収束する場合、最適化が終了します。それ以外の場合、Solver で指定された次のソルバーが使用されます。
例: 'BetaTolerance',1e-6
データ型: single | double
勾配の絶対許容誤差。非負のスカラーとして指定します。
最適化反復 t における係数およびバイアス項に関する目的関数の勾配ベクトルを とします。 で最適化が終了します。
BetaTolerance も指定した場合、いずれかの終了条件が満たされると最適化が終了します。
指定された最後のソルバーで収束する場合、最適化が終了します。それ以外の場合、Solver で指定された次のソルバーが使用されます。
例: 'GradientTolerance',1e-5
データ型: single | double
ヘッセ近似の履歴バッファーのサイズ。'HessianHistorySize' と正の整数から構成されるコンマ区切りのペアとして指定します。各反復において、最新の HessianHistorySize 回の反復の統計量を使用してヘッシアンが構成されます。
SpaRSA の場合、'HessianHistorySize' はサポートされません。
例: 'HessianHistorySize',10
データ型: single | double
最適化反復の最大回数。'IterationLimit' と正の整数から構成されるコンマ区切りのペアとして指定します。IterationLimit は、Solver の値が 'bfgs'、'lbfgs' または 'sparsa' である場合に適用されます。
例: 'IterationLimit',500
データ型: single | double
出力引数
線形分類モデルまたは線形回帰モデルの学習に適した線形学習器テンプレート。テンプレート オブジェクトとして返されます。学習中、空のオプションに既定値が使用されます。
詳細
"ウォーム スタート" は、収束時間を短縮するために最適化ルーチンに与えられるベータ係数およびバイアス項の初期推定値です。
ヒント
観測値が列に対応するように予測子行列を配置して
'ObservationsIn','columns'を指定することをお勧めします。このようにすると、最適化実行時間が大幅に短縮される可能性があります。予測子データに含まれている観測値の数が少なく、予測子変数の数が多い場合、次のようにします。
'PostFitBias',trueを指定します。ソルバーが SGD または ASGD の場合、
PassLimitを 1 より大きい正の整数 (5 や 10 など) に設定します。このように設定すると、多くの場合に精度が向上します。
ソルバーが SGD または ASGD の場合、
BatchSizeは収束速度に影響を与えます。BatchSizeが小さすぎる場合、最小値を計算するための反復回数は多くなりますが、反復ごとの勾配の計算時間は短くなります。BatchSizeが大きすぎる場合、最小値を計算するための反復回数は少なくなりますが、反復ごとの勾配の計算時間は長くなります。
学習率 (
LearnRateを参照) が大きいと、最小値への収束が高速になりますが、発散 (最小値の限度を超える状態) の可能性があります。学習率が小さいと最小値への収束が保証されますが、終了までに時間がかかる可能性があります。Regularizationが'lasso'の場合は、さまざまな値のTruncationPeriodを試してください。たとえば、TruncationPeriodを1、10に設定してから100に設定します。効率のため、予測子データは標準化されません。予測子データ (
X) を標準化して観測値が列に対応するように配置するには、次のように入力します。X = normalize(X,2);
観測値が行に対応するように配置する場合は、次のように入力します。
X = normalize(X);
メモリを節約するため、このコードは元の予測子データを標準化されたデータに置き換えます。
参照
[1] Hsieh, C. J., K. W. Chang, C. J. Lin, S. S. Keerthi, and S. Sundararajan. “A Dual Coordinate Descent Method for Large-Scale Linear SVM.” Proceedings of the 25th International Conference on Machine Learning, ICML ’08, 2001, pp. 408–415.
[2] Langford, J., L. Li, and T. Zhang. “Sparse Online Learning Via Truncated Gradient.” J. Mach. Learn. Res., Vol. 10, 2009, pp. 777–801.
[3] Nocedal, J. and S. J. Wright. Numerical Optimization, 2nd ed., New York: Springer, 2006.
[4] Shalev-Shwartz, S., Y. Singer, and N. Srebro. “Pegasos: Primal Estimated Sub-Gradient Solver for SVM.” Proceedings of the 24th International Conference on Machine Learning, ICML ’07, 2007, pp. 807–814.
[5] Wright, S. J., R. D. Nowak, and M. A. T. Figueiredo. “Sparse Reconstruction by Separable Approximation.” Trans. Sig. Proc., Vol. 57, No 7, 2009, pp. 2479–2493.
[6] Xiao, Lin. “Dual Averaging Methods for Regularized Stochastic Learning and Online Optimization.” J. Mach. Learn. Res., Vol. 11, 2010, pp. 2543–2596.
[7] Xu, Wei. “Towards Optimal One Pass Large Scale Learning with Averaged Stochastic Gradient Descent.” CoRR, abs/1107.2490, 2011.
拡張機能
以下は、線形モデル テンプレートと tall 配列を fitcecoc に渡してモデルに学習をさせる場合の使用上の注意事項および制限事項です。
tall 配列を処理する場合、以下の名前と値のペアの引数は既定値が異なります。
'Lambda'—'auto'(既定値) またはスカラーが可能'Regularization'—'ridge'のみをサポート'Solver'—'lbfgs'のみをサポート'FitBias'—trueのみをサポート'Verbose'— 既定値は1'BetaTolerance'— 既定値は1e–3に緩和される'GradientTolerance'— 既定値は1e–3に緩和される'IterationLimit'— 既定値は20に緩和される
tall 配列が含まれている
templateLinearオブジェクトをfitcecocで使用する場合、使用可能なソルバーは LBFGS だけです。各反復で損失と勾配の計算を tall 配列のさまざまな部分に分散させることにより、 LBFGS が実装されます。BetaとBiasローカルにモデルを当てはめ、平均化で係数を結合することにより、パラメーターの初期推定が改善されます。
詳細は、tall 配列を参照してください。
バージョン履歴
R2016a で導入templateLinear で回帰学習器テンプレートの作成がサポートされます。関数を呼び出すときに名前と値の引数 Type を "regression" として指定します。回帰学習器テンプレートを作成する場合、サポート ベクター マシン学習器の名前と値の引数 Epsilon を追加で指定できます。
MATLAB Command
You clicked a link that corresponds to this MATLAB command:
Run the command by entering it in the MATLAB Command Window. Web browsers do not support MATLAB commands.
Web サイトの選択
Web サイトを選択すると、翻訳されたコンテンツにアクセスし、地域のイベントやサービスを確認できます。現在の位置情報に基づき、次のサイトの選択を推奨します:
また、以下のリストから Web サイトを選択することもできます。
最適なサイトパフォーマンスの取得方法
中国のサイト (中国語または英語) を選択することで、最適なサイトパフォーマンスが得られます。その他の国の MathWorks のサイトは、お客様の地域からのアクセスが最適化されていません。
南北アメリカ
- América Latina (Español)
- Canada (English)
- United States (English)
ヨーロッパ
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)