Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

layrecnet

層再帰型ニューラル ネットワーク

説明

layrecnet(layerDelays,hiddenSizes,trainFcn) は、次の引数を取ります。

  • 増加する 0 または正の遅延から成る行ベクトル layerDelays

  • 1 つ以上の隠れ層のサイズの行ベクトル hiddenSizes

  • 逆伝播学習関数 trainFcn

これは、層再帰型ニューラル ネットワークを返します。

層再帰型ニューラル ネットワークは、フィードフォワード ネットワークに似ていますが、各層に、それに関連付けられたタップ遅延付きの再帰的な結合があります。これにより、ネットワークが時系列の入力データに対して無限の動的応答を行うことが可能になります。このネットワークは、有限の入力応答を行う、時間遅れニューラル ネットワーク (timedelaynet) および分散型遅延ニューラル ネットワーク (distdelaynet) に似ています。

すべて折りたたむ

この例では、層再帰型ニューラル ネットワークを使用して簡単な時系列の問題を解く方法を示します。

[X,T] = simpleseries_dataset;
net = layrecnet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);

Figure Neural Network Training (12-Apr-2022 00:53:10) contains an object of type uigridlayout.

view(net)

Y = net(Xs,Xi,Ai);
perf = perform(net,Y,Ts)
perf = 6.1239e-11

入力引数

すべて折りたたむ

0 または正の入力遅延。増加する行ベクトルとして指定します。

隠れ層のサイズ。1 つ以上の要素の行ベクトルとして指定します。

学習関数名。次のいずれかに指定します。

学習関数アルゴリズム
'trainlm'

レーベンバーグ・マルカート法

'trainbr'

ベイズ正則化

'trainbfg'

BFGS 準ニュートン法

'trainrp'

弾性逆伝播法

'trainscg'

スケーリング共役勾配法

'traincgb'

Powell・Beale リスタート付き共役勾配法

'traincgf'

Fletcher・Powell 共役勾配法

'traincgp'

Polak・Ribiére 共役勾配法

'trainoss'

1 ステップ割線法

'traingdx'

可変学習率勾配降下法

'traingdm'

モーメンタム項付き勾配降下法

'traingd'

勾配降下法

例: たとえば、'traingdx' のように、可変学習率勾配降下法アルゴリズムを学習アルゴリズムとして指定できます。

学習関数の詳細は、浅い多層ニューラル ネットワークの学習と適用および多層ニューラル ネットワークの学習関数の選択を参照してください。

データ型: char

バージョン履歴

R2010b で導入