Main Content

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

timedelaynet

時間遅れニューラル ネットワーク

説明

timedelaynet(inputDelays,hiddenSizes,trainFcn) は、次の引数を取ります。

  • 増加する 0 または正の入力遅延から成る行ベクトル inputDelays

  • 1 つ以上の隠れ層のサイズの行ベクトル hiddenSizes

  • 学習関数 trainFcn

これは、時間遅れニューラル ネットワークを返します。

時間遅れネットワークは、フィードフォワード ネットワークに似ていますが、入力の重みに、それに関連付けられたタップ付き遅延線があります。これにより、ネットワークが時系列の入力データに対して有限の動的応答を行うことが可能になります。このネットワークは、入力の重みに加えて層の重みにも遅延がある、分散型遅延ニューラル ネットワーク (distdelaynet) にも似ています。

すべて折りたたむ

この例では、時間遅延ネットワークに学習させる方法を説明します。

学習セットを分割します。後で閉ループ モードで予測を行うために、Xnew を使用します。

[X,T] = simpleseries_dataset;
Xnew = X(81:100);
X = X(1:80);
T = T(1:80);

時間遅れネットワークに学習させて、最初の 80 個の観測値でシミュレーションを行います。

net = timedelaynet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);

Figure Neural Network Training (27-Jul-2023 15:29:36) contains an object of type uigridlayout.

view(net)

ネットワーク性能を計算します。

[Y,Xf,Af] = net(Xs,Xi,Ai);
perf = perform(net,Ts,Y);

閉ループ モードで 20 タイム ステップ先の予測を実行します。

[netc,Xic,Aic] = closeloop(net,Xf,Af);
view(netc)

y2 = netc(Xnew,Xic,Aic);

入力引数

すべて折りたたむ

0 または正の入力遅延。増加する行ベクトルとして指定します。

隠れ層のサイズ。1 つ以上の要素の行ベクトルとして指定します。

学習関数名。次のいずれかに指定します。

学習関数アルゴリズム
'trainlm'

レーベンバーグ・マルカート法

'trainbr'

ベイズ正則化

'trainbfg'

BFGS 準ニュートン法

'trainrp'

弾性逆伝播法

'trainscg'

スケーリング共役勾配法

'traincgb'

Powell・Beale リスタート付き共役勾配法

'traincgf'

Fletcher・Powell 共役勾配法

'traincgp'

Polak・Ribiére 共役勾配法

'trainoss'

1 ステップ割線法

'traingdx'

可変学習率勾配降下法

'traingdm'

モーメンタム項付き勾配降下法

'traingd'

勾配降下法

例: たとえば、'traingdx' のように、可変学習率勾配降下法アルゴリズムを学習アルゴリズムとして指定できます。

学習関数の詳細は、浅層の多層ニューラル ネットワークの学習と適用および多層ニューラル ネットワークの学習関数の選択を参照してください。

データ型: char

バージョン履歴

R2010b で導入