learnhd
重み減衰を使用した Hebb 学習規則
構文
[dW,LS] = learnhd(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
info = learnhd('code')
説明
learnhd は Hebb 重み学習関数です。
[dW,LS] = learnhd(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) は、いくつかの入力を取ります。
W |
|
P |
|
Z |
|
N |
|
A |
|
T |
|
E |
|
gW | 性能に関する |
gA | 性能に関する |
D |
|
LP | 学習パラメーター。なし。 |
LS | 学習状態。初期値は |
これは、以下を返します。
dW |
|
LS | 新しい学習状態 |
学習は、learnhd の学習パラメーター (以下に既定値を示す) に従って行われます。
LP.dr - 0.01 | 減衰率 |
LP.lr - 0.1 | 学習率 |
info = learnhd(' は、次の各 code')code 文字ベクトルに関する有用な情報を返します。
'pnames' | 学習パラメーターの名前 |
'pdefaults' | 既定の学習パラメーター |
'needg' | この関数が |
例
ここでは、1 つの 2 要素入力と 3 つのニューロンをもつ層に対し、ランダムな入力 P、出力 A、および重み W を定義します。減衰率と学習率も定義します。
p = rand(2,1); a = rand(3,1); w = rand(3,2); lp.dr = 0.05; lp.lr = 0.5;
learnhd は、重みの変化の計算でこれらの値のみを必要とするため (下の「アルゴリズム」を参照)、これらをそのように使用します。
dW = learnhd(w,p,[],[],a,[],[],[],[],[],lp,[])
ネットワークの利用
learnhd を使用して学習させるため、カスタム ネットワークの i 層の重みとバイアスを準備するには、次のようにします。
net.trainFcnを'trainr'に設定します。(net.trainParamは自動的にtrainrの既定のパラメーターになります。)net.adaptFcnを'trains'に設定します。(net.adaptParamは自動的にtrainsの既定のパラメーターになります。)各
net.inputWeights{i,j}.learnFcnを'learnhd'に設定します。各
net.layerWeights{i,j}.learnFcnを'learnhd'に設定します。(各重みの学習パラメーターのプロパティが、自動的にlearnhdの既定のパラメーターに設定されます。)
ネットワークに学習させるには (またはネットワークが適応できるようにするには)、次のようにします。
net.trainParamプロパティ (またはnet.adaptParamプロパティ) を目的の値に設定します。train(またはadapt) を呼び出します。
アルゴリズム
learnhd は、指定されたニューロンについて、ニューロンの入力 P、出力 A、減衰率 DR、および学習率 LR に基づき、減衰を使用した Hebb 学習規則に従って重みの変化 dW を計算します。
dw = lr*a*p' - dr*w
バージョン履歴
R2006a より前に導入