learnhd
重み減衰を使用した Hebb 学習規則
構文
[dW,LS] = learnhd(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
info = learnhd('code
')
説明
learnhd
は Hebb 重み学習関数です。
[dW,LS] = learnhd(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
は、いくつかの入力を取ります。
W |
|
P |
|
Z |
|
N |
|
A |
|
T |
|
E |
|
gW | 性能に関する |
gA | 性能に関する |
D |
|
LP | 学習パラメーター。なし。 |
LS | 学習状態。初期値は |
これは、以下を返します。
dW |
|
LS | 新しい学習状態 |
学習は、learnhd
の学習パラメーター (以下に既定値を示す) に従って行われます。
LP.dr - 0.01 | 減衰率 |
LP.lr - 0.1 | 学習率 |
info = learnhd('
は、次の各 code
')code
文字ベクトルに関する有用な情報を返します。
'pnames' | 学習パラメーターの名前 |
'pdefaults' | 既定の学習パラメーター |
'needg' | この関数が |
例
ここでは、1 つの 2 要素入力と 3 つのニューロンをもつ層に対し、ランダムな入力 P
、出力 A
、および重み W
を定義します。減衰率と学習率も定義します。
p = rand(2,1); a = rand(3,1); w = rand(3,2); lp.dr = 0.05; lp.lr = 0.5;
learnhd
は、重みの変化の計算でこれらの値のみを必要とするため (下の「アルゴリズム」を参照)、これらをそのように使用します。
dW = learnhd(w,p,[],[],a,[],[],[],[],[],lp,[])
ネットワークの利用
learnhd
を使用して学習させるため、カスタム ネットワークの i
層の重みとバイアスを準備するには、次のようにします。
net.trainFcn
を'trainr'
に設定します。(net.trainParam
は自動的にtrainr
の既定のパラメーターになります。)net.adaptFcn
を'trains'
に設定します。(net.adaptParam
は自動的にtrains
の既定のパラメーターになります。)各
net.inputWeights{i,j}.learnFcn
を'learnhd'
に設定します。各
net.layerWeights{i,j}.learnFcn
を'learnhd'
に設定します。(各重みの学習パラメーターのプロパティが、自動的にlearnhd
の既定のパラメーターに設定されます。)
ネットワークに学習させるには (またはネットワークが適応できるようにするには)、次のようにします。
net.trainParam
プロパティ (またはnet.adaptParam
プロパティ) を目的の値に設定します。train
(またはadapt
) を呼び出します。
アルゴリズム
learnhd
は、指定されたニューロンについて、ニューロンの入力 P
、出力 A
、減衰率 DR
、および学習率 LR
に基づき、減衰を使用した Hebb 学習規則に従って重みの変化 dW
を計算します。
dw = lr*a*p' - dr*w
バージョン履歴
R2006a より前に導入