learnk
Kohonen 重み学習関数
構文
[dW,LS] = learnk(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
info = learnk('code')
説明
learnk は Kohonen 重み学習関数です。
[dW,LS] = learnk(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) は、いくつかの入力を取ります。
W |
|
P |
|
Z |
|
N |
|
A |
|
T |
|
E |
|
gW | 性能に関する |
gA | 性能に関する |
D |
|
LP | 学習パラメーター。なし。 |
LS | 学習状態。初期値は |
これは、以下を返します。
dW |
|
LS | 新しい学習状態 |
学習は learnk の学習パラメーター (以下に既定値を示す) に従って行われます。
LP.lr - 0.01 | 学習率 |
info = learnk(' は、次の各 code')code 文字ベクトルに関する有用な情報を返します。
'pnames' | 学習パラメーターの名前 |
'pdefaults' | 既定の学習パラメーター |
'needg' | この関数が |
例
ここでは、1 つの 2 要素入力と 3 つのニューロンをもつ層に対し、ランダムな入力 P、出力 A、および重み行列 W を定義します。また、学習率 LR も定義します。
p = rand(2,1); a = rand(3,1); w = rand(3,2); lp.lr = 0.5;
learnk は、重みの変化の計算でこれらの値のみを必要とするため (下の「アルゴリズム」を参照)、これらをそのように使用します。
dW = learnk(w,p,[],[],a,[],[],[],[],[],lp,[])
ネットワークの利用
learnk を使用して学習させるため、カスタム ネットワークの層 i の重みを準備するには、次のようにします。
net.trainFcnを'trainr'に設定します。(net.trainParamは自動的にtrainrの既定のパラメーターになります。)net.adaptFcnを'trains'に設定します。(net.adaptParamは自動的にtrainsの既定のパラメーターになります。)各
net.inputWeights{i,j}.learnFcnを'learnk'に設定します。各
net.layerWeights{i,j}.learnFcnを'learnk'に設定します。(各重みの学習パラメーターのプロパティが、自動的にlearnkの既定のパラメーターに設定されます。)
ネットワークに学習させるには (またはネットワークが適応できるようにするには)、次のようにします。
目的に合わせて
net.trainParam(またはnet.adaptParam) プロパティを設定します。train(またはadapt) を呼び出します。
アルゴリズム
learnk は、指定されたニューロンについて、ニューロンの入力 P、出力 A、および学習率 LR に基づき、Kohonen 学習規則に従って重みの変化 dW を計算します。
a ~= 0 の場合 dw = lr*(p'-w)、それ以外の場合 = 0
参考文献
Kohonen, T., Self-Organizing and Associative Memory, New York, Springer-Verlag, 1984
バージョン履歴
R2006a より前に導入