learnk
Kohonen 重み学習関数
構文
[dW,LS] = learnk(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
info = learnk('code
')
説明
learnk
は Kohonen 重み学習関数です。
[dW,LS] = learnk(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
は、いくつかの入力を取ります。
W |
|
P |
|
Z |
|
N |
|
A |
|
T |
|
E |
|
gW | 性能に関する |
gA | 性能に関する |
D |
|
LP | 学習パラメーター。なし。 |
LS | 学習状態。初期値は |
これは、以下を返します。
dW |
|
LS | 新しい学習状態 |
学習は learnk
の学習パラメーター (以下に既定値を示す) に従って行われます。
LP.lr - 0.01 | 学習率 |
info = learnk('
は、次の各 code
')code
文字ベクトルに関する有用な情報を返します。
'pnames' | 学習パラメーターの名前 |
'pdefaults' | 既定の学習パラメーター |
'needg' | この関数が |
例
ここでは、1 つの 2 要素入力と 3 つのニューロンをもつ層に対し、ランダムな入力 P
、出力 A
、および重み行列 W
を定義します。また、学習率 LR
も定義します。
p = rand(2,1); a = rand(3,1); w = rand(3,2); lp.lr = 0.5;
learnk
は、重みの変化の計算でこれらの値のみを必要とするため (下の「アルゴリズム」を参照)、これらをそのように使用します。
dW = learnk(w,p,[],[],a,[],[],[],[],[],lp,[])
ネットワークの利用
learnk
を使用して学習させるため、カスタム ネットワークの層 i
の重みを準備するには、次のようにします。
net.trainFcn
を'trainr'
に設定します。(net.trainParam
は自動的にtrainr
の既定のパラメーターになります。)net.adaptFcn
を'trains'
に設定します。(net.adaptParam
は自動的にtrains
の既定のパラメーターになります。)各
net.inputWeights{i,j}.learnFcn
を'learnk'
に設定します。各
net.layerWeights{i,j}.learnFcn
を'learnk'
に設定します。(各重みの学習パラメーターのプロパティが、自動的にlearnk
の既定のパラメーターに設定されます。)
ネットワークに学習させるには (またはネットワークが適応できるようにするには)、次のようにします。
目的に合わせて
net
.
trainParam
(またはnet.adaptParam
) プロパティを設定します。train
(またはadapt
) を呼び出します。
アルゴリズム
learnk
は、指定されたニューロンについて、ニューロンの入力 P
、出力 A
、および学習率 LR
に基づき、Kohonen 学習規則に従って重みの変化 dW
を計算します。
a ~= 0
の場合 dw = lr*(p'-w)
、それ以外の場合 = 0
参考文献
Kohonen, T., Self-Organizing and Associative Memory, New York, Springer-Verlag, 1984
バージョン履歴
R2006a より前に導入