lvqnet
学習ベクトル量子化ニューラル ネットワーク
構文
lvqnet(hiddenSize,lvqLR,lvqLF)
説明
LVQ (学習ベクトル量子化) ニューラル ネットワークは 2 つの層で構成されます。最初の層は、学習時にネットワークによって検出されるクラスターに入力ベクトルをマッピングします。2 番目の層は、最初の層のクラスターのグループをターゲット データによって定義されたクラスにマージします。
最初の層のクラスターの総数は、隠れニューロンの数によって決まります。隠れ層が大きいほど、最初の層でより多くのクラスターを学習することができ、ターゲット クラスへの入力のマッピングがより複雑になります。各ターゲット クラスに割り当てられる最初の層のクラスターの相対数は、ネットワークの初期化の時点でのターゲット クラスの分布によって決まります。これは、train の最初の呼び出しでネットワークが自動的に構成されたり、関数 configure を使用して手動で構成したり、関数 init を呼び出して手動で初期化した場合に起こります。
lvqnet(hiddenSize,lvqLR,lvqLF) は、次の引数を取ります。
hiddenSize | 隠れ層のサイズ (既定 = 10) |
lvqLR | LVQ 学習率 (既定 = 0.01) |
lvqLF | LVQ 学習関数 (既定 = |
これは、LVQ ニューラル ネットワークを返します。
学習関数 lvq の他のオプションは、learnlv2 です。
例
バージョン履歴
R2010b で導入

