Main Content

newgrnn

一般回帰ニューラル ネットワークの設計

構文

net = newgrnn(P,T,spread)

説明

一般回帰ニューラル ネットワーク (grnn) は、関数近似によく使用される放射基底ネットワークの一種です。grnn は極めて短時間で設計できます。

net = newgrnn(P,T,spread) は、次の 3 つの入力を取ります。

P

Q 個の入力ベクトルから成る RQ 列の行列

T

Q 個のターゲット クラス ベクトルから成る SQ 列の行列

spread

放射基底関数の広がり (既定は 1.0)

これは、新しい一般回帰ニューラル ネットワークを返します。

spread が大きいほど、関数近似がスムーズに行われます。データを厳密に当てはめるには、入力ベクトル間の標準的な距離より小さい spread を使用します。データをよりスムーズに当てはめるには、大きな spread を使用します。

プロパティ

newgrnn は 2 層ネットワークを作成します。最初の層には radbas ニューロンがあり、dist で重み付けされた入力を計算し、netprod でその正味入力を計算します。2 番目の層には purelin ニューロンがあり、normprod で重み付けされた入力を計算し、netsum でその正味入力を計算します。最初の層だけにバイアスがあります。

newgrnn は最初の層の重みを P' に設定し、最初の層のバイアスはすべて 0.8326/spread に設定されます。これにより、重み付けされた入力が +/− spread のときに 0.5 となる放射基底関数が得られます。2 番目の層の重み W2T に設定されます。

ここでは、入力 P とターゲット T が与えられたときの放射基底ネットワークを設計します。

P = [1 2 3];
T = [2.0 4.1 5.9];
net = newgrnn(P,T);

新しい入力に対してネットワークのシミュレーションを行います。

P = 1.5;
Y = sim(net,P)

参考文献

Wasserman, P.D., Advanced Methods in Neural Computing, New York, Van Nostrand Reinhold, 1993, pp. 155–61

バージョン履歴

R2006a より前に導入

参考

| | |