Main Content

relativeEntropy

クラスの分離可能性を測定する、2 つの独立したデータ グループの 1 次元カルバック・ライブラー ダイバージェンス

説明

relativeEntropy は、診断特徴デザイナーで生成されたコードで使用される関数です。

Z = relativeEntropy(X,I) は、I の論理ラベルに従ってグループ化されている、データ セット X の独立した 2 つのサブセットについて、1 次元カルバック・ライブラー ダイバージェンスを計算します。相対エントロピーは、健全なマシンと故障したマシンのように、データをどの程度 2 つのクラスに分離できるかに従って特徴をランク付けするためのメトリクスを提供します。エントロピー計算では、X 内のデータはガウス分布に従っていると仮定されます。

診断特徴デザイナーで生成されるコードでは、この方法で特徴をランク付けする際に relativeEntropy が使用されます。

入力引数

すべて折りたたむ

2 つのグループへの論理的分類が可能なデータ サンプルを含むデータ セット。1 つの特徴に対する値など、サンプル セットが単一の場合はベクトルとして、サンプル セットが複数ある場合は行列として指定します。

  • 複数の特徴を単一のデータ ソースから抽出する場合など、X に n 個の特徴が単一セット含まれている場合、X は 1 行 n 列のベクトル。

  • X に n 個の特徴が m セット含まれている場合、X は m 行 n 列の行列。X の各行は 1 つのデータ ソースを表し、単一の論理クラスに対応している必要があります。

適正な相対エントロピー値を計算するためには、X は少なくとも、I の論理クラス 0 に対応する行を 2 つ、ラベル 1 に対応する行を 2 つ含んでいる必要があります。

たとえば、20 個のギアボックスそれぞれに 5 つの特徴のセットがあり、これらの特徴を評価するために相対エントロピーを計算しているとします。X は 20 行 5 列の行列となります。各行は健全状態または故障状態のギアボックスを表し、0 または 1 の論理クラス ラベルと関連付けて示されます。少なくとも 2 つのギアボックスが健全で、かつ少なくとも 2 つのギアボックスが故障している必要があります。相対エントロピーは、それぞれの特徴により、健全なギアボックスのデータが故障したギアボックスのデータからどの程度うまく分離されているかを示します。

X の行を 2 つの論理クラスのいずれかに割り当てる論理分類ラベル。長さ m のベクトルとして指定します。ここで、m は X における行数です。

たとえば、ここでも X が 20 個のギアボックスに対応する 20 行 5 列の行列であると想定します。最初の 9 つのギアボックスは健全です。残りの 11 個のギアボックスは故障しています。健全状態を 0、故障状態を 1 として定義します。これで I は長さが 20 になります。I の最初の 9 つのラベルは 0 と等しくなり、残りの 11 のラベルは 1 と等しくなります。

出力引数

すべて折りたたむ

ラベル付けされた 2 つのグループの相対エントロピー。スカラーまたはベクトルとして返されます。

  • X がベクトルの場合、Z はスカラー。

  • X が行列の場合、relativeEntropy は各特徴について距離を個別に計算。その場合 Z は長さ n のベクトルとなります。ここで n は Z における列数です。

relativeEntropyX 内の NaN エントリを欠損値として扱い、それらを無視します。

参照

[1] Theodoridis, Sergios, and Konstantinos Koutroumbas. Pattern Recognition, 175–177. 2nd ed. Amsterdam; Boston: Academic Press, 2003.

バージョン履歴

R2020a で導入