このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。
ウェーブレット解析と深層学習を使用した時系列の分類
この例では、連続ウェーブレット変換 (CWT) と深層畳み込みニューラル ネットワーク (CNN) を使用した人間の心電図 (ECG) 信号を分類する方法を説明します。
深層 CNN をゼロから学習させるには、大量の計算と大量の学習データが必要です。さまざまなアプリケーションでは、十分な量の学習データが利用可能ではなく、新しい現実的な学習の例の合成は不可能です。これらの場合、概念的に類似したタスクについて大規模なデータセットで学習させている既存のニューラル ネットワークを利用することが望まれます。既存のニューラル ネットワークの利用は転移学習と呼ばれます。この例では、イメージ認識用に事前学習済みの、2 つの深層 CNN、GoogLeNet および SqueezeNet を適応させて、時間-周波数表現を基にした ECG 波形を分類します。
GoogLeNet と SqueezeNet は、1000 カテゴリにイメージを分類するために最初に設計された深層 CNN です。時系列データの CWT からのイメージを基にした ECG 信号を分類するために CNN のネットワーク アーキテクチャを再利用します。この例で使用されているデータは、PhysioNet から公的に入手可能です。
データの説明
この例では、人の 3 つのグループから取得された ECG データを使用します。3 つのグループとは、心不整脈の患者 (ARR)、鬱血性心不全の患者 (CHF)、および正常洞調律の患者 (NSR) です。全体では、次の 3 つの PhysioNet データベースから 162 個の ECG 記録を使用します。MIT-BIH Arrhythmia Database [3][7]、MIT-BIH Normal Sinus Rhythm Database [3]、BIDMC Congestive Heart Failure Database [1][3]。具体的には、不整脈の患者の記録は 96 個、鬱血性心不全の患者の記録は 30 個、正常洞調律の患者の記録は 36 個あります。目標は、ARR、CHF、および NSR 間で分類器を学習させて区別することです。
データのダウンロード
1 番目のステップは、GitHub リポジトリからデータをダウンロードすることです。データを Web サイトからダウンロードするには、[Code
] をクリックして [Download ZIP
] を選択します。書き込み権限のあるフォルダーに、ファイル physionet_ECG_data-main.zip
を保存します。この例の手順では、ファイルを一時ディレクトリ (MATLAB の tempdir
) にダウンロードしているものと仮定します。tempdir
とは異なるフォルダーにデータをダウンロードすることを選択した場合は、データの解凍および読み込みに関する後続の手順を変更してください。
データを GitHub からダウンロードした後、一時ディレクトリでそのファイルを解凍します。
unzip(fullfile(tempdir,'physionet_ECG_data-main.zip'),tempdir)
解凍すると、一時ディレクトリにフォルダー physionet-ECG_data-main
が作成されます。このフォルダーには、テキスト ファイル README.md
と ECGData.zip
が含まれます。ECGData.zip
ファイルには次のものが含まれています。
ECGData.mat
Modified_physionet_data.txt
License.txt
ECGData.mat
は、この例で使用されるデータを保持します。テキスト ファイルの Modified_physionet_data.txt
は PhysioNet のコピー ポリシーで必要になり、データのソース属性、および ECG の各記録に適用される前処理手順の説明を提供します。
physionet-ECG_data-main
の ECGData.zip
を解凍します。データ ファイルを MATLAB ワークスペースに読み込みます。
unzip(fullfile(tempdir,'physionet_ECG_data-main','ECGData.zip'),... fullfile(tempdir,'physionet_ECG_data-main')) load(fullfile(tempdir,'physionet_ECG_data-main','ECGData.mat'))
ECGData
は、2 つのフィールド (Data
および Labels
) をもつ構造体配列です。Data
フィールドは 162 行 65,536 列の行列で、各行は 128 Hz でサンプリングした ECG 記録です。Labels
は 162 行 1 列の診断ラベルの cell 配列で、それぞれが Data
の各行に対応します。3 つの診断カテゴリは、'ARR'
、'CHF'
、および 'NSR'
です。
各カテゴリの前処理したデータを保存するには、最初に tempdir
内に ECG データ ディレクトリ dataDir
を作成します。その後、各 ECG カテゴリに由来した 'data'
に 3 つのサブディレクトリを作成します。補助関数 helperCreateECGDirectories
がこれを実行します。helperCreateECGDirectories
は、ECGData
、ECG データ ディレクトリの名前、親ディレクトリの名前を入力引数として受け入れます。tempdir
を書き込み権限のある別のディレクトリと置き換えることができます。この補助関数のソース コードは、この例の最後にある「サポート関数」の節で見つけることができます。
parentDir = tempdir;
dataDir = 'data';
helperCreateECGDirectories(ECGData,parentDir,dataDir)
各 ECG カテゴリの表現をプロットします。補助関数 helperPlotReps
がこれを実行します。helperPlotReps
は ECGData
を入力として受け入れます。この補助関数のソース コードは、この例の最後にある「サポート関数」の節で見つけることができます。
helperPlotReps(ECGData)
時間-周波数表現の作成
フォルダー作成後、ECG 信号の時間-周波数表現を作成します。これらの表現はスカログラムと呼ばれます。スカログラムは、信号の CWT 係数の絶対値です。
スカログラムを作成するには、CWT フィルター バンクを事前に計算します。CWT フィルター バンクの事前計算は、同じパラメーターを使用して多数の信号の CWT を取得するときの推奨方法です。
スカログラムを生成する前に、そのうちの 1 つを調べます。1,000 サンプルをもつ信号にcwtfilterbank
(Wavelet Toolbox)を使用して CWT フィルター バンクを作成します。フィルター バンクを使用して、信号の最初の 1,000 サンプルの CWT を取って、係数からスカログラムを取得します。
Fs = 128; fb = cwtfilterbank('SignalLength',1000,... 'SamplingFrequency',Fs,... 'VoicesPerOctave',12); sig = ECGData.Data(1,1:1000); [cfs,frq] = wt(fb,sig); t = (0:999)/Fs;figure;pcolor(t,frq,abs(cfs)) set(gca,'yscale','log');shading interp;axis tight; title('Scalogram');xlabel('Time (s)');ylabel('Frequency (Hz)')
補助関数 helperCreateRGBfromTF
を使用して、スカログラムを RGB イメージとして作成し、それらを dataDir
の適切なサブディレクトリに書き込みます。この補助関数のソース コードは、この例の最後にある「サポート関数」の節にあります。GoogLeNet アーキテクチャと互換性をもたせるために、各 RGB イメージは 224 x 224 x 3 のサイズの配列になります。
helperCreateRGBfromTF(ECGData,parentDir,dataDir)
学習データと検証データへの分割
スカログラム イメージをイメージ データストアとして読み込みます。関数imageDatastore
は、フォルダー名に基づいてイメージに自動的にラベルを付け、データを ImageDatastore オブジェクトとして格納します。イメージ データストアを使用すると、メモリに収まらないデータなどの大きなイメージ データを格納し、CNN の学習中にイメージをバッチ単位で効率的に読み取ることができます。
allImages = imageDatastore(fullfile(parentDir,dataDir),... 'IncludeSubfolders',true,... 'LabelSource','foldernames');
イメージを 2 つのグループ (学習用と検証用) にランダムに分割します。イメージの 80% を学習に使用し、残りを検証に使用します。再現性を得るために、乱数シードを既定値に設定します。
rng default [imgsTrain,imgsValidation] = splitEachLabel(allImages,0.8,'randomized'); disp(['Number of training images: ',num2str(numel(imgsTrain.Files))]);
Number of training images: 130
disp(['Number of validation images: ',num2str(numel(imgsValidation.Files))]);
Number of validation images: 32
GoogLeNet
読み込み
事前学習済みの GoogLeNet ニューラル ネットワークを読み込みます。Deep Learning Toolbox™ Model for GoogLeNet Network サポート パッケージがインストールされていない場合、ソフトウェアによってアドオン エクスプローラーに必要なサポート パッケージへのリンクが表示されます。サポート パッケージをインストールするには、リンクをクリックして、[インストール] をクリックします。
net = googlenet;
ネットワークから層グラフを抽出して表示します。
lgraph = layerGraph(net); numberOfLayers = numel(lgraph.Layers); figure('Units','normalized','Position',[0.1 0.1 0.8 0.8]); plot(lgraph) title(['GoogLeNet Layer Graph: ',num2str(numberOfLayers),' Layers']);
ネットワーク層プロパティの 1 番目の要素を検査します。GoogLeNet にはサイズ 224 x 224 x 3 の RGB イメージが必要であることを確認します。
net.Layers(1)
ans = ImageInputLayer with properties: Name: 'data' InputSize: [224 224 3] Hyperparameters DataAugmentation: 'none' Normalization: 'zerocenter' Mean: [224×224×3 single]
GoogLeNet ネットワーク パラメーターの変更
ネットワーク アーキテクチャの各層はフィルターと見なすことができます。初期の層は、ブロブ、エッジ、および色など、より一般的なイメージの特徴を識別します。後続の層は、カテゴリを区別するためにより具体的な特徴に焦点を当てます。GoogLeNet は事前学習済みで、イメージを 1000 個のオブジェクト カテゴリに分類できます。GoogLeNet を、ECG 分類問題用に再学習させなければなりません。
過適合を防止するには、ドロップアウト層を使用します。ドロップアウト層は、与えられた確率でランダムに、入力要素をゼロに設定します。詳細は、dropoutLayer
を参照してください。既定の確率は 0.5 です。ネットワーク内の最後のドロップアウト層 'pool5-drop_7x7_s1'
を、確率 0.6 のドロップアウト層に置き換えます。
newDropoutLayer = dropoutLayer(0.6,'Name','new_Dropout'); lgraph = replaceLayer(lgraph,'pool5-drop_7x7_s1',newDropoutLayer);
ネットワークの畳み込み層は、入力イメージを分類するために、最後の学習可能な層と最終分類層が使用するイメージの特徴を抽出します。GoogLeNet のこれらの 2 つの層 'loss3-classifier'
および 'output'
は、ネットワークによって抽出された特徴を組み合わせてクラス確率、損失値、および予測ラベルにまとめる方法に関する情報を含んでいます。RGB イメージを分類するために GoogLeNet を再学習させるには、これら 2 つの層をデータに適応させた新しい層に置き換えます。
全結合層 'loss3-classifier'
を、クラスの数と同じ数のフィルターを持つ新しい全結合層に置き換えます。新しい層での学習速度を転移された層より速くするには、全結合層の学習率係数を大きくします。
numClasses = numel(categories(imgsTrain.Labels)); newConnectedLayer = fullyConnectedLayer(numClasses,'Name','new_fc',... 'WeightLearnRateFactor',5,'BiasLearnRateFactor',5); lgraph = replaceLayer(lgraph,'loss3-classifier',newConnectedLayer);
分類層はネットワークの出力クラスを指定します。分類層をクラス ラベルがない新しい分類層に置き換えます。trainNetwork
は、学習時に層の出力クラスを自動的に設定します。
newClassLayer = classificationLayer('Name','new_classoutput'); lgraph = replaceLayer(lgraph,'output',newClassLayer);
学習オプションの設定および GoogLeNet の学習
ニューラル ネットワークの学習は、損失関数の最小化を含む反復プロセスです。損失関数を最小化するには、勾配降下アルゴリズムが使用されます。各反復では、損失関数の勾配が評価されて、降下アルゴリズムの重みが更新されます。
学習はさまざまなオプションを設定することによって調整できます。InitialLearnRate
は損失関数の負の勾配方向の初期ステップ サイズを指定します。MiniBatchSize
は各反復で使用するために学習セットのサブセットの大きさを指定します。1 エポックは、学習セット全体に対する学習アルゴリズムを一巡することです。MaxEpochs
は学習に使用するエポックの最大回数を指定します。エポックの正しい数の選択は自明のタスクではありません。エポックの数が減少するとモデルが適合不足になります。エポックの数が増加すると過適合になります。
関数trainingOptions
を使用して学習オプションを指定します。MiniBatchSize
を 10、MaxEpochs
を 10、InitialLearnRate
を 0.0001 に設定します。Plots
を training-progress
に設定して、学習の進行状況を可視化します。モーメンタム項付き確率的勾配降下法オプティマイザーを使用します。既定では、GPU が利用可能な場合、学習は GPU で行われます。GPU を使用するには Parallel Computing Toolbox™ が必要です。サポートされている GPU については、GPU 計算の要件 (Parallel Computing Toolbox)を参照してください。再現性を得るために、ExecutionEnvironment
を cpu
に設定して、trainNetwork
が CPU を使用するようにします。乱数シードを既定値に設定します。GPU を使用できる場合、実行時間は速くなります。
options = trainingOptions('sgdm',... 'MiniBatchSize',15,... 'MaxEpochs',20,... 'InitialLearnRate',1e-4,... 'ValidationData',imgsValidation,... 'ValidationFrequency',10,... 'Verbose',1,... 'ExecutionEnvironment','cpu',... 'Plots','training-progress'); rng default
ネットワークに学習をさせます。学習プロセスは、通常、デスクトップ CPU 上で 1 ~ 5 分かかります。実行中にコマンド ウィンドウに学習情報を表示します。結果には、エポック数、反復回数、経過時間、ミニバッチの精度、検証の精度、検証データの損失関数値が含まれます。
trainedGN = trainNetwork(imgsTrain,lgraph,options);
Initializing input data normalization. |======================================================================================================================| | Epoch | Iteration | Time Elapsed | Mini-batch | Validation | Mini-batch | Validation | Base Learning | | | | (hh:mm:ss) | Accuracy | Accuracy | Loss | Loss | Rate | |======================================================================================================================| | 1 | 1 | 00:00:03 | 6.67% | 18.75% | 4.9207 | 2.4141 | 1.0000e-04 | | 2 | 10 | 00:00:23 | 66.67% | 62.50% | 0.9589 | 1.3191 | 1.0000e-04 | | 3 | 20 | 00:00:43 | 46.67% | 75.00% | 1.2973 | 0.5928 | 1.0000e-04 | | 4 | 30 | 00:01:04 | 60.00% | 78.13% | 0.7219 | 0.4576 | 1.0000e-04 | | 5 | 40 | 00:01:25 | 73.33% | 84.38% | 0.4750 | 0.3367 | 1.0000e-04 | | 7 | 50 | 00:01:46 | 93.33% | 84.38% | 0.2714 | 0.2892 | 1.0000e-04 | | 8 | 60 | 00:02:07 | 80.00% | 87.50% | 0.3617 | 0.2433 | 1.0000e-04 | | 9 | 70 | 00:02:29 | 86.67% | 87.50% | 0.3246 | 0.2526 | 1.0000e-04 | | 10 | 80 | 00:02:50 | 100.00% | 96.88% | 0.0701 | 0.1876 | 1.0000e-04 | | 12 | 90 | 00:03:11 | 86.67% | 100.00% | 0.2836 | 0.1681 | 1.0000e-04 | | 13 | 100 | 00:03:32 | 86.67% | 96.88% | 0.4160 | 0.1607 | 1.0000e-04 | | 14 | 110 | 00:03:53 | 86.67% | 96.88% | 0.3237 | 0.1565 | 1.0000e-04 | | 15 | 120 | 00:04:14 | 93.33% | 96.88% | 0.1646 | 0.1476 | 1.0000e-04 | | 17 | 130 | 00:04:35 | 100.00% | 96.88% | 0.0551 | 0.1330 | 1.0000e-04 | | 18 | 140 | 00:04:57 | 93.33% | 96.88% | 0.0927 | 0.1347 | 1.0000e-04 | | 19 | 150 | 00:05:18 | 93.33% | 93.75% | 0.1666 | 0.1325 | 1.0000e-04 | | 20 | 160 | 00:05:39 | 93.33% | 96.88% | 0.0873 | 0.1164 | 1.0000e-04 | |======================================================================================================================|
学習済みネットワークの最後の層を検査します。3 つのクラスを含む分類出力層を確認します。
trainedGN.Layers(end)
ans = ClassificationOutputLayer with properties: Name: 'new_classoutput' Classes: [ARR CHF NSR] OutputSize: 3 Hyperparameters LossFunction: 'crossentropyex'
GoogLeNet 精度の評価
検証データを使用してネットワークを評価します。
[YPred,probs] = classify(trainedGN,imgsValidation); accuracy = mean(YPred==imgsValidation.Labels); disp(['GoogLeNet Accuracy: ',num2str(100*accuracy),'%'])
GoogLeNet Accuracy: 96.875%
精度は、学習可視化の図で報告された検証精度と同じになります。スカログラムは学習コレクションと検証コレクションに分割されました。両方のコレクションは GoogLeNet の学習に使用されました。学習の結果を評価する理想的な方法は、ネットワークで確認されていないデータを分類することです。学習、検証、およびテストに分割するためのデータが十分にないため、計算された検証精度をネットワーク精度として取り扱います。
GoogLeNet 活性化の調査
CNN の各層は入力イメージに対する応答またはアクティベーションを生成します。ただし、CNN 内でイメージの特性抽出に適している層は数層しかありません。ネットワークの始まりにある層が、エッジやブロブのようなイメージの基本的特徴を捉えます。これを確認するには、最初の畳み込み層からネットワーク フィルターの重みを可視化します。最初の層に 64 個の重みの個々のセットがあります。
wghts = trainedGN.Layers(2).Weights;
wghts = rescale(wghts);
wghts = imresize(wghts,5);
figure
montage(wghts)
title('First Convolutional Layer Weights')
活性化を調べ、活性化の領域を元のイメージと比較して、GoogLeNet が学習する特徴を確認できます。詳細は、畳み込みニューラル ネットワークの活性化の可視化と畳み込みニューラル ネットワークの特徴の可視化を参照してください。
ARR
クラスからイメージに対して活性化する畳み込み層の領域を確認します。元のイメージの対応する領域と比較します。畳み込みニューラル ネットワークの各層は、"チャネル" と呼ばれる多数の 2 次元配列で構成されています。イメージをネットワークに渡して、最初の畳み込み層である 'conv1-7x7_s2'
の出力活性化を確認します。
convLayer = 'conv1-7x7_s2'; imgClass = 'ARR'; imgName = 'ARR_10.jpg'; imarr = imread(fullfile(parentDir,dataDir,imgClass,imgName)); trainingFeaturesARR = activations(trainedGN,imarr,convLayer); sz = size(trainingFeaturesARR); trainingFeaturesARR = reshape(trainingFeaturesARR,[sz(1) sz(2) 1 sz(3)]); figure montage(rescale(trainingFeaturesARR),'Size',[8 8]) title([imgClass,' Activations'])
このイメージに最も強いチャネルを確認します。最も強いチャネルを元のイメージと比較します。
imgSize = size(imarr); imgSize = imgSize(1:2); [~,maxValueIndex] = max(max(max(trainingFeaturesARR))); arrMax = trainingFeaturesARR(:,:,:,maxValueIndex); arrMax = rescale(arrMax); arrMax = imresize(arrMax,imgSize); figure; imshowpair(imarr,arrMax,'montage') title(['Strongest ',imgClass,' Channel: ',num2str(maxValueIndex)])
SqueezeNet
SqueezeNet は、アーキテクチャがサイズ 227 x 227 x 3 のイメージをサポートする深層 CNN です。イメージの次元が GoogLeNet で異なっているにもかかわらず、SqueezeNet の次元で新しい RGB イメージを生成する必要はありません。元の RGB イメージを使用できます。
読み込み
事前学習済みの SqueezeNet ニューラル ネットワークを読み込みます。Deep Learning Toolbox™ Model for SqueezeNet Network サポート パッケージがインストールされていない場合、ソフトウェアによってアドオン エクスプローラーに必要なサポート パッケージへのリンクが表示されます。サポート パッケージをインストールするには、リンクをクリックして、[インストール] をクリックします。
sqz = squeezenet;
ネットワークから層グラフを抽出します。SqueezeNet は GoogLeNet より層が少ないことを確認します。また、SqueezeNet がサイズ 227 x 227 x 3 のイメージ用に構成されていることも確認します。
lgraphSqz = layerGraph(sqz);
disp(['Number of Layers: ',num2str(numel(lgraphSqz.Layers))])
Number of Layers: 68
disp(lgraphSqz.Layers(1).InputSize)
227 227 3
SqueezeNet ネットワーク パラメーターの変更
SqueezeNet の再学習を行って新しいイメージを分類するには、GoogLeNet で行った変更と類似の変更を加えます。
最後の 6 つのネットワーク層を検査します。
lgraphSqz.Layers(end-5:end)
ans = 6x1 Layer array with layers: 1 'drop9' Dropout 50% dropout 2 'conv10' Convolution 1000 1x1x512 convolutions with stride [1 1] and padding [0 0 0 0] 3 'relu_conv10' ReLU ReLU 4 'pool10' Average Pooling 14x14 average pooling with stride [1 1] and padding [0 0 0 0] 5 'prob' Softmax softmax 6 'ClassificationLayer_predictions' Classification Output crossentropyex with 'tench' and 999 other classes
ネットワーク内の最後のドロップアウト層である 'drop9'
層を、確率 0.6 のドロップアウト層に置き換えます。
tmpLayer = lgraphSqz.Layers(end-5); newDropoutLayer = dropoutLayer(0.6,'Name','new_dropout'); lgraphSqz = replaceLayer(lgraphSqz,tmpLayer.Name,newDropoutLayer);
GoogLeNet とは異なり、SqueezeNet の最後の学習可能な層は 1 x 1 畳み込み層 'conv10'
であり、全結合層ではありません。'conv10'
層を、クラスの数と同じ数のフィルターを持つ新しい畳み込み層に置き換えます。GoogLeNet のときと同様に、新しい層の学習率係数を大きくします。
numClasses = numel(categories(imgsTrain.Labels)); tmpLayer = lgraphSqz.Layers(end-4); newLearnableLayer = convolution2dLayer(1,numClasses, ... 'Name','new_conv', ... 'WeightLearnRateFactor',10, ... 'BiasLearnRateFactor',10); lgraphSqz = replaceLayer(lgraphSqz,tmpLayer.Name,newLearnableLayer);
分類層をクラス ラベルがない新しい分類層に置き換えます。
tmpLayer = lgraphSqz.Layers(end); newClassLayer = classificationLayer('Name','new_classoutput'); lgraphSqz = replaceLayer(lgraphSqz,tmpLayer.Name,newClassLayer);
ネットワークの最後の 6 つの層を検査します。ドロップアウト層、畳み込み層、および出力層が変更されていることを確認します。
lgraphSqz.Layers(63:68)
ans = 6x1 Layer array with layers: 1 'new_dropout' Dropout 60% dropout 2 'new_conv' Convolution 3 1x1 convolutions with stride [1 1] and padding [0 0 0 0] 3 'relu_conv10' ReLU ReLU 4 'pool10' Average Pooling 14x14 average pooling with stride [1 1] and padding [0 0 0 0] 5 'prob' Softmax softmax 6 'new_classoutput' Classification Output crossentropyex
SqueezeNet 用 RGB データの準備
RGB のイメージには GoogLeNet アーキテクチャに適した次元があります。SqueezeNet アーキテクチャ用の既存 RGB イメージを自動的にサイズ変更する拡張イメージのデータストアを作成します。詳細については、augmentedImageDatastore
を参照してください。
augimgsTrain = augmentedImageDatastore([227 227],imgsTrain); augimgsValidation = augmentedImageDatastore([227 227],imgsValidation);
学習オプションの設定および SqueezeNet の学習
SqueezeNet で使用する新しい一連の学習オプションを作成します。乱数シードを既定値に設定し、ネットワークを学習させます。学習プロセスは、通常、デスクトップ CPU 上で 1 ~ 5 分かかります。
ilr = 3e-4; miniBatchSize = 10; maxEpochs = 15; valFreq = floor(numel(augimgsTrain.Files)/miniBatchSize); opts = trainingOptions('sgdm',... 'MiniBatchSize',miniBatchSize,... 'MaxEpochs',maxEpochs,... 'InitialLearnRate',ilr,... 'ValidationData',augimgsValidation,... 'ValidationFrequency',valFreq,... 'Verbose',1,... 'ExecutionEnvironment','cpu',... 'Plots','training-progress'); rng default trainedSN = trainNetwork(augimgsTrain,lgraphSqz,opts);
Initializing input data normalization. |======================================================================================================================| | Epoch | Iteration | Time Elapsed | Mini-batch | Validation | Mini-batch | Validation | Base Learning | | | | (hh:mm:ss) | Accuracy | Accuracy | Loss | Loss | Rate | |======================================================================================================================| | 1 | 1 | 00:00:01 | 20.00% | 43.75% | 5.2508 | 1.2540 | 0.0003 | | 1 | 13 | 00:00:11 | 60.00% | 50.00% | 0.9912 | 1.0519 | 0.0003 | | 2 | 26 | 00:00:20 | 60.00% | 59.38% | 0.8554 | 0.8497 | 0.0003 | | 3 | 39 | 00:00:30 | 60.00% | 59.38% | 0.8120 | 0.8328 | 0.0003 | | 4 | 50 | 00:00:38 | 50.00% | | 0.7885 | | 0.0003 | | 4 | 52 | 00:00:40 | 60.00% | 65.63% | 0.7091 | 0.7314 | 0.0003 | | 5 | 65 | 00:00:49 | 90.00% | 87.50% | 0.4639 | 0.5893 | 0.0003 | | 6 | 78 | 00:00:59 | 70.00% | 87.50% | 0.6021 | 0.4355 | 0.0003 | | 7 | 91 | 00:01:08 | 90.00% | 90.63% | 0.2307 | 0.2945 | 0.0003 | | 8 | 100 | 00:01:15 | 90.00% | | 0.1827 | | 0.0003 | | 8 | 104 | 00:01:18 | 90.00% | 93.75% | 0.2139 | 0.2153 | 0.0003 | | 9 | 117 | 00:01:28 | 100.00% | 90.63% | 0.0521 | 0.1964 | 0.0003 | | 10 | 130 | 00:01:38 | 90.00% | 90.63% | 0.1134 | 0.2214 | 0.0003 | | 11 | 143 | 00:01:47 | 100.00% | 90.63% | 0.0855 | 0.2095 | 0.0003 | | 12 | 150 | 00:01:52 | 90.00% | | 0.2394 | | 0.0003 | | 12 | 156 | 00:01:57 | 100.00% | 90.63% | 0.0606 | 0.1849 | 0.0003 | | 13 | 169 | 00:02:06 | 100.00% | 90.63% | 0.0090 | 0.2071 | 0.0003 | | 14 | 182 | 00:02:16 | 100.00% | 93.75% | 0.0127 | 0.3597 | 0.0003 | | 15 | 195 | 00:02:25 | 100.00% | 93.75% | 0.0016 | 0.3414 | 0.0003 | |======================================================================================================================|
ネットワークの最後の層を検査します。3 つのクラスを含む分類出力層を確認します。
trainedSN.Layers(end)
ans = ClassificationOutputLayer with properties: Name: 'new_classoutput' Classes: [ARR CHF NSR] OutputSize: 3 Hyperparameters LossFunction: 'crossentropyex'
SqueezeNet 精度の評価
検証データを使用してネットワークを評価します。
[YPred,probs] = classify(trainedSN,augimgsValidation); accuracy = mean(YPred==imgsValidation.Labels); disp(['SqueezeNet Accuracy: ',num2str(100*accuracy),'%'])
SqueezeNet Accuracy: 93.75%
まとめ
この例では、転移学習と連続ウェーブレット解析を使用して、事前学習済みの CNN、GoogLeNet および SqueezeNet を利用することによって ECG 信号の 3 つのクラスを分類する方法を説明します。ECG 信号のウェーブレットベースの時間-周波数表現を使用してスカログラムを作成します。スカログラムの RGB イメージが生成されます。イメージは両方の深層 CNN を微調整するために使用されます。また、異なるネットワーク層の活性化についても調査しました。
この例は、事前学習済みの CNN モデルを使用して信号を分類するために使用できる 1 つのワークフローを示しています。その他のワークフローも使用できます。ウェーブレット解析と深層学習を使用した NVIDIA Jetson への信号分類器の展開 (Wavelet Toolbox)およびRaspberry Pi におけるウェーブレットおよび深層学習を使用した信号分類器の展開 (Wavelet Toolbox)では信号を分類するためのコードをハードウェアに展開する方法を示しています。GoogLeNet および SqueezeNet は ImageNet データベースのサブセットで事前学習済みのモデルです [10]。これは、ImageNet Large-Scale Visual Recognition Challenge (ILSVRC) で使用されます [8]。ImageNet コレクションには、魚、鳥、機器、および菌類など、実世界のオブジェクトのイメージが含まれます。スカログラムは実世界のオブジェクトのクラスの範囲外にあります。GoogLeNet および SqueezeNet アーキテクチャに適合させるために、スカログラムはデータ削減も行いました。事前学習済みの CNN を微調整してスカログラムの異なるクラスを区別する代わりに、元のスカログラムの次元でゼロから CNN を学習する作業はオプションです。
参考文献
Baim, D. S., W. S. Colucci, E. S. Monrad, H. S. Smith, R. F. Wright, A. Lanoue, D. F. Gauthier, B. J. Ransil, W. Grossman, and E. Braunwald."Survival of patients with severe congestive heart failure treated with oral milrinone."Journal of the American College of Cardiology.Vol. 7, Number 3, 1986, pp. 661–670.
Engin, M. "ECG beat classification using neuro-fuzzy network." Pattern Recognition Letters. Vol. 25, Number 15, 2004, pp.1715–1722.
Goldberger A. L., L. A. N. Amaral, L. Glass, J. M. Hausdorff, P. Ch. Ivanov, R. G. Mark, J. E. Mietus, G. B. Moody, C.-K. Peng, and H. E. Stanley. "PhysioBank, PhysioToolkit,and PhysioNet: Components of a New Research Resource for Complex Physiologic Signals." Circulation. Vol. 101, Number 23: e215–e220. [Circulation Electronic Pages;
http://circ.ahajournals.org/content/101/23/e215.full
]; 2000 (June 13). doi: 10.1161/01.CIR.101.23.e215.Leonarduzzi, R. F., G. Schlotthauer, and M. E. Torres."Wavelet leader based multifractal analysis of heart rate variability during myocardial ischaemia."In Engineering in Medicine and Biology Society (EMBC), Annual International Conference of the IEEE, 110–113.Buenos Aires, Argentina: IEEE, 2010.
Li, T., and M. Zhou."ECG classification using wavelet packet entropy and random forests."Entropy.Vol. 18, Number 8, 2016, p.285.
Maharaj, E. A., and A. M. Alonso."Discriminant analysis of multivariate time series: Application to diagnosis based on ECG signals." Computational Statistics and Data Analysis.Vol. 70, 2014, pp. 67–87.
Moody, G. B., and R. G. Mark."The impact of the MIT-BIH Arrhythmia Database."IEEE Engineering in Medicine and Biology Magazine.Vol. 20. Number 3, May-June 2001, pp. 45–50. (PMID: 11446209)
Russakovsky, O., J. Deng, and H. Su et al. "ImageNet Large Scale Visual Recognition Challenge." International Journal of Computer Vision.Vol. 115, Number 3, 2015, pp. 211–252.
Zhao, Q., and L. Zhang."ECG feature extraction and classification using wavelet transform and support vector machines."In IEEE International Conference on Neural Networks and Brain, 1089–1092.Beijing, China: IEEE, 2005.
ImageNet.
http://www.image-net.org
サポート関数
helperCreateECGDataDirectories は、親ディレクトリ内にデータ ディレクトリを作成してから、データ ディレクトリ内に 3 つのサブディレクトリを作成します。サブディレクトリには ECGData
で見つかった ECG 信号の各クラスに由来した名前が付けられます。
function helperCreateECGDirectories(ECGData,parentFolder,dataFolder) % This function is only intended to support the ECGAndDeepLearningExample. % It may change or be removed in a future release. rootFolder = parentFolder; localFolder = dataFolder; mkdir(fullfile(rootFolder,localFolder)) folderLabels = unique(ECGData.Labels); for i = 1:numel(folderLabels) mkdir(fullfile(rootFolder,localFolder,char(folderLabels(i)))); end end
helperPlotReps は、ECGData
で見つかった ECG 信号の各クラスの代表的なものから最初の 1000 サンプルをプロットします。
function helperPlotReps(ECGData) % This function is only intended to support the ECGAndDeepLearningExample. % It may change or be removed in a future release. folderLabels = unique(ECGData.Labels); for k=1:3 ecgType = folderLabels{k}; ind = find(ismember(ECGData.Labels,ecgType)); subplot(3,1,k) plot(ECGData.Data(ind(1),1:1000)); grid on title(ecgType) end end
helperCreateRGBfromTF はcwtfilterbank
(Wavelet Toolbox)を使用して、ECG 信号の連続ウェーブレット変換を取得し、ウェーブレット係数からスカログラムを生成します。補助関数はスカログラムのサイズを変更し、jpeg イメージとしてディスクに書き込みます。
function helperCreateRGBfromTF(ECGData,parentFolder,childFolder) % This function is only intended to support the ECGAndDeepLearningExample. % It may change or be removed in a future release. imageRoot = fullfile(parentFolder,childFolder); data = ECGData.Data; labels = ECGData.Labels; [~,signalLength] = size(data); fb = cwtfilterbank('SignalLength',signalLength,'VoicesPerOctave',12); r = size(data,1); for ii = 1:r cfs = abs(fb.wt(data(ii,:))); im = ind2rgb(im2uint8(rescale(cfs)),jet(128)); imgLoc = fullfile(imageRoot,char(labels(ii))); imFileName = strcat(char(labels(ii)),'_',num2str(ii),'.jpg'); imwrite(imresize(im,[224 224]),fullfile(imgLoc,imFileName)); end end
参考
cwtfilterbank
(Wavelet Toolbox) | googlenet
| squeezenet
| trainNetwork
| trainingOptions
| imageDatastore
| augmentedImageDatastore