このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
シーケンス データのカスタム ミニバッチ データストアを使用したネットワークの学習
この例では、カスタム ミニバッチ データストアを使用してメモリ外のシーケンス データで深層学習ネットワークに学習させる方法を説明します。
"ミニバッチ データストア" とは、バッチ単位でのデータの読み取りをサポートするデータストアの実装です。ミニバッチ データストアを使用して、メモリ外のデータを読み取るか、データのバッチを読み取る際に特定の前処理演算を実行します。ミニバッチ データストアは、深層学習アプリケーションの学習データ セット、検証データ セット、テスト データ セット、および予測データ セットのソースとして使用できます。
この例では、サポート ファイルとしてこの例に添付されているカスタム ミニバッチ データストア sequenceDatastore
を使用します。データストア関数をカスタマイズして、このデータストアをデータに適応させることができます。独自のカスタム ミニバッチ データストアを作成する方法を示す例については、カスタム ミニバッチ データストアの開発を参照してください。
学習データの読み込み
[1] および [2] に記載のある Japanese Vowels データ セットを読み込みます。zip ファイル japaneseVowels.zip
には可変長のシーケンスが含まれています。シーケンスは 2 つのフォルダー Train
と Test
に分割されています。これらのフォルダーには、学習シーケンスとテスト シーケンスがそれぞれ含まれています。これらの各フォルダーでは、シーケンスが 1
から 9
まで番号が付けられたサブフォルダーに分割されています。これらのサブフォルダーの名前はラベル名です。MAT ファイルは各シーケンスを表します。各シーケンスは行列で、行数が 12 (特徴ごとに 1 行) で、列数が可変 (タイム ステップごとに 1 列) です。行数はシーケンス次元で、列数はシーケンス長です。
シーケンス データを解凍します。
filename = "japaneseVowels.zip"; outputFolder = fullfile(tempdir,"japaneseVowels"); unzip(filename,outputFolder);
カスタム ミニバッチ データストアの作成
カスタム ミニバッチ データストアを作成します。ミニバッチ データストア sequenceDatastore
はフォルダーからデータを読み取り、サブフォルダー名からラベルを取得します。
sequenceDatastore
を使用してシーケンス データを含むデータストアを作成します。
folderTrain = fullfile(outputFolder,"Train");
dsTrain = sequenceDatastore(folderTrain)
dsTrain = sequenceDatastore with properties: Datastore: [1×1 matlab.io.datastore.FileDatastore] Labels: [270×1 categorical] NumClasses: 9 SequenceDimension: 12 MiniBatchSize: 128 NumObservations: 270
LSTM ネットワーク アーキテクチャの定義
LSTM ネットワーク アーキテクチャを定義します。入力データのシーケンス次元を入力サイズとして指定します。100 個の隠れユニットを持つ LSTM 層を指定して、シーケンスの最後の要素を出力します。最後に、出力サイズがクラスの数に等しい全結合層を指定し、その後にソフトマックス層を配置します。
inputSize = dsTrain.SequenceDimension;
numClasses = dsTrain.NumClasses;
numHiddenUnits = 100;
layers = [
sequenceInputLayer(inputSize)
lstmLayer(numHiddenUnits,OutputMode="last")
fullyConnectedLayer(numClasses)
softmaxLayer];
学習オプションを指定します。ソルバーを adam
に指定し、GradientThreshold
を 1 に指定します。ミニバッチ サイズを 27、最大エポック数を 75 に設定します。データストアによって関数 trainnet
が必要とするサイズのミニバッチが確実に作成されるように、データストアのミニバッチ サイズも同じ値に設定します。
ミニバッチが小さく、シーケンスが短いため、学習には CPU が適しています。ExecutionEnvironment
を cpu
に設定します。GPU が利用できる場合に GPU で学習を行うには、ExecutionEnvironment
を auto
(既定値) に設定します。
miniBatchSize = 27; options = trainingOptions("adam", ... InputDataFormats="CTB", ... Metrics="accuracy", ... ExecutionEnvironment="cpu", ... MaxEpochs=40, ... MiniBatchSize=miniBatchSize, ... GradientThreshold=1, ... Verbose=false, ... Plots="training-progress"); dsTrain.MiniBatchSize = miniBatchSize;
学習オプションを指定して LSTM ネットワークに学習させます。分類には、クロスエントロピー損失を使用します。
net = trainnet(dsTrain,layers,"crossentropy",options);
ネットワークのテスト
テスト データからシーケンス データストアを作成します。
folderTest = fullfile(outputFolder,"Test");
dsTest = sequenceDatastore(folderTest);
テスト データを分類します。複数の観測値を使用して予測を行うには、関数 minibatchpredict
を使用します。関数 minibatchpredict
は利用可能な GPU がある場合に自動的にそれを使用します。GPU を使用するには、Parallel Computing Toolbox™ ライセンスとサポートされている GPU デバイスが必要です。サポートされているデバイスについては、「GPU 計算の要件」を参照してください。それ以外の場合、関数は ExecutionEnvironment
オプションを使用して、実行環境に CPU を指定します。学習データの場合と同じミニバッチ サイズを指定します。データストアによって関数 minibatchpredict
が必要とするサイズのミニバッチが確実に作成されるように、データストアのミニバッチ サイズも同じ値に設定します。
dsTest.MiniBatchSize = miniBatchSize;
YPred = minibatchpredict(net,dsTest,InputDataFormats="CTB",MiniBatchSize=miniBatchSize);
予測の分類精度を計算します。予測スコアをラベルに変換するには、関数 scores2label
を使用します。
YTest = dsTest.Labels; YPred = scores2label(YPred, categories(YTest)); acc = sum(YPred == YTest)./numel(YTest)
acc = 0.9486
参照
[1] Kudo, M., J. Toyama, and M. Shimbo. "Multidimensional Curve Classification Using Passing-Through Regions." Pattern Recognition Letters. Vol. 20, No. 11–13, pp. 1103–1111.
[2] Kudo, M., J. Toyama, and M. Shimbo. Japanese Vowels Data Set. https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels
参考
trainnet
| trainingOptions
| dlnetwork
| lstmLayer
| sequenceInputLayer