Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

深層学習用のデータセット

これらのデータセットを使用して、深層学習の応用を開始します。

イメージ データセット

データセット説明タスク

数字

数字データセットは、10,000 個の手書き数字の合成グレースケール イメージで構成されています。各イメージは 28 x 28 ピクセルで、イメージが表す数字 (0 ~ 9) を示すラベルが関連付けられています。各イメージには特定な角度の回転が付けられています。イメージを配列として読み込むと、そのイメージの回転角度も読み込まれます。

関数 digitTrain4DArrayDatadigitTest4DArrayData を使用して、インメモリ数値配列として数字データを読み込みます。

[XTrain,YTrain,anglesTrain] = digitTrain4DArrayData;
[XTest,YTest,anglesTest] = digitTest4DArrayData;

このデータを深層学習用に処理する方法を示す例については、深層学習における学習の進行状況の監視および回帰用の畳み込みニューラル ネットワークの学習を参照してください。

イメージ分類とイメージ回帰

関数 imageDatastore を使用して数字データをイメージ データストアとして読み込み、イメージ データが格納されているフォルダーを指定します。

dataFolder = fullfile(toolboxdir('nnet'),'nndemos','nndatasets','DigitDataset');
imds = imageDatastore(dataFolder, ...
    'IncludeSubfolders',true, ....
    'LabelSource','foldernames');

このデータを深層学習用に処理する方法を示す例については、分類用のシンプルな深層学習ネットワークの作成を参照してください。

イメージ分類

MNIST

(典型例)

MNIST データセットは、70,000 個の手書き数字で構成されていて、60,000 個のイメージをもつ学習用区画と 10,000 個のイメージをもつテスト用区画に分かれています。各イメージは 28 x 28 ピクセルで、イメージが表す数字 (0 ~ 9) を示すラベルが関連付けられています。

MNIST ファイルを http://yann.lecun.com/exdb/mnist/ からダウンロードし、データセットをワークスペースに読み込みます。ファイルから MATLAB 配列としてデータを読み込むには、ファイルを解凍して作業ディレクトリに保存し、変分自己符号化器 (VAE) の学習によるイメージ生成の例で使用されている補助関数 processImagesMNISTprocessLabelsMNIST を使用します。

oldpath = addpath(fullfile(matlabroot,'examples','nnet','main'));
filenameImagesTrain = 'train-images.idx3-ubyte';
filenameLabelsTrain = 'train-labels.idx1-ubyte';
filenameImagesTest = 't10k-images.idx3-ubyte';
filenameLabelsTest = 't10k-labels.idx1-ubyte';

XTrain = processImagesMNIST(filenameImagesTrain);
YTrain = processLabelsMNIST(filenameLabelsTrain);
XTest = processImagesMNIST(filenameImagesTest);
YTest = processLabelsMNIST(filenameLabelsTest);

このデータを深層学習用に処理する方法を示す例については、変分自己符号化器 (VAE) の学習によるイメージ生成を参照してください。

パスを元に戻すには、関数 path を使用します。

path(oldpath);

イメージ分類

Omniglot

Omniglot データセットには 50 個のアルファベットの文字セットが含まれていて、そのうち 30 セットが学習用に、20 セットがテスト用に分けられています。それぞれのアルファベットには、Ojibwe (カナダ先住民文字) の 14 個の文字から Tifinagh の 55 個の文字まで、数多くの文字が含まれています。そして、それぞれの文字には 20 個の手書きの観測値があります。

https://github.com/brendenlake/omniglot から Omniglot データセット [1] をダウンロードして解凍します。downloadFolder をデータの場所に設定します。

downloadFolder = tempdir;

url = "https://github.com/brendenlake/omniglot/raw/master/python";
urlTrain = url + "/images_background.zip";
urlTest = url + "/images_evaluation.zip";

filenameTrain = fullfile(downloadFolder,"images_background.zip");
filenameTest = fullfile(downloadFolder,"images_evaluation.zip");

dataFolderTrain = fullfile(downloadFolder,"images_background");
dataFolderTest = fullfile(downloadFolder,"images_evaluation");

if ~exist(dataFolderTrain,"dir")
    fprintf("Downloading Omniglot training data set (4.5 MB)... ")
    websave(filenameTrain,urlTrain);
    unzip(filenameTrain,downloadFolder);
    fprintf("Done.\n")
end

if ~exist(dataFolderTest,"dir")
    fprintf("Downloading Omniglot test data (3.2 MB)... ")
    websave(filenameTest,urlTest);
    unzip(filenameTest,downloadFolder);
    fprintf("Done.\n")
end

学習データとテスト データをイメージ データストアとして読み込むには、関数 imageDatastore を使用します。ファイル名からラベルを抽出して Labels プロパティを設定し、ラベルを手動で指定します。

imdsTrain = imageDatastore(dataFolderTrain, ...
    'IncludeSubfolders',true, ...
    'LabelSource','none');

files = imdsTrain.Files;
parts = split(files,filesep);
labels = join(parts(:,(end-2):(end-1)),'_');
imdsTrain.Labels = categorical(labels);

imdsTest = imageDatastore(dataFolderTest, ...
    'IncludeSubfolders',true, ...
    'LabelSource','none');

files = imdsTest.Files;
parts = split(files,filesep);
labels = join(parts(:,(end-2):(end-1)),'_');
imdsTest.Labels = categorical(labels);

このデータを深層学習用に処理する方法を示す例については、シャム ネットワークの学習とイメージの比較を参照してください。

イメージ類似度

イメージの著作権: [3] [4] [5] [6]

花のデータセットには、5 つのクラス ("デイジー"、"タンポポ"、"バラ"、"ヒマワリ"、および "チューリップ") に属する 3670 個の花のイメージが含まれています。

http://download.tensorflow.org/example_images/flower_photos.tgz から花のデータセット [2] をダウンロードして解凍します。このデータセットは約 218 MB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。downloadFolder をデータの場所に設定します。

url = 'http://download.tensorflow.org/example_images/flower_photos.tgz';
downloadFolder = tempdir;
filename = fullfile(downloadFolder,'flower_dataset.tgz');

dataFolder = fullfile(downloadFolder,'flower_photos');
if ~exist(dataFolder,'dir')
    fprintf("Downloading Flowers data set (218 MB)... ")
    websave(filename,url);
    untar(filename,downloadFolder)
    fprintf("Done.\n")
end

関数 imageDatastore を使用してデータをイメージ データストアとして読み込み、イメージ データが格納されているフォルダーを指定します。

imds = imageDatastore(dataFolder, ...
    'IncludeSubfolders',true, ...
    'LabelSource','foldernames');

このデータを深層学習用に処理する方法を示す例については、敵対的生成ネットワーク (GAN) の学習を参照してください。

イメージ分類

食品イメージのサンプル

食品イメージのサンプル データセットには、9 つのクラス ("シーザー サラダ"、"カプレーゼ サラダ"、"フライド ポテト"、"グリーク サラダ"、"ハンバーガー"、"ホット ドッグ"、"ピザ"、"刺身"、および "寿司") に属する 978 枚の写真が含まれています。

https://www.mathworks.com/supportfiles/nnet/data/ExampleFoodImageDataset.zip から食品イメージのサンプル データセットをダウンロードして解凍します。このデータセットは約 77 MB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。downloadFolder をデータの場所に設定します。

url = "https://www.mathworks.com/supportfiles/nnet/data/ExampleFoodImageDataset.zip";
downloadFolder = tempdir;
filename = fullfile(downloadFolder,'ExampleFoodImageDataset.zip');

dataFolder = fullfile(downloadFolder, "ExampleFoodImageDataset");
if ~exist(dataFolder, "dir")
    fprintf("Downloading Example Food Image data set (77 MB)... ")
    websave(filename,url);
    unzip(filename,downloadFolder);
    fprintf("Done.\n")
end

このデータを深層学習用に処理する方法を示す例については、tsne を使用したネットワークの動作の表示を参照してください。

イメージ分類

CIFAR-10

(典型例)

CIFAR-10 データセットには、10 個のクラス ("飛行機"、"自動車"、"鳥"、"猫"、"鹿"、"犬"、"蛙"、"馬"、"船"、および "トラック") に属する 32 x 32 ピクセルのカラー イメージが 60,000 個含まれています。

1 つのクラスにつき 6,000 個のイメージがあります。このデータセットは、50,000 個のイメージから成る学習セットと 10,000 個のイメージから成るテスト セットに分かれています。このデータセットは、新しいイメージ分類モデルのテストに最も広く使用されているデータセットのひとつです。

https://www.cs.toronto.edu/%7Ekriz/cifar-10-matlab.tar.gz から CIFAR-10 データセット [7] をダウンロードして解凍します。このデータセットは約 175 MB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。downloadFolder をデータの場所に設定します。

url = 'https://www.cs.toronto.edu/~kriz/cifar-10-matlab.tar.gz';
downloadFolder = tempdir;
filename = fullfile(downloadFolder,'cifar-10-matlab.tar.gz');

dataFolder = fullfile(downloadFolder,'cifar-10-batches-mat');
if ~exist(dataFolder,'dir')
    fprintf("Downloading CIFAR-10 dataset (175 MB)... ");
    websave(filename,url);
    untar(filename,downloadFolder);
    fprintf("Done.\n")
end
イメージ分類用の残差ネットワークの学習の例で使用されている補助関数 loadCIFARData を使用して、このデータを数値配列に変換します。
oldpath = addpath(fullfile(matlabroot,'examples','nnet','main'));
[XTrain,YTrain,XValidation,YValidation] = loadCIFARData(downloadFolder);

このデータを深層学習用に処理する方法を示す例については、イメージ分類用の残差ネットワークの学習を参照してください。

パスを元に戻すには、関数 path を使用します。

path(oldpath);

イメージ分類

MathWorks® Merch

これは、75 個の MathWorks の商品イメージから成る小さなデータセットであり、5 つの異なるクラス ("cap"、"cube"、"playing cards"、"screwdriver"、および "torch") に属します。このデータセットを使用して転移学習やイメージ分類を素早く試すことができます。

イメージのサイズは 227 x 227 x 3 です。

MathWorks Merch データセットを解凍します。

filename = 'MerchData.zip';

dataFolder = fullfile(tempdir,'MerchData');
if ~exist(dataFolder,'dir')
    unzip(filename,tempdir);
end

関数 imageDatastore を使用してデータをイメージ データストアとして読み込み、イメージ データが格納されているフォルダーを指定します。

imds = imageDatastore(dataFolder, ...
    'IncludeSubfolders',true, ....
    'LabelSource','foldernames');

このデータを深層学習用に処理する方法を示す例については、転移学習入門および新しいイメージを分類するための深層学習ネットワークの学習を参照してください。

イメージ分類

CamVid

CamVid データセットは、運転中の車両から得られた路上レベルのビューが含まれるイメージ コレクションです。データセットは、イメージのセマンティック セグメンテーションを行うネットワークの学習に役立ちます。また、"車"、"歩行者"、"道路" を含む 32 個のセマンティック クラスについてピクセルレベルのラベルを提供します。

イメージのサイズは 720 x 960 x 3 です。

http://web4.cs.ucl.ac.uk/staff/g.brostow/MotionSegRecData から CamVid データセット [8] をダウンロードして解凍します。このデータセットは約 573 MB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。downloadFolder をデータの場所に設定します。

downloadFolder = tempdir;
url = "http://web4.cs.ucl.ac.uk/staff/g.brostow/MotionSegRecData"
urlImages = url + "/files/701_StillsRaw_full.zip";
urlLabels = url + "/data/LabeledApproved_full.zip";

dataFolder = fullfile(downloadFolder,'CamVid');
dataFolderImages = fullfile(dataFolder,'images');
dataFolderLabels = fullfile(dataFolder,'labels');

filenameLabels = fullfile(dataFolder,'labels.zip');
filenameImages = fullfile(dataFolder,'images.zip');

if ~exist(filenameLabels, 'file') || ~exist(imagesZip,'file')   
    mkdir(dataFolder)
    
    fprintf("Downloading CamVid data set images (557 MB)... ");
    websave(filenameImages, urlImages);       
    unzip(filenameImages, dataFolderImages);
    fprintf("Done.\n")
   
    fprintf("Downloading CamVid data set labels (16 MB)... ");
    websave(filenameLabels, urlLabels);
    unzip(filenameLabels, dataFolderLabels);
    fprintf("Done.\n")
end

関数 pixelLabelDatastore を使用してデータをピクセル ラベル データストアとして読み込み、ラベル データ、クラス、およびラベル ID が格納されているフォルダーを指定します。学習を容易にするために、データセットの元の 32 個のクラスを 11 個のクラスにグループ化します。ラベル ID を取得するには、深層学習を使用したセマンティック セグメンテーションの例で使用されている補助関数 camvidPixelLabelIDs を使用します。

oldpath = addpath(fullfile(matlabroot,'examples','deeplearning_shared','main'));
imds = imageDatastore(dataFolderImages,'IncludeSubfolders',true);

classes = ["Sky" "Building" "Pole" "Road" "Pavement" "Tree" ...
    "SignSymbol" "Fence" "Car" "Pedestrian" "Bicyclist"];

labelIDs = camvidPixelLabelIDs;

pxds = pixelLabelDatastore(dataFolderLabels,classes,labelIDs);

このデータを深層学習用に処理する方法を示す例については、深層学習を使用したセマンティック セグメンテーションを参照してください。

パスを元に戻すには、関数 path を使用します。

path(oldpath);

セマンティック セグメンテーション

車両

車両データセットは、1 個または 2 個のラベル付けされた車両インスタンスを含む 295 個のイメージで構成されています。この小さなデータセットは YOLO-v2 の学習手順を調べるうえで役立ちますが、実際にロバストな検出器に学習させるにはラベル付けされたイメージがより多く必要になります。

イメージのサイズは 720 x 960 x 3 です。

車両データセットを解凍します。dataFolder をデータの場所に設定します。

filename = 'vehicleDatasetImages.zip';

dataFolder = fullfile(tempdir,'vehicleImages');
if ~exist(dataFolder,'dir')
    unzip(filename,tempdir);
end

解凍した MAT ファイルから、ファイル名と境界ボックスの table としてデータセットを読み込み、ファイル名を絶対ファイル パスに変換します。

data = load('vehicleDatasetGroundTruth.mat');
vehicleDataset = data.vehicleDataset;

vehicleDataset.imageFilename = fullfile(tempdir,vehicleDataset.imageFilename);

関数 imageDatastoreboxLabelDatastore を使用して、イメージが格納されたイメージ データストアと境界ボックスが格納されたボックス ラベル データストアをそれぞれ作成します。関数 combine を使用して、得られたデータストアを結合します。

filenamesImages = vehicleDataset.imageFilename;
tblBoxes = vehicleDataset(:,'vehicle');

imds = imageDatastore(filenamesImages);
blds = boxLabelDatastore(tblBoxes);

cds = combine(imds,blds);

このデータを深層学習用に処理する方法を示す例については、YOLO v2 深層学習を使用したオブジェクトの検出を参照してください。

オブジェクトの検出

RIT-18

Aerial photograph of Hamlin Beach State Park with colored pixel label overlay that indicates regions of grass, trees, sandy beach, asphalt, and other classes

RIT-18 データセットには、ニューヨーク州にあるハムリン ビーチ州立公園の上空をドローンで撮影したイメージ データが含まれています。このデータには、18 個のオブジェクト クラス ラベル ("路面標示"、"樹木"、"ビル" など) の付いた、ラベル付き学習セット、検証セットおよびテスト セットが含まれます。

https://www.cis.rit.edu/%7Ermk6217/rit18_data.mat から RIT-18 データセット[9] をダウンロードします。このデータセットは約 3 GB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。downloadFolder をデータの場所に設定します。

downloadFolder = tempdir;
url = 'http://www.cis.rit.edu/~rmk6217/rit18_data.mat';
filename = fullfile(downloadFolder,'rit18_data.mat');

if ~exist(filename,'file')
    fprintf("Downloading Hamlin Beach data set (3 GB)... ");
    websave(filename,url);
    fprintf("Done.\n")
end

このデータを深層学習用に処理する方法を示す例については、深層学習を使用したマルチスペクトル イメージのセマンティック セグメンテーションを参照してください。

セマンティック セグメンテーション

BraTS

Axial slice of human brain with colored pixel label overlay that indicates regions of normal tissue and tumor tissue

BraTS データセットには、脳腫瘍、すなわち最も一般的な原発性悪性脳腫瘍である神経膠腫の MRI スキャンが格納されています。

データセットには 750 個の 4 次元ボリュームが格納されており、それぞれが 3 次元イメージのスタックを表します。各 4 次元ボリュームのサイズは 240 x 240 x 155 x 4 であり、最初の 3 つの次元は 3 次元ボリューム イメージの高さ、幅、奥行に対応します。4 番目の次元は異なるスキャン モダリティに対応します。このデータセットは、ボクセル ラベルを含む 484 個の学習ボリュームと 266 個のテスト ボリュームに分割されています。

BraTS データセット [10] を格納するディレクトリを作成します。

dataFolder = fullfile(tempdir,'BraTS');

if ~exist(dataFolder,'dir')
    mkdir(dataFolder);
end

Medical Segmentation Decathlon で [Download Data] リンクをクリックして BraTS データをダウンロードします。"Task01_BrainTumour.tar" ファイルをダウンロードします。このデータセットは約 7 GB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。

変数 dataFolder で指定されたディレクトリに TAR ファイルを解凍します。正常に解凍された場合、dataFolder には imagesTrimagesTs、および labelsTr という 3 つのサブカテゴリがある Task01_BrainTumour という名前のディレクトリが含まれています。

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した脳腫瘍の 3 次元セグメンテーションを参照してください。

セマンティック セグメンテーション

Camelyon16

Six patches of normal tissue samples

Camelyon16 チャレンジのデータには、2 つの独立したソースによるリンパ節の WSI が合計 400 個含まれており、270 個の学習イメージと 130 個のテスト イメージに分かれています。WSI は、11 レベルのピラミッド構造をもつストリップ形式の TIF ファイルとして格納されています。

学習データセットは、正常なリンパ節の 159 個のスライド ガラス標本全体のイメージ (WSI) と、腫瘍組織と正常組織を含むリンパ節の 111 個の WSI で構成されています。通常、腫瘍組織の割合は正常組織に比べるとごくわずかです。腫瘍イメージには病変境界のグラウンド トゥルース座標が付属しています。

Camelyon16 データセット [11] を格納するディレクトリを作成します。

dataFolderTrain = fullfile(tempdir,'Camelyon16','training');
dataFolderNormalTrain = fullfile(dataFolderTrain,'normal');
dataFolderTumorTrain = fullfile(dataFolderTrain,'tumor');
dataFolderAnnotationsTrain = fullfile(dataFolderTrain,'lesion_annotations');

if ~exist(dataFolderTrain,'dir')
    mkdir(dataFolderTrain);
    mkdir(dataFolderNormalTrain);
    mkdir(dataFolderTumorTrain);
    mkdir(dataFolderAnnotationsTrain);
end

Camelyon17 で最初の [CAMELYON16 data set] リンクをクリックし、Camelyon16 データセットをダウンロードします。"training" ディレクトリを開き、以下の手順に従います。

  • "lesion_annotations.zip" ファイルをダウンロードします。変数 dataFolderAnnotationsTrain で指定されたディレクトリにファイルを解凍します。

  • "normal" ディレクトリを開きます。変数 dataFolderNormalTrain で指定されたディレクトリにイメージをダウンロードします。

  • "tumor" ディレクトリを開きます。変数 dataFolderTumorTrain で指定されたディレクトリにイメージをダウンロードします。

このデータセットは約 2 GB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。

このデータを深層学習用に処理する方法を示す例については、blockedImage および深層学習を使用した、大きな多重解像度イメージの分類を参照してください。

イメージ分類 (大きなイメージ)

Common Objects in Context (COCO)

(典型例)

COCO 2014 学習イメージ データセットは、82,783 個のイメージで構成されています。注釈データには、各イメージごとに最低 5 つの対応するキャプションが格納されています。

COCO データセットを格納するディレクトリを作成します。

dataFolder = fullfile(tempdir,"coco");
if ~exist(dataFolder,'dir')
    mkdir(dataFolder);
end

https://cocodataset.org/#download で [2014 Train images] と [2014 Train/Val annotations] のリンクをクリックし、COCO 2014 の学習イメージとキャプションをそれぞれダウンロードして解凍します。dataFolder で指定したフォルダーにデータを保存します。

関数 jsondecode を使用して、ファイル captions_train2014.json からキャプションを抽出します。

filename = fullfile(dataFolder,"annotations_trainval2014","annotations", ...
    "captions_train2014.json");
str = fileread(filename);
data = jsondecode(str);

構造体の annotations フィールドには、イメージ キャプショニングに必要なデータが格納されます。

このデータを深層学習用に処理する方法を示す例については、アテンションを使用したイメージ キャプションの生成を参照してください。

イメージ キャプションの生成

IAPR TC-12

A wall and gardens of the Alcazar royal palace in Seville, Spain

(典型例)

IAPR TC-12 ベンチマークは 20,000 個の静止した自然イメージで構成されています。このデータ セットには、人物、動物、都市などの写真が含まれます。データ ファイルのサイズは約 1.8 GB です。

IAPR TC-12 データ セットをダウンロードします。

dataDir = fullfile(tempdir,'iaprtc12');
url = 'http://www-i6.informatik.rwth-aachen.de/imageclef/resources/iaprtc12.tgz';

if ~exist(dataDir,'dir')
    fprintf('Downloading IAPR TC-12 data set (1.8 GB)...\n');
    try
        untar(url,dataDir);
    catch 
        % On some Windows machines, the untar command errors for .tgz
        % files. Rename to .tg and try again.
        fileName = fullfile(tempdir,'iaprtc12.tg');
        websave(fileName,url);
        untar(fileName,dataDir);
    end
    fprintf('Done.\n\n');
end

関数 imageDatastore を使用してデータをイメージ データストアとして読み込みます。イメージ データが格納されているフォルダーとイメージ ファイルの拡張子を指定します。

imageDir = fullfile(dataDir,'images')
exts = {'.jpg','.bmp','.png'};
imds = imageDatastore(imageDir, ...
    'IncludeSubfolders',true, ...
    'FileExtensions',exts);

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した単一イメージ超解像処理を参照してください。

image-to-image 回帰

Zurich RAW to RGB

Pair of RAW and RGB image patches of a street scene in Zurich

Zurich RAW to RGB データ セットには、サイズが 448 x 448 の、空間的にレジストレーションされた RAW 学習イメージ パッチおよび RGB 学習イメージ パッチが 48,043 ペア登録されています。このデータ セットには 2 つの異なるテスト セットが格納されています。一方のテスト セットは、サイズが 448 x 448 の、空間的にレジストレーションされた RAW イメージ パッチおよび RGB イメージ パッチ 1,204 ペアで構成されています。もう一方のテスト セットはレジストレーションされていない高解像度 RAW イメージおよび RGB イメージで構成されています。このデータ セットのサイズは 22 GB です。

データ セットを格納するディレクトリを作成します。

imageDir = fullfile(tempdir,'ZurichRAWToRGB');
if ~exist(imageDir,'dir')
    mkdir(imageDir);
end 
データ セットをダウンロードするには、Zurich RAW to RGB dataset フォームを使用してアクセスを依頼します。変数 imageDir で指定されたディレクトリにデータを解凍します。解凍に成功すると、imageDir には full_resolutiontest、および train という名前の 3 つのディレクトリが格納されています。

このデータを深層学習用に処理する方法を示す例については、深層学習を使用したカメラの生データ処理パイプラインの構築を参照してください。

image-to-image 回帰

時系列と信号のデータセット

データ説明タスク

Japanese Vowels

Japanese Vowels データセット [12] [13] には、さまざまな話者による日本語母音の発話を表す前処理済みのシーケンスが含まれています。

XTrainXTest は、次元 12 の可変長のシーケンスが含まれる cell 配列です。YTrainYTest は、9 人の話者に対応する 1 ~ 9 のラベルから成る categorical ベクトルです。XTrain のエントリは行列で、行数が 12 (特徴ごとに 1 行) で、列数が可変 (タイム ステップごとに 1 列) です。XTest は、次元 12 の可変長のシーケンスが 370 個含まれる cell 配列です。

関数 japaneseVowelsTrainDatajapaneseVowelsTestData を使用して、数値シーケンスが格納されたインメモリ cell 配列として Japanese Vowels データセットを読み込みます。

[XTrain,YTrain] = japaneseVowelsTrainData;
[XTest,YTest] = japaneseVowelsTestData;

このデータを深層学習用に処理する方法を示す例については、深層学習を使用したシーケンスの分類を参照してください。

sequence-to-label 分類

水ぼうそう

水ぼうそうデータセットには、月に対応するタイム ステップと発生件数に対応する値を含む 1 つの時系列が含まれています。出力は cell 配列で、その各要素は 1 つのタイム ステップです。

関数 chickenpox_dataset を使用して水ぼうそうデータを単一の数値シーケンスとして読み込みます。データを行ベクトルに形状変更します。

data = chickenpox_dataset;
data = [data{:}];

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した時系列予測を参照してください。

時系列予測

人の行動

行動データセットには、体に装着したスマートフォンから得られたセンサー データの 7 つの時系列が含まれています。各シーケンスには 3 つの特徴があり、長さはさまざまです。3 つの特徴は、3 つの異なる方向での加速度計の測定値に対応します。

人の行動のデータセットを読み込みます。

dataTrain = load('HumanActivityTrain');
dataTest = load('HumanActivityTest');

XTrain = dataTrain.XTrain;
YTrain = dataTrain.YTrain;
XTest = dataTest.XTest;
YTest = dataTest.YTest;

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した sequence-to-sequence 分類を参照してください。

sequence-to-sequence 分類

Turbofan Engine Degradation Simulation

Turbofan Engine Degradation Simulation データセット [14] の各時系列は、それぞれ異なるエンジンを表します。開始時点では、各エンジンの初期摩耗の程度や製造上の差異は不明です。各時系列の開始時、エンジンは正常に運転していますが、時系列のある時点で故障が発生します。学習セットでは、システム障害が発生するまで、故障の規模が大きくなります。

このデータには、スペースで区切られた 26 列の数値のある zip 圧縮されたテキスト ファイルが含まれています。各行は 1 回の運転サイクルの間に取得されたデータのスナップショットで、各列は異なる変数です。各列は以下に対応します。

  • 列 1 – ユニット番号

  • 列 2 – サイクル単位の時間

  • 列 3 ~ 5 – 運転設定

  • 列 6 ~ 26 – センサー測定値 1 ~ 21

Turbofan Engine Degradation Simulation データセットを格納するディレクトリを作成します。

dataFolder = fullfile(tempdir,"turbofan");
if ~exist(dataFolder,'dir')
    mkdir(dataFolder);
end

Turbofan Engine Degradation Simulation Data Set を https://ti.arc.nasa.gov/tech/dash/groups/pcoe/prognostic-data-repository/ からダウンロードして解凍します。

ファイル CMAPSSData.zip からデータを解凍します。

filename = "CMAPSSData.zip";
unzip(filename,dataFolder)

補助関数 processTurboFanDataTrainprocessTurboFanDataTest を使用して、学習データとテスト データをそれぞれ読み込みます。これらの関数は、深層学習を使用した sequence-to-sequence 回帰の例で使用されています。

oldpath = addpath(fullfile(matlabroot,'examples','nnet','main'));
filenamePredictors = fullfile(dataFolder,"train_FD001.txt");
[XTrain,YTrain] = processTurboFanDataTrain(filenamePredictors);

filenamePredictors = fullfile(dataFolder,"test_FD001.txt");
filenameResponses = fullfile(dataFolder,"RUL_FD001.txt");
[XTest,YTest] = processTurboFanDataTest(filenamePredictors,filenameResponses);

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した sequence-to-sequence 回帰を参照してください。

パスを元に戻すには、関数 path を使用します。

path(oldpath);

sequence-to-sequence 回帰、予知保全

PhysioNet 2017 Challenge

PhysioNet 2017 Challenge データセット [16] は、300 Hz でサンプリングされ、専門家グループによって次の 4 つの別々のクラスに分けられた、一連の心電図 (ECG) 記録で構成されています。正常 (N)、AFib (A)、その他の律動 (O)、およびノイズを含む録音 (~)。

長短期記憶ネットワークを使用した ECG 信号の分類の例で使用されている ReadPhysionetData スクリプトを使用して、PhysioNet 2017 Challenge データセットをダウンロードして解凍します。

このデータセットは約 95 MB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。

oldpath = addpath(fullfile(matlabroot,'examples','deeplearning_shared','main'));
ReadPhysionetData
data = load('PhysionetData.mat')
signals = data.Signals;
labels = data.Labels;

このデータを深層学習用に処理する方法を示す例については、長短期記憶ネットワークを使用した ECG 信号の分類を参照してください。

パスを元に戻すには、関数 path を使用します。

path(oldpath);

sequence-to-label 分類

Tennessee Eastman Process (TEP) シミュレーション

このデータセットは、Tennessee Eastman Process (TEP) のシミュレーション データから変換された MAT ファイルで構成されています。

MathWorks のサポート ファイル サイトから、Tennessee Eastman Process (TEP) シミュレーション データセット [15] をダウンロードします (免責事項を参照してください)。このデータセットには、次の 4 つのコンポーネントがあります。故障なしの学習、故障なしのテスト、故障ありの学習、故障ありのテスト。各ファイルを別々にダウンロードします。

このデータセットは約 1.7 GB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。

urlSupportFiles = "https://www.mathworks.com/supportfiles/predmaint";

url = urlSupportFiles + "/chemical-process-fault-detection-data/faultytesting.mat";
fprintf("Downloading TEP faulty testing data (1 GB)... ")
websave('faultytesting.mat',url);
fprintf("Done.\n")

url = urlSupportFiles + "/chemical-process-fault-detection-data/faultytraining.mat";
fprintf("Downloading TEP faulty training data (613 MB)... ")
websave('faultytraining.mat',url);
fprintf("Done.\n")

url = urlSupportFiles + "/chemical-process-fault-detection-data/faultfreetesting.mat";
fprintf("Downloading TEP fault-free testing data (69 MB)... ")
websave('faultfreetesting.mat',url);
fprintf("Done.\n")

url = urlSupportFiles + "/chemical-process-fault-detection-data/faultfreetraining.mat";
fprintf("Downloading TEP fault-free training data (36 MB)... ")
websave('faultfreetraining.mat',url);
fprintf("Done.\n")

ダウンロードしたファイルを MATLAB® ワークスペースに読み込みます。

load('faultfreetesting.mat');
load('faultfreetraining.mat');
load('faultytesting.mat');
load('faultytraining.mat');

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した化学的プロセスの故障検出を参照してください。

sequence-to-label 分類

PhysioNet ECG Segmentation

PhysioNet ECG セグメンテーション データセット [16] [17] は、合計 105 人の患者からの約 15 分間の ECG の記録で構成されています。各記録を取得するために、検査員は患者の胸部の異なる場所に 2 つの電極を配置して、2 チャネル信号にします。このデータベースは、自動化されたエキスパート システムによって生成される信号領域ラベルを提供します。

https://github.com/mathworks/physionet_ECG_segmentation から QT_Database-master.zip zip ファイルをダウンロードして、PhysioNet ECG Segmentation データセットをダウンロードします。このデータセットは約 72 MB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。downloadFolder をデータの場所に設定します。

downloadFolder = tempdir;

url = "https://github.com/mathworks/physionet_ECG_segmentation/raw/master/QT_Database-master.zip";
filename = fullfile(downloadFolder,"QT_Database-master.zip");

dataFolder = fullfile(downloadFolder,"QT_Database-master");

if ~exist(dataFolder,"dir")
    fprintf("Downloading Physionet ECG Segmentation data set (72 MB)... ")
    websave(filename,url);
    unzip(filename,downloadFolder);
    fprintf("Done.\n")
end

解凍すると、一時ディレクトリにフォルダー QT_Database-master が作成されます。このフォルダーには、テキスト ファイル README.md と次のファイルが含まれます。

  • QTData.mat

  • Modified_physionet_data.txt

  • License.txt

QTData.mat には、PhysioNet ECG Segmentation データが含まれています。ファイル Modified_physionet_data.txt は、データ用のソース属性と、生の ECG 記録ごとに適用される操作の説明を提供します。MAT ファイルから PhysioNet ECG Segmentation データを読み込みます。

load(fullfile(dataFolder,'QTData.mat'))

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した波形セグメンテーションを参照してください。

sequence-to-label 分類、波形セグメンテーション

歩行者、自動車、自転車運転者の合成後方散乱

深層学習を使用した歩行者と自転車運転者の分類の例で使用されている補助関数 helperBackScatterSignalshelperDopplerSignatures を使用して、歩行者、自動車、自転車運転者の合成後方散乱データセットを生成します。

補助関数 helperBackScatterSignals は、指定された数の歩行者、自転車運転者、および自動車のレーダー出力を生成します。各実現について、帰還信号の次元は Nfast 行 Nslow 列です。ここで、Nfast は "高速" サンプルの数、Nslow は "低速" サンプルの数です。

補助関数 helperDopplerSignatures は、レーダー出力の短時間フーリエ変換 (STFT) を計算して、マイクロ ドップラー シグネチャを生成します。マイクロ ドップラー シグネチャを取得するには、この補助関数を使用して、各信号に STFT と前処理メソッドを適用します。

oldpath = addpath(fullfile(matlabroot,'examples','phased','main'));
numPed = 1; % Number of pedestrian realizations
numBic = 1; % Number of bicyclist realizations
numCar = 1; % Number of car realizations
[xPedRec,xBicRec,xCarRec,Tsamp] = helperBackScatterSignals(numPed,numBic,numCar);

[SPed,T,F] = helperDopplerSignatures(xPedRec,Tsamp);
[SBic,~,~] = helperDopplerSignatures(xBicRec,Tsamp);
[SCar,~,~] = helperDopplerSignatures(xCarRec,Tsamp);

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した歩行者と自転車運転者の分類を参照してください。

パスを元に戻すには、関数 path を使用します。

path(oldpath);

sequence-to-label 分類

生成された波形

深層学習を使用したレーダー波形の分類の例で使用されている補助関数 helperGenerateRadarWaveforms を使用して、矩形波形、線形 FM 波形、位相符号化波形を生成します。

補助関数 helperGenerateRadarWaveforms は、各変調タイプにつき 100 MHz のサンプルレートで 3000 個の信号を生成します。矩形パルスには phased.RectangularWaveform、線形 FM には phased.LinearFMWaveform、およびバーカー符号をもつ位相符号化パルスには phased.PhaseCodedWaveform を使用します。

oldpath = addpath(fullfile(matlabroot,'examples','phased','main'));
[wav, modType] = helperGenerateRadarWaveforms;

このデータを深層学習用に処理する方法を示す例については、深層学習を使用したレーダー波形の分類を参照してください。

パスを元に戻すには、関数 path を使用します。

path(oldpath);

sequence-to-label 分類

ビデオのデータセット

データ説明タスク

HMDB (大規模人間動作データベース)

(典型例)

HMBD51 データセットには、"飲む"、"走る"、"腕立て伏せ" など、51 クラスの 7,000 個のクリップから成る約 2 GB のビデオ データが格納されています。

HMDB (大規模人間動作データベース) から HMDB51 データセットをダウンロードして解凍します。このデータセットは約 2 GB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。

RAR ファイルを解凍した後、深層学習を使用したビデオの分類の例で使用されている補助関数 hmdb51Files を使用してビデオのファイル名とラベルを取得します。dataFolder をデータの場所に設定します。

oldpath = addpath(fullfile(matlabroot,'examples','nnet','main'));
dataFolder = fullfile(tempdir,"hmdb51_org");
[files,labels] = hmdb51Files(dataFolder);

このデータを深層学習用に処理する方法を示す例については、深層学習を使用したビデオの分類を参照してください。

パスを元に戻すには、関数 path を使用します。

path(oldpath);

ビデオ分類

テキストのデータセット

データ説明タスク

工場レポート

工場レポート データセットは、さまざまな属性 (変数 Description 内のプレーン テキストの説明、変数 Category 内のカテゴリカル ラベルなど) をもつ約 500 件のレポートが含まれている table です。

ファイル "factoryReports.csv" から工場レポート データを読み取ります。Description 列と Category 列から、それぞれテキスト データとラベルを抽出します。

filename = "factoryReports.csv";
data = readtable(filename,'TextType','string');

textData = data.Description;
labels = data.Category;

このデータを深層学習用に処理する方法を示す例については、深層学習を使用したテキスト データの分類を参照してください。

テキスト分類、トピック モデリング

シェイクスピアのソネット

ファイル sonnets.txt には、シェイクスピアのソネット全集が 1 つのテキスト ファイルとして格納されています。

ファイル "sonnets.txt" からシェイクスピアのソネットのデータを読み取ります。

filename = "sonnets.txt";
textData = fileread(filename);

ソネットは 2 つの空白文字でインデントされ、2 つの改行文字で区切られています。replace を使用してインデントを削除し、split を使用してテキストを個別のソネットに分割します。最初の 3 つの要素のメイン タイトルと、各ソネットの前に現れるソネット タイトルを削除します。

textData = replace(textData,"  ","");
textData = split(textData,[newline newline]);
textData = textData(5:2:end);

このデータを深層学習用に処理する方法を示す例については、深層学習を使用したテキストの生成を参照してください。

トピック モデリング、テキスト生成

arXiv メタデータ

arXiv API はhttps://arxiv.orgに提出された科学分野の電子出版物のメタデータ (要旨や主題など) へのアクセスを提供します。詳細については、https://arxiv.org/help/apiを参照してください。

arXiv API を使用して、数学論文から概要とカテゴリ ラベルのセットをインポートします。

url = "https://export.arxiv.org/oai2?verb=ListRecords" + ...
    "&set=math" + ...
    "&metadataPrefix=arXiv";
options = weboptions('Timeout',160);
code = webread(url,options);

返された XML コードを解析してさらに多くのレコードをインポートする方法を示す例については、深層学習を使用した複数ラベルをもつテキストの分類を参照してください。

テキスト分類、トピック モデリング

Project Gutenberg の書籍

Project Gutenberg から数多くの書籍をダウンロードできます。たとえば、関数 webread を使用して、https://www.gutenberg.org/files/11/11-h/11-h.htm からルイス キャロルの『不思議の国のアリス』のテキストをダウンロードします。

url = "https://www.gutenberg.org/files/11/11-h/11-h.htm";
code = webread(url);

HTML コードには、<p> (段落) 要素の中に関連テキストが含まれています。関数 htmlTree を使用して HTML コードを解析し、要素名 "p" を持つすべての要素を検索して、関連テキストを抽出します。

tree = htmlTree(code);
selector = "p";
subtrees = findElement(tree,selector);

関数 extractHTMLText を使用して HTML サブツリーからテキスト データを抽出し、空の要素を削除します。

textData = extractHTMLText(subtrees);
textData(textData == "") = [];

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した単語単位のテキスト生成を参照してください。

トピック モデリング、テキスト生成

週末のアップデート

ファイル weekendUpdates.xlsx には、"#weekend" と "#vacation" にハッシュタグが含まれている、ソーシャル メディアのステータス更新の例が格納されています。このデータセットを使用するには Text Analytics Toolbox™ が必要です。

関数 readtable を使用してファイル weekendUpdates.xlsx からテキスト データを取得し、変数 TextData からテキスト データを抽出します。

filename = "weekendUpdates.xlsx";
tbl = readtable(filename,'TextType','string');
textData = tbl.TextData;

このデータを処理する方法を示す例については、Analyze Sentiment in Text (Text Analytics Toolbox)を参照してください。

センチメント分析

ローマ数字

CSV ファイル "romanNumerals.csv" には、1 ~ 1000 の 10 進数が最初の列に格納され、それに対応するローマ数字が 2 番目の列に格納されています。

CSV ファイル "romanNumerals.csv" から 10 進数とローマ数字のペアを読み込みます。

filename = fullfile("romanNumerals.csv");

options = detectImportOptions(filename, ...
    'TextType','string', ...
    'ReadVariableNames',false);
options.VariableNames = ["Source" "Target"];
options.VariableTypes = ["string" "string"];

data = readtable(filename,options);

このデータを深層学習用に処理する方法を示す例については、アテンションを使用した sequence-to-sequence 変換を参照してください。

sequence-to-sequence 変換

財務レポート

証券取引委員会 (SEC) は、Electronic Data Gathering, Analysis, and Retrieval (EDGAR) API を介した財務レポートへのアクセスを許可しています。詳細については、https://www.sec.gov/edgar/searchedgar/accessing-edgar-data.htmを参照してください。

このデータをダウンロードするには、Generate Domain Specific Sentiment Lexicon (Text Analytics Toolbox)の例にサポート ファイルとして添付されている関数 financeReports を使用します。この関数にアクセスするには、例をライブ スクリプトとして開きます。

year = 2019;
qtr = 4;
maxLength = 2e6;
textData = financeReports(year,qtr,maxLength);

このデータを処理する方法を示す例については、Generate Domain Specific Sentiment Lexicon (Text Analytics Toolbox)を参照してください。

センチメント分析

オーディオ データセット

データ説明タスク

音声コマンド

音声コマンド データセット [18] は、12 のクラス (yesnoonoff など) のいずれかのラベル、および不明なコマンドやバックグラウンド ノイズに対応するクラスのラベルが付けられた約 65,000 個のオーディオ ファイルで構成されています。

https://storage.googleapis.com/download.tensorflow.org/data/speech_commands_v0.01.tar.gz から音声コマンド データセットをダウンロードして解凍します。このデータセットは約 1.4 GB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。

dataFolder をデータの場所に設定します。audioDatastore を使用して、ファイル名と対応するラベルを含むデータストアを作成します。

dataFolder = tempdir;
ads = audioDatastore(dataFolder, ...
    'IncludeSubfolders',true, ...
    'FileExtensions','.wav', ...
    'LabelSource','foldernames');

このデータを深層学習用に処理する方法を示す例については、深層学習を使用した音声コマンド認識を参照してください。

オーディオ分類、音声認識

Mozilla Common Voice

Mozilla Common Voice データセットは、録音音声および対応するテキスト ファイルで構成されています。データには、年齢、性別、アクセントなど、人口統計のメタデータも含まれています。

https://voice.mozilla.org/ から Mozilla Common Voice データセットをダウンロードして解凍します。このデータセットはオープンなデータセットであるため、時間がたつにつれて大きくなる可能性があります。2019 年 10 月現在、このデータセットは約 28 GB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。dataFolder をデータの場所に設定します。audioDatastore を使用して、ファイル名と対応するラベルを含むデータストアを作成します。

dataFolder = tempdir;
ads = audioDatastore(fullfile(dataFolder,"clips"));

このデータを深層学習用に処理する方法を示す例については、GRU ネットワークを使用した性別の分類を参照してください。

オーディオ分類、音声認識

Free Spoken Digit Dataset

Free Spoken Digit Dataset には、2019 年 1 月 29 日現在、4 人の話者が英語で発話した 0 ~ 9 の数字の録音が 2000 件含まれています。このバージョンでは、2 人の話者はアメリカ英語を話すネイティブ スピーカー、他の 2 人の話者はそれぞれベルギー フランス語なまりとドイツ語なまりの英語を話す非ネイティブ スピーカーです。データは 8000 Hz でサンプリングされます。

https://github.com/Jakobovski/free-spoken-digit-dataset から Free Spoken Digit Dataset (FSDD) の録音音声をダウンロードします。

dataFolder をデータの場所に設定します。audioDatastore を使用して、ファイル名と対応するラベルを含むデータストアを作成します。

dataFolder = fullfile(tempdir,'free-spoken-digit-dataset','recordings');
ads = audioDatastore(dataFolder);

このデータを深層学習用に処理する方法を示す例については、ウェーブレット散乱と深層学習を使用した数字音声認識を参照してください。

オーディオ分類、音声認識

Berlin Database of Emotional Speech

Berlin Database of Emotional Speech [19] には、10 人の俳優によって話された 535 個の発話が含まれています。これらの発話では、怒り、退屈、嫌悪、不安/恐怖、幸福、悲しみ、中立のいずれかの感情が表されています。感情はテキストと無関係です。

ファイル名は、話者 ID、発話されたテキスト、感情、およびバージョンを表すコードです。Web サイトには、コードを解釈するためのヒント、および話者に関する追加の情報 (性別や年齢など) が記載されています。

http://emodb.bilderbar.info/index-1280.html から、Berlin Database of Emotional Speech をダウンロードします。このデータセットは約 40 MB です。インターネット接続の速度によっては、ダウンロード プロセスに時間がかかることがあります。

dataFolder をデータの場所に設定します。audioDatastore を使用して、ファイル名と対応するラベルを含むデータストアを作成します。

dataFolder = tempdir;
ads = audioDatastore(fullfile(dataFolder,"wav"));

このデータを深層学習用に処理する方法を示す例については、音声感情認識を参照してください。

オーディオ分類、音声認識

TUT Acoustic scenes 2017

TUT Acoustic scenes 2017, Development dataset および TUT Acoustic scenes 2017, Evaluation dataset から、TUT Acoustic scenes 2017 データセット[20]をダウンロードして解凍します。

このデータセットは 15 の音響シーン ("バス"、"自動車"、"図書館" など) から取得した 10 秒間のオーディオ セグメントで構成されています。

このデータを深層学習用に処理する方法を示す例については、後期融合を使用した音響シーン認識を参照してください。

音響シーン分類

参照

Mesaros, Annamaria, Toni Heittola, and Tuomas Virtanen. "Acoustic Scene Classification: An Overview of DCASE 2017 Challenge Entries." Proceedings of the International Workshop on Acoustic Signal Enhancement (2018):

411–415.

[1] Lake, Brenden M., Ruslan Salakhutdinov, and Joshua B. Tenenbaum. “Human-Level Concept Learning through Probabilistic Program Induction.” Science 350, no. 6266 (December 11, 2015): 1332–38. https://doi.org/10.1126/science.aab3050.

[3] Kat, Tulips, image, https://www.flickr.com/photos/swimparallel/3455026124. Creative Commons License (CC BY).

[4] Rob Bertholf, Sunflowers, image, https://www.flickr.com/photos/robbertholf/20777358950. Creative Commons 2.0 Generic License.

[5] Parvin, Roses, image, https://www.flickr.com/photos/55948751@N00. Creative Commons 2.0 Generic License.

[6] John Haslam, Dandelions, image, https://www.flickr.com/photos/foxypar4/645330051. Creative Commons 2.0 Generic License.

[7] Krizhevsky, Alex. "Learning Multiple Layers of Features from Tiny Images." MSc thesis, University of Toronto, 2009. https://www.cs.toronto.edu/%7Ekriz/learning-features-2009-TR.pdf.

[8] Brostow, Gabriel J., Julien Fauqueur, and Roberto Cipolla. “Semantic Object Classes in Video: A High-Definition Ground Truth Database.” Pattern Recognition Letters 30, no. 2 (January 2009): 88–97. https://doi.org/10.1016/j.patrec.2008.04.005

[9] Kemker, Ronald, Carl Salvaggio, and Christopher Kanan. “High-Resolution Multispectral Dataset for Semantic Segmentation.” ArXiv:1703.01918 [Cs], March 6, 2017. https://arxiv.org/abs/1703.01918

[10] Isensee, Fabian, Philipp Kickingereder, Wolfgang Wick, Martin Bendszus, and Klaus H. Maier-Hein. “Brain Tumor Segmentation and Radiomics Survival Prediction: Contribution to the BRATS 2017 Challenge.” In Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries, edited by Alessandro Crimi, Spyridon Bakas, Hugo Kuijf, Bjoern Menze, and Mauricio Reyes, 10670:287–97. Cham, Switzerland: Springer International Publishing, 2018. https://doi.org/10.1007/978-3-319-75238-9_25

[11] Ehteshami Bejnordi, Babak, Mitko Veta, Paul Johannes van Diest, Bram van Ginneken, Nico Karssemeijer, Geert Litjens, Jeroen A. W. M. van der Laak, et al. “Diagnostic Assessment of Deep Learning Algorithms for Detection of Lymph Node Metastases in Women With Breast Cancer.” JAMA 318, no. 22 (December 12, 2017): 2199. https://doi.org/10.1001/jama.2017.14585

[12] Kudo, Mineichi, Jun Toyama, and Masaru Shimbo. “Multidimensional Curve Classification Using Passing-through Regions.” Pattern Recognition Letters 20, no. 11–13 (November 1999): 1103–11. https://doi.org/10.1016/S0167-8655(99)00077-X

[13] Kudo, Mineichi, Jun Toyama, and Masaru Shimbo. Japanese Vowels Data Set. Distributed by UCI Machine Learning Repository. https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels

[14] Saxena, Abhinav, Kai Goebel. "Turbofan Engine Degradation Simulation Data Set." NASA Ames Prognostics Data Repository https://ti.arc.nasa.gov/tech/dash/groups/pcoe/prognostic-data-repository/, NASA Ames Research Center, Moffett Field, CA

[15] Rieth, Cory A., Ben D. Amsel, Randy Tran, and Maia B. Cook. "Additional Tennessee Eastman Process Simulation Data for Anomaly Detection Evaluation." Harvard Dataverse, Version 1, 2017. https://doi.org/10.7910/DVN/6C3JR1.

[16] Goldberger, Ary L., Luis A. N. Amaral, Leon Glass, Jeffery M. Hausdorff, Plamen Ch. Ivanov, Roger G. Mark, Joseph E. Mietus, George B. Moody, Chung-Kang Peng, and H. Eugene Stanley. "PhysioBank, PhysioToolkit, and PhysioNet: Components of a New Research Resource for Complex Physiologic Signals." Circulation 101, No. 23, 2000, pp. e215–e220. https://circ.ahajournals.org/content/101/23/e215.full

[17] Laguna, Pablo, Roger G. Mark, Ary L. Goldberger, and George B. Moody. "A Database for Evaluation of Algorithms for Measurement of QT and Other Waveform Intervals in the ECG." Computers in Cardiology 24, 1997, pp. 673–676.

[18] Warden P. "Speech Commands: A public dataset for single-word speech recognition", 2017. Available from http://download.tensorflow.org/data/speech_commands_v0.01.tar.gz. Copyright Google 2017. The Speech Commands Dataset is licensed under the Creative Commons Attribution 4.0 license, available here: https://creativecommons.org/licenses/by/4.0/legalcode.

[19] Burkhardt, Felix, Astrid Paeschke, Melissa A. Rolfes, Walter F. Sendlmeier, and Benjamin Weiss. "A Database of German Emotional Speech." Proceedings of Interspeech 2005. Lisbon, Portugal: International Speech Communication Association, 2005.

[20] Mesaros, Annamaria, Toni Heittola, and Tuomas Virtanen. "Acoustic scene classification: an overview of DCASE 2017 challenge entries." In 2018 16th International Workshop on Acoustic Signal Enhancement (IWAENC), pp. 411-415. IEEE, 2018.

参考

|

関連するトピック