最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

サポートされているネットワークと層

サポートされている事前学習済みのネットワーク

GPU Coder™ は、系列または有向非循環グラフ (DAG) 畳み込みニューラル ネットワーク (CNN または ConvNets) のコード生成をサポートしています。コード生成でサポートされている層を含む学習済みの畳み込みニューラル ネットワークについて、コードを生成できます。サポートされている層を参照してください。Deep Learning Toolbox™ を使用するか、以下の表に示されているいずれかの事前学習済みのネットワークを使用して、1 つの CPU、1 つの GPU、または複数の GPU 上で畳み込みニューラル ネットワークに学習させ、CUDA® コードを生成することができます。

ネットワークの名前説明cuDNNTensorRTARM® Compute Library for Mali GPU
AlexNet

AlexNet 畳み込みニューラル ネットワーク。事前学習済みの AlexNet モデルについては、alexnet を参照してください。

ありありあり
GoogLeNet

GoogLeNet 畳み込みニューラル ネットワーク。事前学習済みの GoogLeNet モデルについては、googlenet を参照してください。

ありありあり
Caffe Network

Caffe からの畳み込みニューラル ネットワーク モデル。Caffe からの事前学習済みのネットワークのインポートについては、importCaffeNetwork を参照してください。

ありありあり
DeepLab v3+

DeepLab v3+ 畳み込みニューラル ネットワーク。詳細については、deeplabv3plusLayers を参照してください。

ありありなし
DenseNet-201

DenseNet-201 畳み込みニューラル ネットワーク。事前学習済みの DenseNet-201 モデルについては、densenet201 を参照してください。

ありありあり
Inception-v3

Inception-v3 畳み込みニューラル ネットワーク。事前学習済みの Inception-v3 モデルについては、inceptionv3 を参照してください。

ありありあり
Mobilenet-v2

MobileNet-v2 畳み込みニューラル ネットワーク。事前学習済みの MobileNet-v2 モデルについては、mobilenetv2 を参照してください。

ありありあり
ResNet

ResNet-18、ResNet-50 および ResNet-101 畳み込みニューラル ネットワーク。事前学習済みの ResNet モデルについては、resnet50resnet18 および resnet101 を参照してください。

ありありあり
SegNet

マルチクラスのピクセル単位セグメンテーション ネットワーク。詳細については、segnetLayers を参照してください。

ありありなし
SqueezeNet

小さい深層ニューラル ネットワーク。事前学習済みの SqueezeNet モデルについては、squeezenet を参照してください。

ありありあり
VGG-16

VGG-16 畳み込みニューラル ネットワーク。事前学習済みの VGG-16 モデルについては、vgg16 を参照してください。

ありありあり
VGG-19

VGG-19 畳み込みニューラル ネットワーク。事前学習済みの VGG-19 モデルについては、vgg19 を参照してください。

ありありあり
Xception

Xception 畳み込みニューラル ネットワーク。事前学習済みの Xception モデルについては、xception を参照してください。

ありありあり
YOLO v2

version 2 の畳み込みニューラル ネットワーク ベースのオブジェクト検出器を 1 回のみ確認します。詳細については、yolov2Layers を参照してください。

ありありあり

サポートされている層

以下の層は、表内で指定されたターゲット深層学習ライブラリについて、GPU Coder によるコード生成でサポートされています。

サポート パッケージ GPU Coder Interface for Deep Learning Libraries をインストールしたら、coder.getDeepLearningLayers を使用して、特定の深層学習ライブラリでサポートされている層の一覧を表示できます。たとえば、coder.getDeepLearningLayers('cudnn') は、NVIDIA® cuDNN ライブラリを使用したコード生成でサポートされる層の一覧を表示します。

層の名前説明cuDNNTensorRTARM Compute Library for Mali GPU
additionLayer

加算層。

ありありあり
averagePooling2dLayer

平均プーリング層。

ありありあり
batchNormalizationLayer

バッチ正規化層。

ありありあり
classificationLayer

分類出力層の作成。

ありありあり
clippedReluLayer

クリップされた正規化線形ユニット (ReLU) 層。

ありありあり
convolution2dLayer

2 次元畳み込み層。

ありありあり
crop2dLayer

2 次元切り取りを入力に適用する層。

ありありなし
crossChannelNormalizationLayer

チャネル単位の局所応答正規化層。

ありありあり
depthConcatenationLayer

深さ連結層。

ありありあり
dicePixelClassificationLayer

セマンティック セグメンテーションの汎用的な Dice 損失を使用するピクセル分類層。

ありありあり
dropoutLayer

ドロップアウト層。

ありありあり
eluLayer

指数線形ユニット (ELU) 層。

ありありなし
fullyConnectedLayer

全結合層。

ありありあり
globalAveragePooling2dLayer

空間データ用のグローバル平均プーリング層。

ありありあり
groupedConvolution2dLayer

2 次元のグループ化された畳み込み層。

ARM Mali GPU のコード生成は、'channel-wise' として設定された NumGroups プロパティまたは 2 を超える値をもつ 2 次元のグループ化された畳み込み層でサポートされません。

ありありあり
imageInputLayer

イメージ入力層。

  1. コード生成では、関数ハンドルを使用して指定される 'Normalization' はサポートされません。

ありありあり
leakyReluLayer

漏洩正規化線形ユニット (ReLU) 層。

ありありあり
lstmLayer

長短期記憶 (LSTM) 層。

  1. コード生成では、StateActivationFunction プロパティを 'tanh' に設定しなければなりません。

  2. コード生成では、GateActivationFunction プロパティを 'sigmoid' に設定しなければなりません。

ありなしなし
maxPooling2dLayer

最大プーリング層。

ありありあり
maxUnpooling2dLayer

最大逆プーリング層。

ありありなし
Output Layer

nnet.layer.ClassificationLayer または nnet.layer.RegressionLayer を使用して作成されたカスタム分類層または回帰出力層などのすべての出力層。

カスタム分類出力層を定義し、損失関数を指定する方法を示す例については、カスタム分類出力層の定義 (Deep Learning Toolbox)を参照してください。

カスタム回帰出力層を定義し、損失関数を指定する方法を示す例については、カスタム回帰出力層の定義 (Deep Learning Toolbox)を参照してください。

ありありあり
PixelClassificationLayer

セマンティック セグメンテーションのピクセル分類層の作成。

ありありあり
regressionLayer

回帰出力層の作成。

ありありあり
reluLayer

正規化線形ユニット (ReLU) 層。

ありありあり
sequenceInputLayer

シーケンス入力層。

  1. コード生成では、ベクトル入力タイプのみがサポートされます。2 次元と 3 次元イメージのシーケンス入力はサポートされません。

  2. コード生成では、関数ハンドルを使用して指定される 'Normalization' はサポートされません。

ありなしなし
softmaxLayer

ソフトマックス層。

ありありあり
tanhLayer

双曲線正接 (tanh) 層。

ありありあり
transposedConv2dLayer

2 次元転置畳み込み層の作成。

コード生成は入力の非対称のトリミングをサポートしません。たとえば、入力の上下左右をトリミングする 'Cropping' パラメーターのベクトル [t b l r] の指定はサポートされていません。

ありありあり
YOLOv2OutputLayer

YOLO v2 オブジェクト検出ネットワークの出力層の作成。

ありありあり
YOLOv2ReorgLayer

YOLO v2 オブジェクト検出ネットワークの再編成層の作成。

ありありあり
YOLOv2TransformLayer

YOLO v2 オブジェクト検出ネットワークの変換層の作成。

ありありあり
nnet.keras.layer.FlattenCStyleLayer

C スタイル (行優先) の順序であると仮定して、アクティベーションを 1 次元にフラット化。

ありありあり
nnet.keras.layer.GlobalAveragePooling2dLayer

空間データ用のグローバル平均プーリング層。

ありありあり
nnet.keras.layer.SigmoidLayer

シグモイド活性化層。

ありありあり
nnet.keras.layer.TanhLayer

双曲線正接活性化層。

ありありあり
nnet.keras.layer.ZeroPadding2dLayer

2 次元入力のゼロ パディング層。

ありありあり
nnet.onnx.layer.ElementwiseAffineLayer

加算の前に入力の要素単位のスケーリングを実行する層。

ありありなし
nnet.onnx.layer.FlattenLayer

入力テンソルの空間次元をチャネル次元へとフラットにします。

ありありあり

サポートされているクラス

以下のクラスは、表内で指定されたターゲット深層学習ライブラリについて、GPU Coder によるコード生成でサポートされています。

層の名前説明cuDNNTensorRTARM Compute Library for Mali GPU
yolov2ObjectDetector

YOLO v2 オブジェクト検出器を使用したオブジェクトの検出

  1. yolov2ObjectDetectordetect メソッドのみがコード生成でサポートされます。

  2. detect メソッドの roi 引数は codegen の定数 (coder.const()) および 1 行 4 列のベクトルでなければなりません。

  3. ThresholdSelectStrongestMinSize および MaxSize の名前と値のペアのみがサポートされます。

  4. ラベル出力は、{'car','bus'} などの文字ベクトルの cell 配列として返されます。

ありありあり

参考

関連するトピック