Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

量子化と枝刈り

量子化または枝刈りの実行による深層ニューラル ネットワークの圧縮

Deep Learning Toolbox™ を Deep Learning Toolbox Model Quantization Library サポート パッケージと共に使用し、以下を行うことで、深層ニューラル ネットワークのメモリ フットプリントの削減と計算要件の緩和を行います。

  • 層の重み、バイアス、および活性化を、低い精度にスケーリングされた整数データ型に量子化します。その後、この量子化ネットワークから、C/C++ コード、CUDA® コード、または HDL コードを生成できます。

  • 1 次テイラー近似を使用して畳み込み層からフィルターを枝刈りします。その後、この枝刈りされたネットワークから、C/C++ コードまたは CUDA コードを生成できます。

関数

すべて展開する

dlquantizerQuantize a deep neural network to 8-bit scaled integer data types
dlquantizationOptionsOptions for quantizing a trained deep neural network
calibrate深層ニューラル ネットワークのシミュレーションと範囲の収集
validateQuantize and validate a deep neural network
quantizeQuantize deep neural network
estimateNetworkMetricsEstimate network metrics for specific layers of a neural network
quantizationDetailsDisplay quantization details for a neural network
taylorPrunableNetworkNetwork that can be pruned by using first-order Taylor approximation
forward学習用の深層学習ネットワーク出力の計算
predictCompute deep learning network output for inference
updatePrunablesRemove filters from prunable layers based on importance scores
updateScoreCompute and accumulate Taylor-based importance scores for pruning
dlnetworkカスタム学習ループ向けの深層学習ネットワーク

アプリ

ディープ ネットワーク量子化器Quantize a deep neural network to 8-bit scaled integer data types

トピック

深層学習の量子化

GPU ターゲットの量子化

FPGA ターゲットの量子化

  • Deploy INT8 Network to FPGA (Deep Learning HDL Toolbox)
    Reduce the memory footprint of a deep neural network by quantizing the weights, biases, and activations of convolution layers to 8-bit scaled integer data types. This example shows how to use Deep Learning Toolbox Model Quantization Library and Deep Learning HDL Toolbox to deploy the int8 network to a target FPGA board.
  • Classify Images on an FPGA Using a Quantized DAG Network (Deep Learning HDL Toolbox)
    In this example, you use Deep Learning HDL Toolbox™ to deploy a quantized deep convolutional neural network and classify an image. The example uses the pretrained ResNet-18 convolutional neural network to demonstrate transfer learning, quantization, and deployment for the quantized network. Use MATLAB ® to retrieve the prediction results.
  • Classify Images on FPGA by Using Quantized GoogLeNet Network (Deep Learning HDL Toolbox)
    This example show how to use the Deep Learning HDL Toolbox™ to deploy a quantized GoogleNet network to classify an image. The example uses the pretrained GoogLeNet network to demonstrate transfer learning, quantization, and deployment for the quantized network. Quantization helps reduce the memory requirement of a deep neural network by quantizing weights, biases and activations of network layers to 8-bit scaled integer data types. Use MATLAB® to retrieve the prediction results.

CPU ターゲットの量子化

枝刈り