Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

量子化

層の重み、バイアス、および活性化を、低い精度にスケーリングされた整数データ型に量子化する

Deep Learning Toolbox™ を Deep Learning Toolbox Model Quantization Library サポート パッケージと共に使用し、層の重み、バイアス、および活性化を、低い精度にスケーリングされた整数データ型に量子化することによって、深層ニューラル ネットワークのメモリ フットプリントの削減と計算要件の緩和を行います。その後、量子化されたこれらのネットワークから、C/C++ コード、CUDA® コード、または HDL コードを生成できます。

関数

dlquantizerQuantize a deep neural network to 8-bit scaled integer data types
dlquantizationOptionsOptions for quantizing a trained deep neural network
calibrate深層ニューラル ネットワークのシミュレーションと範囲の収集
validateQuantize and validate a deep neural network

アプリ

ディープ ネットワーク量子化器Quantize a deep neural network to 8-bit scaled integer data types

トピック

深層学習の量子化

GPU ターゲットの量子化

FPGA ターゲットの量子化

  • Quantize Network for FPGA Deployment (Deep Learning HDL Toolbox)
    This example shows how to quantize learnable parameters in the convolution layers of a neural network, and validate the quantized network. Rapidly prototype the quantized network by using MATLAB simulation or an FPGA to validate the quantized network. In this example, you quantize the LogoNet neural network.
  • Classify Images on an FPGA Using a Quantized DAG Network (Deep Learning HDL Toolbox)
    In this example, you use Deep Learning HDL Toolbox™ to deploy a quantized deep convolutional neural network and classify an image. The example uses the pretrained ResNet-18 convolutional neural network to demonstrate transfer learning, quantization, and deployment for the quantized network. Use MATLAB ® to retrieve the prediction results.
  • Classify Images on FPGA by Using Quantized GoogLeNet Network (Deep Learning HDL Toolbox)
    This example show how to use the Deep Learning HDL Toolbox™ to deploy a quantized GoogleNet network to classify an image. The example uses the pretrained GoogLeNet network to demonstrate transfer learning, quantization, and deployment for the quantized network. Quantization helps reduce the memory requirement of a deep neural network by quantizing weights, biases and activations of network layers to 8-bit scaled integer data types. Use MATLAB® to retrieve the prediction results.

CPU ターゲットの量子化