メインコンテンツ

量子化

ネットワーク パラメーターを低い精度のデータ型に量子化し、固定小数点コード生成用に深層学習ネットワークを準備する

層の重み、バイアス、および活性化を、低い精度にスケーリングされた整数データ型に量子化します。その後、この量子化ネットワークから、GPU、FPGA、または CPU 展開用の C/C++ コード、CUDA® コード、または HDL コードを生成できます。

Deep Learning Toolbox™ Model Compression Library で利用可能な圧縮手法の詳細な概要については、Reduce Memory Footprint of Deep Neural Networksを参照してください。

Simplified illustration of quantization. On the left is a sketch of a neural network consisting of three layers with two, three, and one neuron, respectively. Each neuron in every layer is connected to all neurons in neighboring layers. An arrow points to a second sketch on the right, which shows the same network with the weights indicated by dotted lines instead of full lines, which indicates that the weights are stored with smaller precision.

関数

dlquantizer深層ニューラル ネットワークを 8 ビットにスケーリングされた整数データ型に量子化する
dlquantizationOptionsOptions for quantizing a trained deep neural network
prepareNetworkPrepare deep neural network for quantization (R2024b 以降)
calibrate深層ニューラル ネットワークのシミュレーションと範囲の収集
quantizeQuantize deep neural network (R2022a 以降)
validateQuantize and validate a deep neural network
quantizationDetailsニューラル ネットワークの量子化詳細の表示 (R2022a 以降)
estimateNetworkMetricsEstimate network metrics for specific layers of a neural network (R2022a 以降)
equalizeLayersEqualize layer parameters of deep neural network (R2022b 以降)
exportNetworkToSimulinkGenerate Simulink model that contains deep learning layer blocks and subsystems that correspond to deep learning layer objects (R2024b 以降)

アプリ

ディープ ネットワーク量子化器Quantize deep neural network to 8-bit scaled integer data types

トピック

量子化について

展開前ワークフロー

展開

考慮事項

注目の例