機械学習およびディープラーニング モデルをシミュレーション、テストし、エッジデバイスおよび組み込みシステムに展開します。前処理や後処理のアルゴリズムを含む、完全な AI アプリケーションのコードを生成します。
MATLAB® および Simulink® を使用することで、以下を行うことができます。
- CPU および GPU への展開用に最適化された C/C++ および CUDA コードを生成する
- FPGA および SoC への展開用の論理合成可能な Verilog および VHDL コードを生成する
- oneDNN、Arm Compute Library、TensorRT などのハードウェア用に最適化されたディープラーニング ライブラリを使用して推論を高速化する
- ハードウェアに展開されたアプリケーションに事前学習済みの TensorFlow Lite (TFLite) モデルを組み入れる
- ハイパーパラメーター調整、量子化、ネットワークの枝刈り用のツールを使用して、リソースに制約のあるハードウェアでの推論用に AI モデルを圧縮する
CPU およびマイクロコントローラー
MATLAB Coder™ および Simulink Coder™ を使用して、学習済みの機械学習およびディープラーニング モデルから移植可能な最適化された C/C++ コードを生成します。必要に応じて、oneDNN や Arm® Compute Library など、生成されたコードでのディープラーニング推論用に最適化されたベンダー固有のライブラリの呼び出しを含めることができます。
GPU
GPU Coder™ を使用して、学習済みのディープラーニング ネットワーク用に最適化された CUDA® コードを生成します。ネットワークとともに前処理と後処理を含め、完全なアルゴリズムをデスクトップ、サーバー、および組み込み GPU に展開します。TensorRT™ や cuDNN などの NVIDIA® CUDA ライブラリを使用して、パフォーマンスを最大化します。
FPGA および SoC
Deep Learning HDL Toolbox™ を使用して、FPGA や SoC 上でディープラーニング ネットワークをプロトタイピングおよび実装します。普及している FPGA 開発キット用の事前構築済みのビットストリームを使用して、ディープラーニング プロセッサおよびデータ移動 IP コアをプログラミングします。HDL Coder™ を使用して、ディープラーニング プロセッサのカスタムの IP コアおよびビットストリームを生成します。
AI モデルの圧縮
ハイパーパラメーター調整と、ウェイト、バイアス、アクティベーションの量子化を使用して、機械学習およびディープラーニング モデルに必要なメモリ使用量を低減させます。重要度の低い層の結合を枝刈りすることで、ディープ ニューラル ネットワークのサイズを最小化します。