ディープラーニング

機械学習およびディープラーニング モデルをシミュレーション、テストし、エッジデバイスおよび組み込みシステムに展開します。前処理や後処理のアルゴリズムを含む、完全な AI アプリケーションのコードを生成します。

MATLAB® および Simulink® を使用することで、以下を行うことができます。

  • CPU および GPU への展開用に最適化された C/C++ および CUDA コードを生成する
  • FPGA および SoC への展開用の論理合成可能な Verilog および VHDL コードを生成する
  • oneDNN、Arm Compute Library、TensorRT などのハードウェア用に最適化されたディープラーニング ライブラリを使用して推論を高速化する
  • ハードウェアに展開されたアプリケーションに事前学習済みの TensorFlow Lite (TFLite) モデルを組み入れる
  • ハイパーパラメーター調整、量子化、ネットワークの枝刈り用のツールを使用して、リソースに制約のあるハードウェアでの推論用に AI モデルを圧縮する

「データの注釈付けからディープラーニング モデルの選択、学習、テスト、微調整に至るまで、MATLAB には当社が必要とするすべてのツールが用意されていました。また、GPU の使用経験は限られていましたが、GPU Coder を使用することで NVIDIA GPU にすばやく展開できました。」

C/C++ コードが組み込みハードウェアの画像に展開されているスクリーンショット。

CPU およびマイクロコントローラー

MATLAB Coder™ および Simulink Coder™ を使用して、学習済みの機械学習およびディープラーニング モデルから移植可能な最適化された C/C++ コードを生成します。必要に応じて、oneDNN や Arm® Compute Library など、生成されたコードでのディープラーニング推論用に最適化されたベンダー固有のライブラリの呼び出しを含めることができます。

Simulink による C/C++ コードが NVIDIA デスクトップおよび組み込み GPU の画像に展開されているスクリーンショット。

GPU

GPU Coder™ を使用して、学習済みのディープラーニング ネットワーク用に最適化された CUDA® コードを生成します。ネットワークとともに前処理と後処理を含め、完全なアルゴリズムをデスクトップ、サーバー、および組み込み GPU に展開します。TensorRT™ や cuDNN などの NVIDIA® CUDA ライブラリを使用して、パフォーマンスを最大化します。

プロトタイプ ハードウェア上で MATLAB から FPGA ベースのディープラーニングの推論を実行して、FPGA または ASIC への展開用のディープラーニング HDL IP コアを生成します。

FPGA および SoC

Deep Learning HDL Toolbox™ を使用して、FPGA や SoC 上でディープラーニング ネットワークをプロトタイピングおよび実装します。普及している FPGA 開発キット用の事前構築済みのビットストリームを使用して、ディープラーニング プロセッサおよびデータ移動 IP コアをプログラミングします。HDL Coder™ を使用して、ディープラーニング プロセッサのカスタムの IP コアおよびビットストリームを生成します。

組み込み展開用に AI モデルを最適化するための層グラフ、キャリブレーション統計、検証結果のスクリーンショット。

AI モデルの圧縮

ハイパーパラメーター調整と、ウェイト、バイアス、アクティベーションの量子化を使用して、機械学習およびディープラーニング モデルに必要なメモリ使用量を低減させます。重要度の低い層の結合を枝刈りすることで、ディープ ニューラル ネットワークのサイズを最小化します。