機械学習およびディープラーニング モデルをシミュレーション、テストし、エッジデバイスおよび組み込みシステムに展開します。前処理や後処理のアルゴリズムを含む、完全な AI アプリケーションのコードを生成します。
MATLAB® および Simulink® を使用することで、以下を行うことができます。
- CPU および GPU への展開用に最適化された C/C++ および CUDA コードを生成する
- FPGA および SoC への展開用の論理合成可能な Verilog および VHDL コードを生成する
- oneDNN、Arm Compute Library、TensorRT などのハードウェア用に最適化されたディープラーニング ライブラリを使用して推論を高速化する
- ハードウェアに展開されたアプリケーションに事前学習済みの TensorFlow Lite (TFLite) モデルを組み入れる
- ハイパーパラメーター調整、量子化、ネットワークの枝刈り用のツールを使用して、リソースに制約のあるハードウェアでの推論用に AI モデルを圧縮する
「データの注釈付けからディープラーニング モデルの選択、学習、テスト、微調整に至るまで、MATLAB には当社が必要とするすべてのツールが用意されていました。また、GPU の使用経験は限られていましたが、GPU Coder を使用することで NVIDIA GPU にすばやく展開できました。」
Valerio Imbriolo, Drass Group
![STMicroelectronics Discovery Kit C/C++ コードが組み込みハードウェアの画像に展開されているスクリーンショット。](https://jp.mathworks.com/solutions/deep-learning/edge-ai/_jcr_content/mainParsys/band_copy_copy/mainParsys/columns_copy/507537ca-afa8-41c5-806f-bbdd06667040/image_copy_copy.adapt.full.medium.jpg/1719298017951.jpg)
CPU およびマイクロコントローラー
MATLAB Coder™ および Simulink Coder™ を使用して、学習済みの機械学習およびディープラーニング モデルから移植可能な最適化された C/C++ コードを生成します。必要に応じて、oneDNN や Arm® Compute Library など、生成されたコードでのディープラーニング推論用に最適化されたベンダー固有のライブラリの呼び出しを含めることができます。
![GPU Coder アプリ Simulink による C/C++ コードが NVIDIA デスクトップおよび組み込み GPU の画像に展開されているスクリーンショット。](https://jp.mathworks.com/solutions/deep-learning/edge-ai/_jcr_content/mainParsys/band_copy_copy/mainParsys/columns_copy/b827a46e-7d00-424f-81d8-b611fc9edab9/image_copy.adapt.full.medium.jpg/1719298018025.jpg)
GPU
GPU Coder™ を使用して、学習済みのディープラーニング ネットワーク用に最適化された CUDA® コードを生成します。ネットワークとともに前処理と後処理を含め、完全なアルゴリズムをデスクトップ、サーバー、および組み込み GPU に展開します。TensorRT™ や cuDNN などの NVIDIA® CUDA ライブラリを使用して、パフォーマンスを最大化します。
![FPGA および SoC 用のディープラーニング HDL IP コアのプロトタイピングと展開 プロトタイプ ハードウェア上で MATLAB から FPGA ベースのディープラーニングの推論を実行して、FPGA または ASIC への展開用のディープラーニング HDL IP コアを生成します。](https://jp.mathworks.com/solutions/deep-learning/edge-ai/_jcr_content/mainParsys/band_copy_copy/mainParsys/columns_copy_copy/507537ca-afa8-41c5-806f-bbdd06667040/image_copy_copy.adapt.full.medium.jpg/1719298018131.jpg)
FPGA および SoC
Deep Learning HDL Toolbox™ を使用して、FPGA や SoC 上でディープラーニング ネットワークをプロトタイピングおよび実装します。普及している FPGA 開発キット用の事前構築済みのビットストリームを使用して、ディープラーニング プロセッサおよびデータ移動 IP コアをプログラミングします。HDL Coder™ を使用して、ディープラーニング プロセッサのカスタムの IP コアおよびビットストリームを生成します。
![Deep Network Quantizer アプリ 組み込み展開用に AI モデルを最適化するための層グラフ、キャリブレーション統計、検証結果のスクリーンショット。](https://jp.mathworks.com/solutions/deep-learning/edge-ai/_jcr_content/mainParsys/band_copy_copy/mainParsys/columns_copy_copy/b827a46e-7d00-424f-81d8-b611fc9edab9/image_copy_copy_copy.adapt.full.medium.jpg/1719298018204.jpg)
AI モデルの圧縮
ハイパーパラメーター調整と、ウェイト、バイアス、アクティベーションの量子化を使用して、機械学習およびディープラーニング モデルに必要なメモリ使用量を低減させます。重要度の低い層の結合を枝刈りすることで、ディープ ニューラル ネットワークのサイズを最小化します。