最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

前提条件となる製品のインストール

CUDA® C/C++ コードの生成に GPU Coder™ を使用するには、次の製品をインストールしなければなりません。

MathWorks 製品

  • MATLAB® (必須)。

  • MATLAB Coder™ (必須)。

  • Parallel Computing Toolbox™ (必須)。

  • Deep Learning Toolbox™ (深層学習に必須)。

  • GPU Coder Interface for Deep Learning Libraries (深層学習に必須)。

  • Image Processing Toolbox™ (推奨)。

  • Computer Vision Toolbox™ (推奨)。

  • Embedded Coder® (推奨)。

  • Simulink® (推奨)。

メモ

MATLAB が 7 ビット ASCII 以外の文字 (日本語など) を含むパスにインストールされている場合、コード生成ライブラリ関数の場所を特定できないため MATLAB Coder は機能しません。

MathWorks® 製品をインストールする手順については、ご使用のプラットフォームの MATLAB インストール ドキュメンテーションを参照してください。MATLAB がインストールされている場合に、ほかにどの MathWorks 製品がインストールされているかをチェックするには、MATLAB コマンド ウィンドウに ver と入力します。

サードパーティ製品

MATLAB からの GPU コード生成

  • Compute Capability 3.2 以上の CUDA 対応 NVIDIA® GPU (利用する GPU がサポートされているか確認)。

  • CUDA ツールキットおよびドライバー。nvcc コンパイラ、cuFFTcuBLAScuSOLVER、Thrust ライブラリおよびその他のツールが含まれる既定のインストール オプションを選択することをお勧めします。GPU Coder は CUDA ツールキット v10.1 を使用してテストされています (CUDA ツールキットを取得)。

  • C/C++ コンパイラ:

    Linux®

    Windows®

    GCC C/C++ コンパイラ 6.3.x

    Microsoft® Visual Studio® 2013

    Microsoft Visual Studio 2015

    Microsoft Visual Studio 2017

    Microsoft Visual Studio 2019

    メモ

    • Windows では、ツール、コンパイラ、ライブラリへのパスにスペースまたは特殊文字が含まれていると、ビルド プロセス中に問題が生じる可能性があります。スペースが含まれない場所にサードパーティー製のソフトウェアをインストールするか、Windows 設定を変更して、ファイル、フォルダー、およびパスの省略名の作成を有効にしなければなりません。詳細については、MATLAB AnswersUsing Windows short names の解決法を参照してください。

    • NVIDIA nvcc コンパイラは、ホスト コンパイラとランタイム ライブラリを含むホスト開発環境との緊密な統合に依存します。コンパイラ、ライブラリ、およびその他のプラットフォーム固有の要件の詳細については、CUDA ツールキットのドキュメンテーションを参照してください。

    • nvcc コンパイラは複数バージョンの GCC をサポートするため、他のバージョンの GCC を使用して CUDA コードを生成できます。ただし、MATLAB インストールに含まれている C/C++ ランタイム ライブラリは GCC 6.3 用にコンパイルされているため、生成コードを MATLAB から実行すると互換性の問題が発生する可能性があります。

    • 生成コードの実行プロファルの解析 ワークフローは NVIDIA からの nvprof ツールによって異なります。CUDA ツールキット v10.1 では、NVIDIA はパフォーマンス カウンターへのアクセスを管理者ユーザーのみに制限します。GPU パフォーマンス カウンターをすべてのユーザーが使用できるようにするには、https://developer.nvidia.com/nvidia-development-tools-solutions-ERR_NVGPUCTRPERM-permission-issue-performance-countersに記載されている手順を参照してください。

    • GPU Coder では、CUDA ツールキット version 8 を使用した CUDA コードの生成はサポートされません。

深層学習ネットワークのコード生成

深層学習ネットワークのコード生成要件は、ターゲットにするプラットフォームに応じて異なります。

 NVIDIA GPUARM® Mali GPU
ハードウェア要件

Compute Capability 3.2 以上の CUDA 対応 GPU。

NVIDIA TensorRT™ ライブラリをターゲットにして INT8 の精度を使用するには、Compute Capability 6.1 以上の CUDA GPU が必要です。

NVIDIA TensorRT ライブラリをターゲットにして FP16 の精度を使用するには、Compute Capability 7.0 以上の CUDA GPU が必要です。

ARM Mali グラフィックス プロセッサ。
ソフトウェア ライブラリ

CUDA Deep Neural Network library (cuDNN) v7 以上。

NVIDIA TensorRT – 高性能な深層学習用推論オプティマイザーおよびランタイム ライブラリ、v5 以上。

コンピューター ビジョンおよび機械学習の ARM Compute Library、v19.02。このライブラリは ARM ターゲット ハードウェアにインストールしなければなりません。

ARM ハードウェアではコンパイラとの互換性がない可能性があるため、プリビルド ライブラリは使用しないでください。代わりに、ソース コードからライブラリをビルドします。ホスト マシン上またはターゲット ハードウェア上で直接ライブラリをビルドします。GitHub® でのライブラリのビルド手順を参照してください。CPU のライブラリのビルドに関する情報は、この投稿 (MATLAB Answers) でも検索できます。

Compute Library のビルド時に、ビルド オプションで OpenCL のサポートを有効にします。手順については、ARM Compute Library のドキュメンテーションを参照してください。

ARM ターゲット ハードウェア上の OpenCL ライブラリ (v1.2 以上)。バージョン要件については、ARM Compute Library のドキュメンテーションを参照してください。

ビルドの完了後、ライブラリが含まれる build フォルダーの名前を lib に変更します。また、build/opencl-1.2-stubs フォルダーにある OpenCL ライブラリを lib フォルダーにコピーします。ターゲット ハードウェアで生成コードをビルドする際に、生成された makefile でライブラリを特定できるようにするには、これらの手順が必要です。

オペレーティング システム サポート

Windows および Linux。

Windows および Linux。

その他

深層学習の例には Open Source Computer Vision Library (OpenCV) v3.1.0 が必須。

メモ: 例には、opencv_core.libopencv_video.lib など、個別のライブラリが必要です。Computer Vision Toolbox に付属する OpenCV ライブラリには、すべての必要なライブラリがありません。また、OpenCV インストーラーでもこれらはインストールされません。そのため、OpenCV ソースをダウンロードしてライブラリをビルドする必要があります。

詳細は、OpenCV ドキュメンテーションを参照してください。

深層学習の例にはターゲット ハードウェアで Open Source Computer Vision Library (OpenCV) v2.4.9 が必要です。

参考

| | | |

関連するトピック