ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

前提条件となる製品の設定

環境変数

GPU Coder™ は、環境変数を使用してコード生成に必要なツール、コンパイラ、およびライブラリの場所を特定します。必要なサードパーティ製品が標準以外の方法でインストールされている場合、次の環境変数が設定されていることを確認します。

プラットフォーム変数名説明
Windows® CUDA_PATH

CUDA® ツールキット インストールへのパス。

次に例を示します。

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\

NVIDIA_CUDNN

cuDNN インストールのルート フォルダーへのパス。ルート フォルダーには、bin、include、および lib サブフォルダーが含まれます。

次に例を示します。

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\cuDNN\

OPENCV_DIR

OpenCV のビルド フォルダーへのパス。深層学習の例をビルドするにはこの変数が必要です。

次に例を示します。

C:\Program Files\opencv\build

PATH

CUDA 実行可能ファイルへのパス。通常、CUDA ツールキット インストーラーによりこの値は自動的に設定されます。

次に例を示します。

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\bin

cudnn.dll ダイナミック ライブラリへのパス。このライブラリ名はご使用のシステムでは異なる可能性があります。

次に例を示します。

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\cuDNN\bin

OpenCV のダイナミック リンク ライブラリ (DLL) へのパス。深層学習の例を実行するにはこの変数が必要です。

次に例を示します。

C:\Program Files\opencv\build\x64\vc15\bin

Linux® PATH

CUDA ツールキット実行可能ファイルへのパス。

次に例を示します。

/usr/local/cuda-10.0/bin

OpenCV ライブラリへのパス。深層学習の例をビルドおよび実行するにはこの変数が必要です。

次に例を示します。

/usr/local/lib/

OpenCV ヘッダー ファイルへのパス。深層学習の例をビルドするにはこの変数が必要です。

次に例を示します。

/usr/local/include/opencv

LD_LIBRARY_PATH

CUDA ライブラリ フォルダーへのパス。

次に例を示します。

/usr/local/cuda-10.0/lib64

cuDNN ライブラリ フォルダーへのパス。

次に例を示します。

/usr/local/cuDNN/lib64/

TensorRT™ ライブラリ フォルダーへのパス。

次に例を示します。

/usr/local/TensorRT/lib/

NVIDIA_CUDNN

cuDNN ライブラリ インストールのルート フォルダーへのパス。

次に例を示します。

/usr/local/cuDNN/

NVIDIA_TENSORRT

TensorRT ライブラリ インストールのルート フォルダーへのパス。

次に例を示します。

/usr/local/TensorRT/

LINARO_TOOLCHAIN_4_9 or LINARO_TOOLCHAIN_4_8

Linaro インストールのルート フォルダーへのパス。

次に例を示します。

/usr/local/gcc-linaro

NVIDIA_CUDA_TX2 or NVIDIA_CUDA_TX1 or NVIDIA_CUDA_TK1

ARM® 用 CUDA ツールキットのルート フォルダーへのパス。NVIDIA® GPU ボードをターゲットにするにはこの変数が必要です。

次に例を示します。

/usr/local/cuda-6.5-armhf/

MEX の設定

Windows システム

C/C++ 言語用に複数バージョンの Microsoft® Visual Studio® コンパイラを Windows システムにインストールしている場合、MATLAB® によって 1 つが既定のコンパイラとして選択されます。選択されたコンパイラに GPU Coder でサポートされているバージョンとの互換性がない場合は、選択を変更してください。サポートされている Microsoft Visual Studio のバージョンについては、前提条件となる製品のインストールを参照してください。

既定のコンパイラを変更するには、mex -setup コマンドを使用します。mex -setup を呼び出すと、MATLAB に別のコンパイラを設定するためのリンクを含むメッセージが表示されます。リンクを選択し、MEX ファイルをビルドするための既定のコンパイラを変更します。選択したコンパイラは、mex -setup を呼び出して別の既定のコンパイラを選択するまで既定が維持されます。詳細については、既定のコンパイラの変更 (MATLAB)を参照してください。mex -setup コマンドでは C 言語コンパイラのみが変更されます。mex -setup C++ を使用して C++ の既定のコンパイラも変更しなければなりません。

Linux プラットフォーム

Linux プラットフォームでは、MATLAB および CUDA ツールキットは C 言語の GCC コンパイラのみをサポートします。サポートされている GCC のバージョンについては、前提条件となる製品のインストールを参照してください。

設定の検証

開発用コンピューターに、GPU コード生成に必要なすべてのツールと構成があることを検証するには、関数 coder.checkGpuInstall を使用します。既定では、この関数は CUDA ツールキット (CUDA ランタイム、cuFFT、cuSolver、および cuBLAS ライブラリを含む) の有無をチェックし、簡単な例の GPU MEX コードを生成します。次に、互換性のある GPU をチェックした後、生成された MEX の数値を検証し、cuDNN ライブラリの有無をチェックします。

また、NVIDIA Tegra® ベースの Jetson TX2、TX1、および TK1 ボードをターゲットにするためと、TensorRT ライブラリを使用して深層学習アプリケーションを開発するために必要とされる、すべてのサードパーティ製ツールが開発用コンピューターにあることを検証するチェックも実行できます。すべての利用可能なチェックを実行するには、'full' オプションを使用します。

MATLAB コマンド ウィンドウに、次のように入力します。

coder.checkGpuInstall('full')

以下に示す出力は代表的なものです。実際の結果は異なる可能性があります。

Host CUDA Environment    : PASSED 
	Runtime   : Passed 
	cuFFT     : Passed 
	cuSOLVER  : Passed 
	cuBLAS    : Passed 
Code Generation          : PASSED 
Compatible GPU           : PASSED 
Code Execution           : PASSED 
cuDNN Environment        : PASSED 
TensorRT Environment     : PASSED 
TensorRT Code Generation for Mex Target: PASSED 
TensorRT Mex Code Execution: PASSED 
Jetson TK1 Environment   : PASSED
Jetson TX1 Environment   : PASSED
Jetson TX2 Environment   : PASSED

results = 

  struct with fields:

        host: 1
         tk1: 1
         tx1: 1
         tx2: 1
         gpu: 1
     codegen: 1
    codeexec: 1
       cudnn: 1
    tensorrt: 1