最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

Check GPU Install アプリ

Check GPU Install アプリは、開発用コンピューター上と、NVIDIA® DRIVE や Jetson などのハードウェア プラットフォーム上の GPU コード生成環境を検証および設定するための対話型ツールです。アプリを起動するには、MATLAB® コマンド ウィンドウで「coder.checkGpuInstallApp」と入力します。次のことが可能です。

  • GPU コード生成に必要なすべての NVIDIA コンパイラおよびライブラリについて、開発用コンピューターの環境を検証します。

  • 開発用コンピューターで基本的なコード生成と実行テストを実行します。このテストでは、MATLAB シミュレーションと結果を比較することでコード実行を検証します。

  • 開発用コンピューターで深層学習のコード生成と実行テストを実行します。cuDNN または TensorRT ライブラリをターゲットにすることができます。

  • DRIVE や Jetson などの NVIDIA ボードに接続し、コード生成と実行テストを実行します。GPU Coder™ Support Package for NVIDIA GPUs が必要です。

  • ライブラリの場所を指定し、GPU Coder で必要な環境変数を設定する MATLAB スクリプトを生成します。

メモ

coder.checkGpuInstallApp は現在のフォルダーにレポート ファイルを生成します。現在のフォルダーの書き込み権限がない場合は、アプリを実行する前に MATLAB cd コマンドを使用してフォルダーを変更します。

ハードウェア設定

アプリの [Check/Setup] パネルには、ホスト開発コンピューターまたは NVIDIA DRIVE や Jetson などのハードウェア プラットフォームで GPU デバイスを選択できるドロップダウン リストが提供されます。

ハードウェアの選択説明

Host (for MEX)

ホスト開発コンピューターでコード生成、コード実行、および環境のチェックを実行します。アプリによりテストを実行する CUDA® MEX が生成されます。

開発コンピューターに複数の GPU デバイスがある場合、[Select GPU] ドロップダウン リストを使用して該当する GPU デバイスを選択します。

Drive

NVIDIA DRIVE ターゲット プラットフォームでコード生成とコード実行のチェックを実行します。

GPU Coder Support Package for NVIDIA GPUs のインストール後、[Board Settings] パネルを使用してターゲットの接続パラメーターを指定します。

Jetson

NVIDIA Jetson ターゲット プラットフォームでコード生成とコード実行のチェックを実行します。

GPU Coder Support Package for NVIDIA GPUs のインストール後、[Board Settings] パネルを使用してターゲットの接続パラメーターを指定します。

[Select GPU] ドロップダウン リストでは複数の GPU デバイスから選択できます。複数のデバイスがある場合、最初のデバイスが既定です。このオプションは、[Select Hardware] オプションが [Host (for MEX)] に設定されている場合にのみ表示されます。DRIVE と Jetson ハードウェアに複数の GPU がある場合は、[Board Settings] パネルで選択できる [GPU Device ID] オプションを使用して

特定の GPU デバイスを選択します。

ボード設定

NVIDIA DRIVE や Jetson などのハードウェア プラットフォームの接続パラメーターを指定します。アプリは GPU Coder Support Package for NVIDIA GPUs の関数 jetson または関数 drive を使用して、ライブ ハードウェア接続オブジェクトを作成します。サポート パッケージ ソフトウェアは、生成された CUDA コードを DRIVE プラットフォームまたは Jetson プラットフォームでビルドして実行している間、TCP/IP 経由の SSH 接続を使用してコマンドを実行します。ターゲット プラットフォームはホスト コンピューターと同じネットワーク上になければなりません。または、イーサネット クロス ケーブルを使用してボードを直接ホスト コンピューターと接続できます。NVIDIA ボードの要件、設定、構成手順の詳細については、Install and Setup Prerequisites for NVIDIA Boards (GPU Coder Support Package for NVIDIA GPUs)を参照してください。

メニュー項目説明

Device Address

ハードウェアの IP アドレスまたはホスト名。たとえば、169.254.0.2gpucoder-tegratx2-1 のようにします。

ホスト名を使用する場合、Ethernet ケーブルをボードの Ethernet 端子に接続しなければなりません。次に、Linux コマンドを使用してハードウェア IP アドレスを設定し、ホスト名をその IP アドレスに関連付けます。

Username

ボードのオペレーティング システムに対して有効な Linux® ユーザー名。

Password

指定した Linux ユーザー名に対して有効なパスワード。

GPU Device ID

NVIDIA Drive プラットフォームなどのマルチ GPU 環境で、ターゲットにする CUDA GPU デバイスを指定します。

ワークフロー チェック

アプリを使用して実行できるワークフロー チェックには次の 2 種類があります。

開発用コンピューターでの基本的なコード生成と実行テスト。これらのテストでは、MATLAB シミュレーションと結果を比較することでコード実行を検証します。

メニュー項目説明

Generate Code

基本的なコード生成とビルドをテストします。このテストでは、指定したハードウェアで有効な CUDA コード生成環境が必要です。

Generate Code and Execute

[Specified Hardware] のデバイスで基本的なコード生成、ビルドおよび実行をテストします。このテストでは、指定したハードウェアで有効な CUDA コード生成環境および GPU デバイスが必要です。

SIL Profiling

ホスト コンピューターで基本的な SIL プロファイリング テストを実行します。

開発用コンピューターでの深層学習のコード生成と実行テスト。cuDNN または TensorRT ライブラリをターゲットにすることができます。

メニュー項目説明

Generate Code

深層学習のコード生成とビルドをテストします。このテストでは、指定したハードウェアで有効な CUDA コード生成環境が必要です。

Generate Code and Execute

[Specified Hardware] のデバイスで深層学習のコード生成、ビルドおよび実行をテストします。このテストでは、指定したハードウェアで有効な CUDA コード生成環境および GPU デバイスが必要です。

Target

コードを生成する深層学習ライブラリを指定します。有効なオプションは [cuDNN] または [TensorRT] です。

Data Type Check

ネットワークへのテンソル データ型入力の精度または層のテンソル出力の精度を指定します。32 ビット浮動小数点の推論を実行するには、'FP32' を使用します。半精度には、'FP16' を使用します。8 ビット整数には、'INT8' を使用します。既定値は 'FP32' です。

INT8 の精度には、Compute Capability 6.1 以上の CUDA GPU が必要です。FP16 の精度には、Compute Capability 7.0 以上の CUDA GPU が必要です。

環境のチェック

ホスト コンピューター上で CUDA 開発環境をチェックするライブラリの場所を指定します。GPU Coder で必要な環境変数を設定する MATLAB スクリプト gpuEnvSettings.m を生成します。詳細については、前提条件となる製品の設定を参照してください。

メニュー項目説明

CUDA Installation Path

CUDA ツールキット インストールへのパス。

次に例を示します。

/usr/local/cuda-10.1/bin

cuDNN

cuDNN ライブラリ インストールのルート フォルダーへのパス。

次に例を示します。

/usr/local/cuDNN/

TensorRT

TensorRT™ ライブラリ インストールのルート フォルダーへのパス。

次に例を示します。

/usr/local/TensorRT/

NVTX Library Path

プロファイリングに必要な nvtx ライブラリへのパス。この項目を有効にするには、[SIL Profiling] を選択します。CUDA ツールキットの標準インストールの場合、このパスは通常 CUDA ライブラリ フォルダーです。

次に例を示します。

/usr/local/cuda-10.1/lib64

checkGpuInstallApp レポート

[Run Checks] を選択すると、coder.checkGpuInstallApp により、環境、コード生成、および選択した設定に基づいたその他のチェックが実行されます。その後、テストがパスしたかどうかを示す checkGpuInstallReport レポートが生成され、失敗したテストの追加情報が提供されます。レポートの HTML バージョンが同じ名前で現在のフォルダーに作成されます。

参考

| | | |

関連するトピック