ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

並列およびクラウドでの深層学習

ローカルまたはクラウドでの複数の GPU を使用した深層学習のスケールアップ、対話形式またはバッチ ジョブによる複数のネットワークの学習

Parallel Computing Toolbox™ を使用して、複数の GPU、クラスター、およびクラウドで深いネットワークに学習させます。ローカルまたはクラスターで複数の GPU を使用して深層学習をスケールアップし、対話形式またはバッチ ジョブで複数のネットワークに学習させます。オプションについては、並列およびクラウドでの深層学習のスケールアップを参照してください。

トピック

GPU および並列でのビッグ データを使用した深層学習

CPU、GPU、クラスター、およびクラウドでネットワークに学習させ、ハードウェアに合わせてオプションを調整します。

並列およびクラウドでの深層学習のスケールアップ

ローカルまたはクラウドで複数の GPU を使用する、MATLAB での深層学習のオプション。

MATLAB による複数の GPU での深層学習

ローカルまたはクラウドで学習に使用する複数の GPU を指定します。

parfor を使用した複数の深層学習ネットワークの学習

この例では、parfor ループを使用して、学習オプションについてのパラメーター スイープを実行する方法を説明します。

parfeval を使用した複数の深層学習ネットワークの学習

この例では、ネットワーク アーキテクチャの深さについてのパラメーター スイープに parfeval を使用する方法を説明します。

クラウドへの深層学習データのアップロード

この例では、データを Amazon S3 バケットにアップロードする方法を説明します。

深層学習バッチ ジョブのクラスターへの送信

この例では、学習中に作業を継続したり MATLAB を閉じたりできるように、深層学習における学習のバッチ ジョブをクラスターに送信する方法を説明します。

注目の例

parfeval を使用した複数の深層学習ネットワークの学習

parfeval を使用した複数の深層学習ネットワークの学習

この例では、ネットワーク アーキテクチャの深さについてのパラメーター スイープに parfeval を使用する方法を説明します。多くの場合、深層学習における学習には数時間または数日かかるため、適切なアーキテクチャを見つけるのが難しい場合があります。並列計算を使用して、適切なモデルの探索を高速化および自動化することができます。複数の GPU があるマシンにアクセスできる場合は、ローカルの parpool を使用してデータセットのローカル コピーに対してこのスクリプトを実行できます。より多くのリソースを使用する必要がある場合は、深層学習における学習をクラウドにスケールアップできます。この例では、parfeval を使用して、クラウドのクラスターにおけるネットワーク アーキテクチャの深さについてのパラメーター スイープを実行する方法を説明します。parfeval を使用すると、MATLAB をブロックすることなくバックグラウンドで学習を実行でき、結果が十分適切な場合に早期の停止を選択できます。このスクリプトを変更して、他のパラメーターについてのパラメーター スイープを実行できます。また、この例では、DataQueue を使用して計算中にワーカーからフィードバックを取得する方法も説明します。