複数のGPUを用いたDeep Learning メモリ不足の回避方法

1 回表示 (過去 30 日間)
Takafumi Shiino
Takafumi Shiino 2020 年 9 月 25 日
回答済み: Kenta 2020 年 9 月 25 日
深層学習を使用した脳腫瘍の 3 次元セグメンテーション をmatlab2020bで動作確認しております。
GPUを2つ積んでいるのでtrainingOptionsの'ExecutionEnvironment'を'multi-gpu'変更しプログラムを動作させると、メモリ不足でエラーがでます。'MiniBatchSize'を8から2に変更すると動作しますが警告文でメモリ不足で動作が遅くなる可能性があるとでます。
'MiniBatchSize'の変更以外にこの問題を解消する方法はありますか?
環境
os:Windows10pro
メモリ:64GB
プロセッサ:Core i9
GPU:GeForce RTX 2070 SUPER
NVIDIAドライバー:バージョン11

採用された回答

Kenta
Kenta 2020 年 9 月 25 日
こんにちは、patchSize = [132 132 132];のところのパッチサイズを小さくすることがあげられます。また、Unetの層の深さを変えることでもメモリの消費を抑えられます。十分にシンプルな課題であれば層を浅くすると計算時間の短縮や過学習の抑制(場合による)も期待できます。

その他の回答 (0 件)

カテゴリ

Help Center および File ExchangeDeep Learning Toolbox についてさらに検索

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!