最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。
Deep Learning Toolbox™ には、アルゴリズム、事前学習済みのモデル、およびアプリを使用した深い (深層) ニューラル ネットワークの設計と実装用のフレームワークが用意されています。畳み込みニューラル ネットワーク (ConvNet、CNN) および長短期記憶 (LSTM) ネットワークを使用して、イメージ、時系列、およびテキスト データの分類と回帰を実行できます。アプリやプロットは、活性化の可視化、ネットワーク アーキテクチャの編集、学習の進行状況の監視に役立ちます。
小規模な学習セットについては、事前学習済みの深いネットワーク モデル (SqueezeNet、Inception-v3、ResNet-101、GoogLeNet、VGG-19 など) や、TensorFlow™ -Keras や Caffe からインポートしたモデルによる転移学習を実行できます。
大規模データセットの学習を加速させるために、(Parallel Computing Toolbox™ による) 計算やデータの、デスクトップのマルチコア プロセッサや GPU への分散や、(MATLAB® Parallel Server™ による) Amazon EC2® P2、P3、G3 GPU インスタンスなどのクラスターやクラウドへのスケール アップも可能です。
畳み込みニューラル ネットワーク (CNN)、長短期記憶 (LSTM)、および有向非循環グラフ (DAG) ネットワーク トポロジ
事前学習済みのモデルや、TensorFlow -Keras や Caffe からインポートしたモデルを使用した転移学習
ONNX™ モデルのインポートとエクスポートによる他の深層学習フレームワークとの相互運用
ネットワーク アーキテクチャのグラフィカルな設計と解析用のアプリ
デスクトップ、クラスター、およびクラウド (Amazon EC2 P2、P3、G3 GPU インスタンスを含む) 上の CPU および GPU を使用した学習および推論
自己組織化マップや競合層を含む、浅いネットワーク用の教師なし学習アルゴリズム
多層、放射基底、学習ベクトル量子化 (LVQ)、時間遅れ、非線形自己回帰 (NARX) を含む、浅いネットワーク用の教師あり学習アルゴリズム