事前学習済みのディープラーニング モデル
ディープラーニングの研究コミュニティが開発したモデルアーキテクチャを活用します。広く利用されているモデルにはロバストなアーキテクチャが備わっていて、ゼロから始める必要がありません。
ディープラーニングの研究コミュニティが開発したモデルアーキテクチャを活用します。広く利用されているモデルにはロバストなアーキテクチャが備わっていて、ゼロから始める必要がありません。
ディープラーニング モデルをゼロから作成するのではなく、事前学習済みモデルを取得してタスクに直接適用したり、適応させたりできます。
MATLAB Deep Learning Model Hub から、カテゴリごとの最新モデルにアクセスし、モデル選択時のヒントを確認します。
ほとんどのモデルは、コマンドラインで読み込みます。以下はその例です。
net = darknet19;
インポート関数 を使用して TensorFlow™、PyTorch®、ONNX™ モデルを MATLAB ネットワークに変換します。以下はその例です。
net = importTensorFlowNetwork("EfficientNetV2L")
事前学習済みモデルを、画像分類、コンピューター ビジョン、音声処理、LiDAR 処理、その他のディープラーニング ワークフローに適用します。
画像分類タスクには、NASNet-Mobile や EfficientNet などの畳み込みニューラル ネットワーク (CNN) を使用します。大半の CNN は、ImageNet データベースを使用して学習を行っています。
オブジェクト検出 (YOLO)、セマンティック/インスタンス セグメンテーション (AdaptSeg/MASK R-CNN)、動画分類 (SlowFast) を使用して画像と動画を解析します。
分類 (PointNet)、オブジェクト検出 (PointPillars)、セマンティック セグメンテーション (PointSeg) を使用して点群データを解析します。
事前学習済みの数多くのモデルから選択できます。各モデルには、次のトレードオフがあります。
まず、SqueezeNet や GoogleNet などの高速なモデルを選択します。そのうえで、迅速に反復実行し、さまざまな前処理や学習のオプションを試します。
適切に機能する設定がわかったら、Inception-v3 や ResNet-50 などのさらに精度が高いモデルを試し、結果が改善されるかどうかを確認します。
Raspberry Pi® や FPGA などのエッジデバイスに展開する際は、SqueezeNet や MobileNet-v2 などのメモリフットプリントが低いモデルを選択します。