ディープラーニングは、さまざまな信号処理のアプリケーションを解決するための予測モデルを開発する、新たな機会を提供します。MATLAB® はディープネットワーク上に構築された信号処理システムの探索から実装まで、すべてのワークフローをサポートします。次のような信号処理の専門的な機能を簡単に始めることができます。
- 解析、前処理、および対話型での信号の注釈付け
- ディープ ニューラル ネットワークの学習に向けた特徴の抽出と信号の変換
- 医用生体、オーディオ、通信、およびレーダーなど実世界での適用のためのディープラーニング モデルの構築
- ハードウェア接続とシミュレーションによる信号データセットの取得と生成
信号のラベル付けとデータセット管理
MATLAB では、ラベリングや、大きくてメモリーに収まらない大容量の信号データの管理などのタスクで、信号データの準備に役立つ組み込みアプリとドメインに特化したツールを使用することが可能です。
関連情報
時間周波数変換
時間周波数表現は、信号内のスペクトル成分が時間の関数としてどの様に変化するかを表します。時間周波数表現からパターンを特定して抽出するディープラーニング ネットワークの学習が可能です。また、信号の時間周波数表現を生成するために、スペクトログラム、メル周波数スペクトログラム、Wigner-Ville、および連続ウェーブレット変換 (またはスカログラム) など、さまざまな手法を選択することも可能です。

関連情報
前処理と特徴抽出
信号の前処理は全体の信号品質を向上させるための重要な手順です。組み込み関数とアプリを使用して、ディープネットワークの学習前に信号を整理して不要なアーティファクトを除去できます。また、一般的な特徴および、ドメイン特有の特徴を信号から抽出して、ディープラーニング モデルの学習のためデータを低次元化することも可能です。さらに、ウェーブレット散乱などの自動特徴抽出の手法を用いて、信号から低分散の特徴を取得してディープネットワークの学習を行うこともできます。
関連情報
信号の生成と取得
通常ディープラーニング モデルは学習と検証のため大量のデータを必要とします。データの獲得が不可能であるような特定の状況が、ディープラーニング技術適用への障壁となる場合があります。MATLAB と他の信号処理アプリケーションのためのアドオンでは、実世界のシナリオを忠実に模擬した合成データをシミュレーションして、ディープラーニングの手法によりモデルを開発できます。MATLAB と外部のハードウェアを接続して、初期プロトタイプの段階から、学習済みモデルの検証を目的とする実データを取得することが可能です。

関連情報
ネットワーク設計、学習、および展開
ネットワークをインタラクティブに設計し、NVIDIA® GPU を使用して学習の速度を向上し、迅速に良い結果を得ます。
設計
ONNX™ を使用して事前学習済みモデルをインポートし、ディープ ネットワーク デザイナー アプリを使用して、レイヤーの追加、削除、または再配列を行います。
トレーニング
単一の GPU、複数の GPU、クラウド上の GPU、または NVIDIA DGX のいずれでも、MATLAB は 1 行のコードでマルチ GPU 学習をサポートします。
配布
ディープラーニングのモデルをどこへでも配布します。自動コード生成により ARM® と Intel® MKL-DNN 上でネイティブ実行します。ディープラーニング モデルをインポートして TensorRT と CuDNN ライブラリ向けの CUDA® コードを生成します。
