人工知能 (AI)

レーダー信号をシミュレーションして、ターゲットおよび信号の分類向けの機械学習モデルおよびディープラーニング モデルの学習を行います。

MATLAB® および Simulink® を使用することで、以下を行うことができます。

  • 信号ラベラーアプリを使用した、レーダーシステムから収集した信号のラベル付け
  • さまざまなレーダー断面積を持つオブジェクトからのレーダー波形やエコーのシミュレーションによる、データセットの拡張
  • 手のジェスチャーや、ヘリコプター、歩行者、自転車運転者などの非剛体を持つアニメーション オブジェクトのマイクロドップラー シグネチャのシミュレーション
  • 識別と分類のワークフローの公開データセットへの適用

レーダーに AI を利用すべき理由

レーダー信号を合成してターゲットおよび信号の分類向けの機械学習モデルおよびディープラーニング モデルの学習を行い、AI 技術をレーダーシステムから収集したデータに適用します。

波形の分類

波形の分類

レーダーの波形を合成してラベル付けし、ディープラーニング ネットワークの学習を行います。ディープラーニング ネットワークを用いて、信号から時間-周波数の特徴を抽出し、波形変調の分類を行います。

プロットを使用して、時間の経過とともに値がどのように変化するかを示します。

レーダーターゲット分類

機械学習とディープラーニングの両方の手法を用いて、レーダー断面積に基づくレーダー反射を分類します。機械学習手法では、ウェーブレット散乱特徴抽出とサポート ベクター マシンを組み合わせて使用します。一般的なディープラーニング手法には、SqueezeNet を使用した転移学習と、LSTM (長・短期記憶) リカレント ニューラル ネットワークの 2 種類があります。

手のジェスチャーの分類を行うために、実際のラベルと予測されたラベルを比較します。

手のジェスチャーの分類

一般公開されている動的な手のジェスチャーのデータセットから、超広帯域 (UWB) インパルスレーダー信号データを分類します。複数入力、単出力の畳み込みニューラル ネットワーク (CNN) を使用し、CNN モデルによって各信号から特徴情報を抽出し、その特徴情報を組み合わせて最終的なジェスチャーラベルの予測を行います。

マイクロドップラー信号の分類

時間周波数解析とディープラーニング ネットワークを使用し、マイクロドップラー特性に基づいて歩行者と自転車運転者を分類します。レーダーの前に置かれたオブジェクトのさまざまな部分の動きは、オブジェクトの特定に使用できるマイクロドップラー シグネチャを生成します。

予測されたボックスおよびラベルをテスト画像上で表示します。

SAR 画像の分類

合成開口レーダー (SAR) 画像のターゲット分類を行うためにディープラーニング技術を用います。MSTAR (移動および静止ターゲット捕捉および認識) 混合ターゲット データセットから SAR ターゲットを分類するために、畳み込みニューラル ネットワーク (CNN) を作成し学習を行います。

予測されたボックスおよびラベルをテスト画像上で表示します。

SAR 画像認識

領域ベースの畳み込みニューラル ネットワーク (R-CNN) を用いて、合成開口レーダー (SAR) 画像のターゲット認識を行います。R-CNN ネットワークは、大規模なシーンの SAR 画像にも拡張できる効率性能を備えた検出と認識を統合します。