シナリオ シミュレーション
現実的な無人航空機 (UAV) シナリオおよびセンサー モデルを使用したシミュレーションは、UAV アルゴリズムのテストに欠かせない部分です。UAV Toolbox には、これらのアルゴリズムをテストするためのシミュレーション環境が 2 つ用意されています。両方の環境にはそれぞれ異なる用途があり、一方の環境がもう一方の環境の代わりになることはありません。
"直方体シミュレーション環境" では、シナリオ内のビークルおよび他のプラットフォームが単純な箱の形状、またはポリゴン メッシュ (LiDAR アプリケーションの場合) として表されます。この環境を使用して、迅速にシナリオを作成したり、センサー データを生成したりします。MATLAB® と Simulink® の両方で、コントローラー、追跡アルゴリズム、およびセンサー フュージョン アルゴリズムをテストします。シナリオの作成を開始するには、
uavScenarioオブジェクトを使用します。"Unreal Engine® シミュレーション環境" (Simulink 3D Animation™ が必要) では、シナリオは Epic Games® の Unreal Engine を使用してレンダリングされます。この環境を使用して、より現実的なグラフィックスを使用したシナリオの可視化、高忠実度のレーダー、カメラ、LiDAR センサー データの生成、知覚インザループ システムのテストを行います。この環境は Simulink で使用可能であり、Windows® でのみ実行できます。詳細については、無人航空機用の Unreal Engine シミュレーションを参照してください。
アプリ
| UAV シナリオ デザイナー | Design UAV scenarios with terrain, platforms, and sensors (R2022a 以降) |
関数
ブロック
シーンおよびビークルの寸法
トピック
シミュレーションの基本
- Coordinate Systems in UAV Toolbox
Summary of coordinate systems used in UAV Toolbox. - 無人航空機用の Unreal Engine シミュレーション
Simulink で無人航空機アルゴリズムを使用し、Epic Games の Unreal Engine を使用してバーチャル環境でパフォーマンスを可視化する方法を学習する。 - Unreal Engine シミュレーション環境の要件と制限
Unreal Engine 環境でシミュレートするときに留意する必要があるソフトウェア要件、最小ハードウェア要件、および制限。 - UAV 用の Unreal Engine シミュレーションの仕組み
Simulink と Unreal Engine のコシミュレーション フレームワークおよびシミュレーションへのブロック実行順序の影響について説明します。 - 3D Scenes for Simulation in Unreal Engine Environment
Install 3D scenes for simulation in Unreal Engine environment. - Coordinate Systems for Unreal Engine Simulation in UAV Toolbox
Summary of the world and vehicle coordinate systems when simulating in the Unreal Engine environment. - Visualize with Cesium
Stream 3D map and terrain data of a location.
センサーを使用したシミュレーション
- Unreal Engine シミュレーション用のセンサーの選択
Unreal Engine での 3D シミュレーション中に使用するカメラ、または LiDAR センサーを決定する。 - Unreal Engine 環境でのシンプルなフライト シナリオとセンサーのシミュレーション
Epic Games® の Unreal Engine® を使用するシミュレーション環境で、センサーを可視化する。 - Simulate IMU Sensor Mounted on UAV
Create a sensor adaptor for animuSensorfrom Navigation Toolbox™ and gather readings for a simulated UAV flight scenario. - Simulate Radar Sensor Mounted on UAV
The radar sensor enables a UAV to detect other vehicles in the airspace, so that the UAV can predict other vehicle motion and make decisions to ensure clearance from other vehicles. This example shows how to simulate a radar sensor mounted on a UAV using theuavScenarioandradarDataGeneratorobjects. During the scenario simulation, theradarDataGeneratorobject generates flight tracks of another vehicle in the scenario. The ego vehicle can utilize such track information to decide whether a collision is about to happen and decide whether a flight plan change is required. - Stream Camera, Depth and Semantic Segmentation Data from Unreal Engine to NVIDIA Jetson
This example shows how to stream simulated camera, depth, and semantic segmentation label data from an Unreal Engine® scene to NVIDIA® Jetson™ hardware using the Video Send block in Simulink®. It then shows how to visualize incoming data streams on a monitor connected to the Jetson platform, by deploying separate models for each incoming data stream. The deployed models contain the Network Video Receive and SDL Video Display blocks from the MATLAB® Coder™ Support Package for NVIDIA Jetson and NVIDIA DRIVE® Platforms.
シーンのカスタマイズ
- UAV 用の Unreal Engine シーンのカスタマイズ
UAV フライト アプリケーション用に Unreal Engine シーンをカスタマイズする。
- Apply Semantic Segmentation Labels to Custom Scenes
Apply labels to objects in a scene so that you can obtain semantic segmentation data from a camera sensor. - Prepare Custom UAV Vehicle Mesh for the Unreal Editor
Create custom vehicle mesh for the Simulation 3D UAV Vehicle block.








