このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。
シナリオ シミュレーション
現実的な無人航空機 (UAV) シナリオおよびセンサー モデルを使用したシミュレーションは、UAV アルゴリズムのテストに欠かせない部分です。UAV Toolbox には、これらのアルゴリズムをテストするためのシミュレーション環境が 2 つ用意されています。両方の環境にはそれぞれの用途があり、ある環境が別の環境の代わりになることはありません。
"直方体シミュレーション環境" では、シナリオ内のビークルおよび他のプラットフォームが単純な箱の形状、またはポリゴン メッシュ (LiDAR アプリケーションの場合) として表されます。この環境を使用して、迅速にシナリオを作成したり、センサー データを生成したりします。MATLAB® と Simulink® の両方で、コントローラー、追跡アルゴリズム、およびセンサー フュージョン アルゴリズムをテストします。シナリオの作成を開始するには、
uavScenario
オブジェクトを使用します。"Unreal Engine® シミュレーション環境" では、シナリオは Epic Games® の Unreal Engine を使用してレンダリングされます。この環境を使用して、より現実的なグラフィックスを使用したシナリオの可視化、高忠実度のレーダー、カメラ、LiDAR センサー データの生成、知覚インザループ システムのテストを行います。この環境は Simulink で使用可能であり、Windows® でのみ実行できます。詳細については、Unreal Engine Simulation for Unmanned Aerial Vehiclesを参照してください。
アプリ
UAV シナリオ デザイナー | Design UAV scenarios with terrain, platforms, and sensors (R2022a 以降) |
関数
ブロック
UAV Guidance Model | Reduced-order model for UAV |
UAV Animation | 並進と回転を使用した UAV 飛行経路のアニメーション |
Path Manager | Compute and execute a UAV autonomous mission (R2020b 以降) |
GPS | ノイズのある GPS センサー読み取りのシミュレーション (R2021b 以降) |
INS | Simulate INS sensor (R2021b 以降) |
Simulation 3D UAV Vehicle | Place UAV vehicle in 3D visualization (R2020b 以降) |
Simulation 3D Scene Configuration | Scene configuration for 3D simulation environment (R2020b 以降) |
Simulation 3D Camera | Camera sensor model with lens in 3D simulation environment (R2020b 以降) |
Simulation 3D Lidar | Lidar sensor model in 3D simulation environment (R2020b 以降) |
Simulation 3D Fisheye Camera | Fisheye camera sensor model in 3D simulation environment (R2019b 以降) |
Simulation 3D Ultrasonic Sensor | Ultrasonic sensor model in 3D simulation environment (R2023a 以降) |
Video Send | Send video stream to remote hardware (R2021b 以降) |
UAV Scenario Configuration | Configure and simulate UAV scenarios (R2021b 以降) |
UAV Scenario Get Transform | Get transforms from UAV scenario platforms (R2021b 以降) |
UAV Scenario Lidar | Simulate lidar measurements based on meshes in scenario (R2021b 以降) |
UAV Scenario Motion Read | Read platform and sensor motions from UAV scenario simulation (R2021b 以降) |
UAV Scenario Motion Write | Update platform motion in UAV scenario simulation (R2021b 以降) |
UAV Scenario Scope | Visualize UAV scenario and lidar point clouds (R2021b 以降) |
シーンおよびビークルの寸法
トピック
シミュレーションの基本
- Unreal Engine Simulation for Unmanned Aerial Vehicles
Learn how to use unmanned aerial vehicle algorithms in Simulink and visualize their performance in a virtual environment using the Unreal Engine from Epic Games. - Unreal Engine シミュレーション環境の要件および制限
Unreal Engine 環境でシミュレートする際には、次のソフトウェア要件、最小ハードウェア要件、および制限に留意してください。 - UAV 用の Unreal Engine シミュレーションの仕組み
Simulink と Unreal Engine のコシミュレーション フレームワークおよびシミュレーションへのブロック実行順序の影響について説明します。 - Coordinate Systems for Unreal Engine Simulation in UAV Toolbox
Understand the world and UAV coordinate systems when simulating in the Unreal Engine environment.
センサーを使用したシミュレーション
- Simulate UAV Mission in Urban Environment
This example shows how to create and simulate a UAV mission in an urban environment in MATLAB® and Simulink® using theuavMission
anduavScenario
objects, as well as OpenStreetMap® (OSM) data from Manhattan, New York. In this example, you import a plan file created in the QGroundControl app. - Simulate IMU Sensor Mounted on UAV
Create a sensor adaptor for animuSensor
from Navigation Toolbox™ and gather readings for a simulated UAV flight scenario. - Simulate Radar Sensor Mounted On UAV
The radar sensor enables a UAV to detect other vehicles in the airspace, so that the UAV can predict other vehicle motion and make decisions to ensure clearance from other vehicles. This example shows how to simulate a radar sensor mounted on a UAV using theuavScenario
andradarDataGenerator
objects. During the scenario simulation, theradarDataGenerator
object generates flight tracks of another vehicle in the scenario. The ego vehicle can utilize such track information to decide whether a collision is about to happen and decide whether a flight plan change is required. - Unreal Engine シミュレーション用のセンサーの選択
Unreal Engine での 3D シミュレーション中に使用するカメラ、または LiDAR センサーを決定する。 - Simulate Simple Flight Scenario and Sensor in Unreal Engine Environment
Visualize sensors in a simulation environment that uses Unreal Engine® from Epic Games®. - Depth and Semantic Segmentation Visualization Using Unreal Engine Simulation
This example shows how to visualize depth and semantic segmentation data captured from a camera sensor in a simulation environment. This environment is rendered using the Unreal Engine® from Epic Games®. - Stream Camera, Depth and Semantic Segmentation Data from Unreal Engine to NVIDIA Jetson
This example shows how to stream simulated camera, depth, and semantic segmentation label data from an Unreal Engine® scene to NVIDIA® Jetson™ hardware using the Video Send block in Simulink®. It then shows how to visualize incoming data streams on a monitor connected to the Jetson platform, by deploying separate models for each incoming data stream. The deployed models contain the Network Video Receive and SDL Video Display blocks from the MATLAB® Coder™ Support Package for NVIDIA Jetson and NVIDIA DRIVE® Platforms.
シーンのカスタマイズ
- UAV 用の Unreal Engine シーンのカスタマイズ
UAV フライト アプリケーション用に Unreal Engine シーンをカスタマイズする。
- Apply Semantic Segmentation Labels to Custom Scenes
Apply labels to objects in a scene so that you can obtain semantic segmentation data from a camera sensor. - Prepare Custom UAV Vehicle Mesh for the Unreal Editor
Create custom vehicle mesh for the Simulation 3D UAV Vehicle block.