Main Content

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

シナリオ シミュレーション

シーンの作成、センサー データの生成、シミュレーション環境でのアルゴリズムのテスト

現実的な無人航空機 (UAV) シナリオおよびセンサー モデルを使用したシミュレーションは、UAV アルゴリズムのテストに欠かせない部分です。UAV Toolbox には、これらのアルゴリズムをテストするためのシミュレーション環境が 2 つ用意されています。両方の環境にはそれぞれの用途があり、ある環境が別の環境の代わりになることはありません。

  • "直方体シミュレーション環境" では、シナリオ内のビークルおよび他のプラットフォームが単純な箱の形状、またはポリゴン メッシュ (LiDAR アプリケーションの場合) として表されます。この環境を使用して、迅速にシナリオを作成したり、センサー データを生成したりします。MATLAB® と Simulink® の両方で、コントローラー、追跡アルゴリズム、およびセンサー フュージョン アルゴリズムをテストします。シナリオの作成を開始するには、uavScenario オブジェクトを使用します。

  • "Unreal Engine® シミュレーション環境" では、シナリオは Epic Games® の Unreal Engine を使用してレンダリングされます。この環境を使用して、より現実的なグラフィックスを使用したシナリオの可視化、高忠実度のレーダー、カメラ、LiDAR センサー データの生成、知覚インザループ システムのテストを行います。この環境は Simulink で使用可能であり、Windows® でのみ実行できます。詳細については、無人航空機用の Unreal Engine シミュレーションを参照してください。

謝辞

アプリ

UAV シナリオ デザイナーDesign UAV scenarios with terrain, platforms, and sensors (R2022a 以降)

関数

すべて展開する

uavScenarioUAV シミュレーション シナリオの生成 (R2020b 以降)
uavSensorSensor for UAV scenario (R2020b 以降)
uavPlatformUAV platform for sensors and winds in scenarios (R2020b 以降)
extendedObjectMeshMesh representation of extended object (R2020b 以降)
uavMissionMission data for UAV flight (R2022b 以降)
uavCoveragePlannerPath planner for UAV space coverage (R2023a 以降)
uavCoverageSpace2D coverage area for coverage planner (R2023a 以降)
coverageDecompositionDecompose concave polygon into convex polygons (R2023a 以降)
multirotorMissionParserGenerate trajectory for multirotor UAV from mission (R2022b 以降)
multirotorFlightTrajectoryMultirotor UAV trajectory (R2022b 以降)
fixedwingMissionParserGenerate trajectory for fixed-wing UAV from mission (R2022b 以降)
fixedwingFlightTrajectoryFixed-wing UAV trajectory (R2022b 以降)
waypointTrajectoryWaypoint trajectory generator (R2019b 以降)
polynomialTrajectoryPiecewise-polynomial trajectory generator (R2023a 以降)
gpsSensorGPS receiver simulation model (R2020b 以降)
insSensorInertial navigation system and GNSS/GPS simulation model (R2020b 以降)
uavLidarPointCloudGeneratorGenerate point clouds from meshes (R2020b 以降)
createCustomSensorTemplateCreate sample implementation for UAV custom sensor interface (R2021a 以降)
uav.SensorAdaptorCustom UAV sensor interface (R2021a 以降)
targetPosesFind positions, orientations, velocities, angular velocities, and accelerations of targets relative to ego UAV platform (R2023b 以降)
transformTreeDefine coordinate frames and relative transformations (R2020b 以降)
getGraphGraph object representing tree structure (R2020b 以降)
getTransformGet relative transform between frames (R2020b 以降)
infoList all frame names and stored timestamps (R2020b 以降)
removeTransformRemove frame transform relative to its parent (R2020b 以降)
showShow transform tree (R2020b 以降)
updateTransformUpdate frame transform relative to its parent (R2020b 以降)
sim3d.EditorUnreal Engine プロジェクトへのインターフェイス (R2020b 以降)
sim3d.mapsAccess additional scenes from the server (R2022b 以降)
sim3d.maps.Map.deleteDelete local maps downloaded from the server (R2022b 以降)
sim3d.maps.Map.downloadDownload maps from the server (R2022b 以降)
sim3d.maps.Map.localList of locally available maps (R2022b 以降)
sim3d.maps.Map.serverList of maps available for download from the server (R2022b 以降)
copyExampleSim3dProjectCopy support package files and plugins to specified folders (R2022b 以降)

ブロック

すべて展開する

UAV Guidance ModelReduced-order model for UAV
UAV Animation並進と回転を使用した UAV 飛行経路のアニメーション
Path ManagerCompute and execute a UAV autonomous mission (R2020b 以降)
Simulation 3D UAV VehiclePlace UAV vehicle in 3D visualization (R2020b 以降)
Simulation 3D Scene ConfigurationScene configuration for 3D simulation environment (R2020b 以降)
Simulation 3D CameraCamera sensor model with lens in 3D simulation environment (R2020b 以降)
Simulation 3D LidarLidar sensor model in 3D simulation environment (R2020b 以降)
Simulation 3D Fisheye CameraFisheye camera sensor model in 3D simulation environment (R2019b 以降)
Simulation 3D Ultrasonic SensorUltrasonic sensor model in 3D simulation environment (R2023a 以降)
Video SendSend video stream to remote hardware (R2021b 以降)
GPSノイズのある GPS センサー読み取りのシミュレーション (R2021b 以降)
INSSimulate INS sensor (R2021b 以降)
UAV Scenario ConfigurationConfigure and simulate UAV scenarios (R2021b 以降)
UAV Scenario Get TransformGet transforms from UAV scenario platforms (R2021b 以降)
UAV Scenario LidarSimulate lidar measurements based on meshes in scenario (R2021b 以降)
UAV Scenario Motion ReadRead platform and sensor motions from UAV scenario simulation (R2021b 以降)
UAV Scenario Motion WriteUpdate platform motion in UAV scenario simulation (R2021b 以降)
UAV Scenario ScopeVisualize UAV scenario and lidar point clouds (R2021b 以降)

シーンおよびビークルの寸法

すべて展開する

US City BlockUS city block Unreal Engine environment
SuburbanSuburban Unreal Engine environment
クワッドロータークワッドローター ビークルの寸法
固定翼航空機固定翼航空機の寸法

トピック

シミュレーションの基本

センサーを使用したシミュレーション

  • Simulate UAV Mission in Urban Environment
    This example shows how to create and simulate a UAV mission in an urban environment in MATLAB® and Simulink® using the uavMission and uavScenario objects, as well as OpenStreetMap® (OSM) data from Manhattan, New York. In this example, you import a plan file created in the QGroundControl app.
  • Simulate IMU Sensor Mounted on UAV
    Create a sensor adaptor for an imuSensor from Navigation Toolbox™ and gather readings for a simulated UAV flight scenario.
  • Simulate Radar Sensor Mounted on UAV
    The radar sensor enables a UAV to detect other vehicles in the airspace, so that the UAV can predict other vehicle motion and make decisions to ensure clearance from other vehicles. This example shows how to simulate a radar sensor mounted on a UAV using the uavScenario and radarDataGenerator objects. During the scenario simulation, the radarDataGenerator object generates flight tracks of another vehicle in the scenario. The ego vehicle can utilize such track information to decide whether a collision is about to happen and decide whether a flight plan change is required.
  • Unreal Engine シミュレーション用のセンサーの選択
    Unreal Engine での 3D シミュレーション中に使用するカメラ、または LiDAR センサーを決定する。
  • Simulate Simple Flight Scenario and Sensor in Unreal Engine Environment
    Visualize sensors in a simulation environment that uses Unreal Engine® from Epic Games®.
  • Depth and Semantic Segmentation Visualization Using Unreal Engine Simulation
    This example shows how to visualize depth and semantic segmentation data captured from a camera sensor in a simulation environment. This environment is rendered using the Unreal Engine® from Epic Games®.
  • Stream Camera, Depth and Semantic Segmentation Data from Unreal Engine to NVIDIA Jetson
    This example shows how to stream simulated camera, depth, and semantic segmentation label data from an Unreal Engine® scene to NVIDIA® Jetson™ hardware using the Video Send block in Simulink®. It then shows how to visualize incoming data streams on a monitor connected to the Jetson platform, by deploying separate models for each incoming data stream. The deployed models contain the Network Video Receive and SDL Video Display blocks from the MATLAB® Coder™ Support Package for NVIDIA Jetson and NVIDIA DRIVE® Platforms.

シーンのカスタマイズ