Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

モデル テスト ダッシュボードを使用してテスト アクティビティのステータスと品質を調査

モデル テスト ダッシュボードでは、プロジェクト内のモデル設計およびテスト アーティファクトからメトリクス データを収集します。メトリクス データを使用して、モデル テストのステータスと品質を評価します。

ダッシュボードでは、要件、モデル、テスト結果など、プロジェクト内のアーティファクトを解析します。ダッシュボードの各メトリクスはモデルのテスト品質の異なる側面を測定し、業界認定のソフトウェア開発標準 (ISO 26262、DO-178C など) のガイドラインを反映しています。

この例では、モデル テスト ダッシュボードを使用してモデルのテスト ステータスを評価する方法を示します。プロジェクト内の要件、モデル、またはテストが変更された場合、ダッシュボードを使用してテストに与える影響を評価し、テストの目的を達成するようにアーティファクトを更新します。

プロジェクトのテスト アーティアクトとメトリクスの調査

モデルとテスト アーティファクトが含まれるプロジェクトを開きます。この例では、コマンド ラインに dashboardCCProjectStart と入力します。

モデル テスト ダッシュボードを開くには、以下のいずれかの方法を使用します。

  • [プロジェクト] タブで、[モデル テスト ダッシュボード] をクリックします。

  • コマンド ラインに modelTestingDashboard と入力します。

プロジェクトのダッシュボードを最初に開くときに、ダッシュボードはプロジェクト内のアーティファクトを特定し、それらをモデルまでトレースしなければなりません。解析を実行してメトリクス結果を収集するには、[すべてのトレースと収集] をクリックします。

ダッシュボードには、[アーティファクト] パネルで選択されたモデルのメトリクス結果が表示されます。モデルのメトリクス データを収集するには、[結果の収集] をクリックします。プロジェクト内のすべてのモデルのメトリクスを収集する場合、[結果の収集][すべての結果を収集] をクリックします。モデルのメトリクス データが以前に収集された場合、ダッシュボードには既存のデータが取り込まれます。メトリクス用のデータを収集するには、基となるアーティファクトをサポートする製品 (Simulink Requirements、Simulink Test、または Simulink Coverage) のライセンスが必要です。ただし、既存のメトリクス データの表示にはライセンスは必要ありません。

設計とテスト アーティファクトのトレーサビリティを表示

[アーティファクト] パネルでは、プロジェクトに含まれるアーティファクトがトレースするモデルの下に整理されています。プロジェクト内のアーティファクト ファイルが変更された場合、[アーティファクトのトレース] をクリックしてダッシュボード内のデータを更新しなければならないことがダッシュボードに示されます。この例では、[アーティファクト] パネルで、モデル db_DriverSwRequest のフォルダーを展開します。プロジェクト内のモデルに関して、トレースされたアーティファクトには次が含まれます。

  • 機能要件 -- [タイプ]Implements に設定されたリンクによってモデルにリンクされている要件、または他の要件を通じてモデルに間接的にリンクされている要件。Simulink Requirements を使用して、これらの要件を要件ファイル (.slreqx) に作成するか、インポートします。

  • 設計 -- テストするコンポーネントを含むモデル ファイル。

  • テスト ケース -- モデルまたはライブラリを実行するテスト ケース。Simulink Test を使用して、こうしたテスト ケースをテスト スイート ファイルに作成します。

  • テスト結果 -- モデルのテスト ケースの結果。結果をダッシュボードで使用するには、ユニット テストを実行し、結果をエクスポートし、結果ファイルとして保存します。ダッシュボードには、直近に保存されたテスト ケースの結果が表示されます。

ダッシュボードがアーティファクトをコンポーネント モデルまでトレースしていない場合、アーティファクトは [トレースなし] フォルダーに表示されます。このフォルダーには、トレーサビリティが欠落しているアーティファクトと、ダッシュボードがトレースできないアーティファクトが含まれます。トレーサビリティの解析中にアーティファクトでエラーが発生した場合、[エラー] フォルダーの下に表示されます。トレースされていないアーティファクトとエラーの詳細については、モデル テスト解析用にアーティファクトをコンポーネントまでトレースを参照してください。

要件アーティファクト [db_DriverSwRequest][機能要件][db_req_funct_spec.slreqx][Cancel Switch Detection] に移動して、要件をクリックします。[詳細] ペインには、アーティファクトの名前と、アーティファクトを含むファイルへのプロジェクト内のフォルダー パスが表示されます。

コンポーネントのメトリクス結果を表示

[アーティファクト] パネルで、各モデルのメトリクス結果を収集および表示できます。モデル db_DriverSwRequest の結果を表示するには、[アーティファクト] パネルで [db_DriverSwRequest] をクリックします。ダッシュボードの上部に、モデルの名前、データ収集のタイムスタンプ、データを収集したユーザーの名前が表示されます。プロジェクト内のアーティファクトが結果の収集後に変更された場合、[古いメトリクス] アイコンによって、ダッシュボードの一部のウィジェットに変更が反映されていない古いデータが表示される可能性があることが示されます。影響を受けるウィジェットはグレーで強調表示されます。メトリクス データを再収集し、現在のアーティファクトのデータを使用して古いウィジェットを更新します。この例では、ダッシュボード内のデータは古くありません。

ダッシュボード ウィジェットは、メトリクス データの結果をまとめ、対応すべき次のようなテストに関する問題を表示します。

  • 要件とテストの間にトレーサビリティがない

  • 不均衡なリンク数をもつテストまたは要件

  • 確認しなければならない特定のタイプのテスト

  • 失敗したテストまたは無効なテスト

  • 欠落したカバレッジ

データを詳細に確認するには、個々のメトリクス ウィジェットをクリックします。選択したメトリクスに関して、各アーティファクトのメトリクス値が表に表示されます。詳細な結果を取得して、問題のあるアーティファクトを修正できるように、表にはアーティファクトを開くためのハイパーリンクが示されています。こうした表を調べる場合、以下のことに注意してください。

  • 各アーティファクトについて返された値によって結果をフィルター処理できます。結果をフィルター処理するには、表のヘッダーのフィルター アイコンをクリックします。

  • 一部のウィジェットは既定で表をフィルター処理し、ウィジェットに表示している結果しか示しません。たとえば、[テストにリンクされている要件] セクションでは、[リンクされていない] ウィジェットの表は、テスト ケースがない要件のみを表示するようにフィルター処理されています。

  • 結果をアーティファクト、ソース ファイル、または値別に並べ替えるには、対応する列ヘッダー内の矢印をクリックします。

テストおよび要件のトレーサビリティの評価

テスト品質の標準的な測定は、個々の要件とそれを検証するテスト ケースの間のトレーサビリティです。テストおよび要件のトレーサビリティを評価するには、ダッシュボードの [テスト ケースの解析] セクションにあるメトリクス データを使用します。ウィジェット内の概要データを使用することで、要件およびテストに含まれる問題を迅速に見つけることができます。ウィジェットをクリックし、詳細な結果とアーティファクトを開くリンクが記載された表を表示します。

テストが欠落している要件

[テストにリンクされている要件] セクションでは、テストが欠落している要件の数が [リンクされていない] ウィジェットに示されます。テストと、これらの要件へのリンクを追加します。[テストを含む要件] ダイヤル ウィジェットには、リンク付けの進行状況がテストをもつ要件のパーセンテージとして表示されます。

セクション内の任意のウィジェットをクリックし、[テスト ケースにリンクされている要件] の表で詳細な結果を確認します。各要件に関して、要件を含むソース ファイルと、要件が少なくとも 1 つのテスト ケースにリンクされているかどうかが表に示されます。[リンクされていない] ウィジェットをクリックすると、テスト ケースへのリンクが欠落している要件のみを表示するように表がフィルター処理されます。

不均衡なテスト数をもつ要件

[要件あたりのテスト数] セクションでは、各要件にリンクされているテスト数の分布がまとめられています。各値に関して、色付けされたビンはその数のテストにリンクされている要件の数を示しています。色が濃いほど、要件の数が多いことを示します。要件がもつテストが多過ぎる場合は、広範になり過ぎる可能性があり、より細かい複数の要件に分割して、それらをそれぞれのテストにリンク付けする必要がある場合があります。要件がもつテスト数が少なすぎる場合、テストを追加し、それらを要件にリンクさせることを検討してください。

特定の数のテスト ケースをもつ要件を確認するには、対応するビンをクリックして [要件あたりのテスト ケース数] 表を開きます。この表には、各要件に関して、要件を含むソース ファイルおよびリンクされたテスト ケースの数が表示されます。すべての要件の結果を確認するには、[リンクされたテスト ケース] 列でフィルター アイコンをクリックしてから [フィルターのクリア] を選択します。

要件が欠落しているテスト

[要件にリンクされているテスト] セクションでは、[リンクされていない] ウィジェットは要件にリンクされていないテストの数を示しています。これらのテストから検証する要件へのリンクを追加します。[要件を含むテスト] ダイヤル ウィジェットには、リンク付けの進行状況が要件にリンクするテストのパーセンテージとして表示されます。

セクション内の任意のウィジェットをクリックし、[要件にリンクされているテスト] 表で詳細な結果を確認します。各テスト ケースに関して、テストを含むソース ファイルと、テスト ケースが少なくとも 1 つの要件にリンクされているかどうかが表に示されます。[リンクされていない] ウィジェットをクリックすると、要件へのリンクが欠落しているテスト ケースのみを表示するように表がフィルター処理されます。

不均衡な要件数をもつテスト

[テストあたりの要件数] ウィジェットは、各テストにリンクされている要件数の分布をまとめています。各値に関して、色付けされたビンはその数のテストにリンクされている要件の数を示しています。色が濃いほど、テストの数が多いことを示します。テストがもつ要件が多過ぎたり、少な過ぎる場合、そのテストに関するエラーの調査がより難しくなる可能性があります。また、より簡単に追跡できるように、テストまたは要件を変更しなければならない場合があります。たとえば、あるテストで検証する要件数が他のテストよりはるかに多い場合、それを複数の小さいテストに分割して、それらを要件にリンクさせることを検討してください。

特定の数の要件をもつテスト ケースを確認するには、対応するビンをクリックして [テスト ケースごとの要件] 表を開きます。この表には、各テスト ケースに関して、テストおよびリンクされている要件数を含むソース ファイルが表示されます。すべてのテスト ケースの結果を表示するには、[リンクされている要件] 列でフィルター アイコンをクリックし、[フィルターのクリア] を選択します。

1 つのタイプの不均衡なテスト数

[タイプ別のテスト] および [タグを含むテスト] ウィジェットは、コンポーネントがもっている各タイプのテスト数および各カスタム タグ付きのテスト数を示します。業界標準では、多くの場合、テストは通常のテストまたはロバスト テストとして分類されます。テスト ケースに Normal または Robustness でタグ付けし、[タグを含むテスト] ウィジェットを使用することで各タグの総数を表示します。ブレークダウンを使用して、特定のタイプのテストまたは特定のタグをもつテストを追加するかどうかを決定します。

1 つのタイプのテスト ケースを表示するには、[タイプ別のテスト] 表内の対応する行をクリックして [テスト ケース タイプ] 表を開きます。この表には、各テスト ケースに関して、テストを含むソース ファイルとテスト タイプが表示されます。すべてのテスト ケースの結果を確認するには、[タイプ] 列のフィルター アイコンをクリックし、[フィルターのクリア] を選択します。

タグをもつテスト ケースを表示するには、[タグを含むテスト] 表で対応する行をクリックし、[テスト ケース タグ] 表を開きます。この表には、各テスト ケースに関して、テストを含むソース ファイルとテスト ケースのタグが表示されます。すべてのテスト ケースの結果を確認するには、[タグ] 列のフィルター アイコンをクリックし、[フィルターのクリア] を選択します。

テスト結果とカバレッジの解析

テスト結果とカバレッジ測定の概要を表示するには、ダッシュボードの [テスト結果の解析] セクション内のウィジェットを使用します。テスト結果メトリクスを使用して、テストとモデルに含まれる問題を見つけます。カバレッジ メトリクスを使用してカバレッジ ギャップを検出し、未達カバレッジに対処するためのテストを追加します。モデルのテストを実行するときに、結果をエクスポートし、ファイルをプロジェクト内に保存します。次に、ダッシュボード メトリクスを収集し、テストに関する問題の結果をチェックします。

パスしていないテスト

[モデル テストのステータス] セクションでは、[未テスト] ウィジェットおよび [無効] ウィジェットに、実行されていないコンポーネントのテスト数が示されます。Simulink Test マネージャーを使用してテストを実行し、新しい結果をエクスポートします。

[失敗] ウィジェットは、失敗したテストの数を示しています。失敗した各テストをテスト マネージャーで開き、失敗の原因となったアーティファクトを調査します。アーティアクトを修正し、テストを再実行し、結果をエクスポートします。

セクション内の任意のウィジェットをクリックし、[テスト ケース ステータス] 表を開きます。この表では、各テスト ケースに関して、テストを含むソース ファイルとテスト結果のステータスが表示されます。[失敗][未テスト]、または [無効] ウィジェットをクリックすると、それらの結果のテストのみを表示するように表がフィルター処理されます。ダッシュボードでは、各テスト ケースまでトレースする最新のテスト結果のみを解析します。

未達カバレッジ

[モデル カバレッジ] ウィジェットには、テストによってカバーされていないモデル要件が存在するかどうかが示されます。カバレッジ タイプのいずれかが示すカバレッジが 100% 未満の場合、カバレッジ ギャップを調査できます。ギャップをカバーするか、あるいはカバーする必要がないポイントを正当化するためのテストを追加します。次に、テストを再実行し、結果をエクスポートします。

1 つのタイプのカバレッジの詳細な結果を確認するには、対応するバーをクリックします。モデルおよびテスト ケースに関して、ソース ファイルと、達成および正当化されたカバレッジが表に示されます。

参考

関連するトピック