Main Content

分類学習器アプリを使用したアンサンブル学習器の学習

この例では、分類学習器アプリで分類器のアンサンブルを構築する方法を示します。アンサンブル分類器では、複数の弱学習器の結果を融合して 1 つの高品質のアンサンブル予測器にします。精度はアルゴリズムの選択によって変化しますが、アンサンブル分類器に多くの学習器を必要とする場合も多いため、近似が低速化する傾向もあります。

  1. MATLAB®fisheriris データ セットを読み込み、このデータ セットに含まれている変数の一部を分類に使用するように定義します。

    fishertable = readtable("fisheriris.csv");
    
  2. [アプリ] タブの [機械学習および深層学習] グループで [分類学習器] をクリックします。

  3. [学習] タブの [ファイル] セクションで、[新規セッション]、[ワークスペースから] をクリックします。

    Learn tab

    [ワークスペースからの新規セッション] ダイアログ ボックスで、[データ セット変数] のリストから table fishertable を選択します (必要な場合)。データ型に基づいて応答および予測子変数が選択されていることを確認します。花弁とがく片の長さおよび幅は予測子です。種は分類対象の応答です。この例では、選択を変更しないでください。

  4. [セッションの開始] をクリックします。

    データの散布図が作成されます。

  5. 散布図を使用して、どの変数が応答の予測に有用であるかを調べます。X 軸と Y 軸の制御で他の変数を選択して、種と測定値の分布を可視化します。種の色が最も明確に分離されるのはどの変数であるかを調べます。

  6. アンサンブル モデルの選択肢に学習させます。[学習] タブの [モデル] セクションで矢印をクリックして分類器のリストを展開してから [アンサンブル分類器][すべてのアンサンブル] をクリックします。次に、[学習] セクションで、[すべてを学習] をクリックして [すべてを学習] を選択します。

    メモ

    • Parallel Computing Toolbox™ がある場合は、[並列の使用] ボタンが既定でオンになります。[すべてを学習] をクリックして [すべてを学習] または [選択を学習] を選択すると、ワーカーの並列プールが開きます。この間、ソフトウェアの対話的な操作はできません。プールが開いた後、モデルの学習を並列で実行しながらアプリの操作を続けることができます。

    • Parallel Computing Toolbox がない場合は、[すべてを学習] メニューの [バックグラウンド学習を使用] チェック ボックスが既定でオンになります。オプションを選択してモデルに学習させると、バックグラウンド プールが開きます。プールが開いた後、モデルの学習をバックグラウンドで実行しながらアプリの操作を続けることができます。

    分類学習器で、ギャラリーのアンサンブル分類オプションごとに 1 つと既定の複雑な木のモデルの学習が行われます。[モデル] ペインで、最適なモデルの [精度 (検証)] のスコアが四角で囲まれて強調表示されます。また、最初のアンサンブル モデル ([ブースティング木]) の検証の混同行列も表示されます。

  7. 結果を表示するため、[モデル] ペインでモデルを選択します。たとえば、[部分空間判別] モデル (モデル 2.3) を選択します。モデルの [概要] タブを調べます。このタブには、検証セットに対して計算された [学習結果] のメトリクスが表示されます。

  8. 学習済みモデルの散布図を確認します。[学習] タブの [プロットと結果] セクションで矢印をクリックしてギャラリーを開き、[検証結果] グループの [散布] をクリックします。誤分類された点は X で示されます。

    Scatter plot of the Fisher iris data modeled by an ensemble classifier. Correctly classified points are marked with an O. Incorrectly classified points are marked with an X.

    メモ

    検証により、結果に無作為性が導入されます。実際のモデルの検証結果は、この例に示されている結果と異なる場合があります。

  9. 各クラスにおける予測子の精度を調べます。[学習] タブの [プロットと結果] セクションで矢印をクリックしてギャラリーを開き、[検証結果] グループの [混同行列 (検証)] をクリックします。真のクラスと予測したクラスの結果が含まれている行列が表示されます。

  10. 残りの各モデルについて、[モデル] ペインでモデルを選択して検証の混同行列を開き、それらのモデルの結果を比較します。

  11. 最適なモデルを選択します (最高のスコアが [精度 (検証)] ボックスで強調表示されます)。モデルを改善するため、異なる特徴量をモデルに含めます。予測力が低い特徴量を削除するとモデルを改善できるかどうか調べます。

    まず、モデルを右クリックして [複製] を選択することで、モデルを複製します。

  12. 次のいずれかの方法で、追加または除外する特徴量を調べます。

    • 平行座標プロットを使用します。[学習] タブの [プロットと結果] セクションで矢印をクリックしてギャラリーを開き、[検証結果] グループの [平行座標] をクリックします。クラスを十分に分離する予測子を保持します。

      モデルの [概要] タブで、学習時に使用する予測子を指定できます。[特徴選択] をクリックしてセクションを展開し、モデルから削除する予測子を指定します。

    • 特徴ランク付けアルゴリズムを使用します。[学習] タブの [オプション] セクションで [特徴選択] をクリックします。[既定の特徴選択] タブで、使用する特徴ランク付けアルゴリズムと、最も高ランクの特徴からいくつの特徴を保持するかを指定します。使用する特徴の数は棒グラフで判断できます。

      [保存して適用] をクリックして変更を保存します。新しい特徴選択は [モデル] ペインの既存のドラフト モデルに適用されるほか、[学習] タブの [モデル] セクションのギャラリーを使用して作成する新しいドラフト モデルに適用されます。

  13. モデルに学習させます。[学習] タブの [学習] セクションで、[すべてを学習] をクリックして [選択を学習] を選択し、新しいオプションを使用してモデルに学習させます。[モデル] ペインで各分類器の結果を比較します。

  14. [モデル] ペインで最適なモデルを選択します。モデルをさらに改善できるか試すため、ハイパーパラメーターを変更してみます。まず、モデルを右クリックして [複製] を選択することで、モデルを複製します。その後、モデルの [概要] タブでハイパーパラメーターの設定を変更して試します。[学習] セクションで [すべてを学習] をクリックして [選択を学習] を選択し、新しいモデルに学習させます。

    試すべき設定と各種のアンサンブル モデル タイプの長所の詳細については、アンサンブル分類器を参照してください。

  15. 学習済みのモデルの完全なバージョンまたはコンパクトなバージョンをワークスペースにエクスポートできます。[分類学習器] タブで、[エクスポート] をクリックして [モデルのエクスポート] をクリックし、[モデルのエクスポート] を選択します。学習データを除外してコンパクトなモデルをエクスポートするには、[分類モデルのエクスポート] ダイアログ ボックスでチェック ボックスをクリアします。コンパクトなモデルも新しいデータの予測に使用できます。ダイアログ ボックスで [OK] をクリックすると、既定の変数名がそのまま使用されます。

  16. この分類器に学習をさせるためのコードを確認するため、[関数の生成] をクリックします。

このワークフローを使用すると、分類学習器で学習させることができる他のタイプの分類器を評価および比較できます。

選択したデータ セットに対して使用できる事前設定済みの最適化不可能な分類器モデルをすべて試すには、次のようにします。

  1. [学習] タブの [モデル] セクションで矢印をクリックして分類モデルのギャラリーを開きます。

  2. [開始] グループで [すべて] をクリックします。

    Option selected for training all available classifier types

  3. [学習] セクションで、[すべてを学習] をクリックして [すべてを学習] を選択します。

他の分類器のタイプについては、分類学習器アプリにおける分類モデルの学習を参照してください。

関連するトピック