このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
分類学習器を使用した最近傍分類器の学習
この例では、分類学習器アプリで最近傍分類器を構築する方法を示します。
MATLAB® で
fisheriris
データセットを読み込み、このデータセットに含まれている変数の一部を分類に使用するように定義します。fishertable = readtable("fisheriris.csv");
[アプリ] タブの [機械学習および深層学習] グループで [分類学習器] をクリックします。
[学習] タブの [ファイル] セクションで、[新規セッション]、[ワークスペースから] をクリックします。
[ワークスペースからの新規セッション] ダイアログ ボックスで、[データセット変数] のリストから table
fishertable
を選択します (必要な場合)。データ型に基づいて応答および予測子変数が選択されていることを確認します。花弁とがく片の長さおよび幅は予測子、種は分類対象の応答です。この例では、選択を変更しないでください。[セッションの開始] をクリックします。
データの散布図が作成されます。
散布図を使用して、どの変数が応答の予測に有用であるかを調べます。種と測定値の分布を可視化するため、X 軸と Y 軸の制御で別のオプションを選択します。種の色が最も明確に分離されるのはどの変数であるかを調べます。
選択した最近傍モデルに学習させるため、[学習] タブの [モデル] セクションで矢印をクリックして分類器のリストを展開してから [最近傍分類器] の [すべての KNN] をクリックします。次に、[学習] セクションで、[すべてを学習] をクリックして [すべてを学習] を選択します。
メモ
Parallel Computing Toolbox™ がある場合は、[並列の使用] ボタンが既定でオンになります。[すべてを学習] をクリックして [すべてを学習] または [選択を学習] を選択すると、ワーカーの並列プールが開きます。この間、ソフトウェアの対話的な操作はできません。プールが開いた後、モデルの学習を並列で実行しながらアプリの操作を続けることができます。
Parallel Computing Toolbox がない場合は、[すべてを学習] メニューの [バックグラウンド学習を使用] チェック ボックスが既定でオンになります。オプションを選択してモデルに学習させると、バックグラウンド プールが開きます。プールが開いた後、モデルの学習をバックグラウンドで実行しながらアプリの操作を続けることができます。
分類学習器で、ギャラリーの最近傍分類オプションごとに 1 つと既定の複雑な木のモデルの学習が行われます。最適なモデルの [精度 (検証)] スコアの概要がボックスに表示されます。また、最初の KNN モデル ([細かい KNN]) の検証の混同行列も表示されます。
メモ
検証により、結果に無作為性が導入されます。実際のモデルの検証結果は、この例に示されている結果と異なる場合があります。
モデルの結果を確認するには、[モデル] ペインでモデルを選択し、[概要] タブを調べます。このタブを開くには、[モデル] ペインの右上にある [選択したモデルの概要を開く] ボタンをクリックします。モデルの [概要] タブには、検証セットに対して計算された [学習結果] のメトリクスが表示されます。
選択したモデルについて、各クラスにおける予測の精度を調べます。[学習] タブの [プロットと結果] セクションで矢印をクリックしてギャラリーを開き、[検証結果] グループの [混同行列 (検証)] をクリックします。真のクラスと予測したクラスの結果が含まれている行列が表示されます。
残りの各モデルについて、[モデル] ペインでモデルを選択して検証の混同行列を開き、それらのモデルの結果を比較します。
[モデル] ペインで最適なモデルを選択します (最高のスコアがボックスで強調表示されます)。モデルを改善するため、異なる特徴量をモデルに含めます。予測力が低い特徴量を削除するとモデルを改善できるかどうか調べます。
まず、モデルを右クリックして [複製] を選択することで、最適なモデルを複製します。
次のいずれかの方法で、追加または除外する特徴量を調べます。
平行座標プロットを使用します。[学習] タブの [プロットと結果] セクションで矢印をクリックしてギャラリーを開き、[検証結果] グループの [平行座標] をクリックします。クラスを十分に分離する予測子を保持します。
モデルの [概要] タブで、学習時に使用する予測子を指定できます。[特徴選択] をクリックしてセクションを展開し、モデルから削除する予測子を指定します。
特徴ランク付けアルゴリズムを使用します。[学習] タブの [オプション] セクションで [特徴選択] をクリックします。[既定の特徴選択] タブで、使用する特徴ランク付けアルゴリズムと、最も高ランクの特徴からいくつの特徴を保持するかを指定します。使用する特徴の数は棒グラフで判断できます。
[保存して適用] をクリックして変更を保存します。新しい特徴選択は [モデル] ペインの既存のドラフト モデルに適用されるほか、[学習] タブの [モデル] セクションのギャラリーを使用して作成する新しいドラフト モデルに適用されます。
モデルに学習させます。[学習] タブの [学習] セクションで、[すべてを学習] をクリックして [選択を学習] を選択し、新しいオプションを使用してモデルに学習させます。[モデル] ペインで各分類器の結果を比較します。
[モデル] ペインで最適なモデルを選択します。モデルをさらに改善できるか試すため、ハイパーパラメーターを変更してみます。まず、モデルを右クリックして [複製] を選択することで、最適なモデルを複製します。その後、モデルの [概要] タブでハイパーパラメーターの設定を変更して試します。[学習] セクションで [すべてを学習] をクリックして [選択を学習] を選択し、新しいモデルに学習させます。各種の最近傍モデル タイプの長所と設定の詳細については、最近傍分類器を参照してください。
学習済みのモデルの完全なバージョンをワークスペースにエクスポートできます。[学習] タブで、[エクスポート] をクリックして [モデルのエクスポート] をクリックし、[モデルのエクスポート] を選択します。最近傍近似モデルには常に学習データが格納されるため、[分類モデルのエクスポート] ダイアログ ボックスで、学習データを含めるチェック ボックスは選択された状態で無効になっています。ダイアログ ボックスで [OK] をクリックすると、既定の変数名がそのまま使用されます。
この分類器に学習をさせるためのコードを確認するため、[関数の生成] をクリックします。
このワークフローを使用すると、分類学習器で学習させることができる他のタイプの分類器を評価および比較できます。
選択したデータセットに対して使用できる事前設定済みの最適化不可能な分類器モデルをすべて試すには、次のようにします。
[学習] タブの [モデル] セクションで矢印をクリックして分類モデルのギャラリーを開きます。
[開始] グループで [すべて] をクリックします。
[学習] セクションで、[すべてを学習] をクリックして [すべてを学習] を選択します。
他の分類器のタイプについては、分類学習器アプリにおける分類モデルの学習を参照してください。