このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
バイナリ分類の公平性
バイナリ分類の社会的バイアスを検出して軽減するには、Statistics and Machine Learning Toolbox™ の関数 fairnessMetrics
、fairnessWeights
、disparateImpactRemover
、および fairnessThresholder
を使用できます。まず、fairnessMetrics
を使用して、バイアス メトリクスとグループ メトリクスを用いてデータ セットまたは分類モデルの公平性を評価します。その後、fairnessWeights
を使用して観測値を再重み付けするか、disparateImpactRemover
を使用してセンシティブ属性による差異の影響を除去するか、fairnessThresholder
を使用して分類しきい値を最適化します。
関数 fairnessWeights
および disparateImpactRemover
は、分類器の学習 (または再学習) の前に予測子データを調整できる前処理の手法を提供します。関数 fairnessThresholder
は、学習済み分類器の予測境界近くのラベルを調整する後処理の手法を提供します。最終的なモデルの動作を評価するには、関数 fairnessMetrics
や各種の解釈可能性関数を使用できます。詳細については、機械学習モデルの解釈を参照してください。
関数
トピック
- バイナリ分類の公平性の紹介
関数
fairnessMetrics
、fairnessWeights
、disparateImpactRemover
、およびfairnessThresholder
を使用して、機械学習の社会的バイアスを検出して軽減する。
関連情報
- Explore Fairness Metrics for Credit Scoring Model (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Reweighting (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Disparate Impact Removal (Risk Management Toolbox)