バイナリ分類の公平性
バイナリ分類の公平性の調査
バイナリ分類の社会的バイアスを検出して軽減するには、Statistics and Machine Learning Toolbox™ の関数 fairnessMetrics
、fairnessWeights
、および disparateImpactRemover
を使用できます。まず、fairnessMetrics
を使用して、バイアス メトリクスとグループ メトリクスを用いてデータ セットまたは分類モデルの公平性を評価します。その後、fairnessWeights
を使用して観測値を再重み付けするか、disparateImpactRemover
を使用してセンシティブ属性による差異の影響を除去します。
関数 fairnessWeights
および disparateImpactRemover
は、分類器の学習 (または再学習) の前に予測子データを調整できる前処理の手法を提供します。学習後のモデルの動作を評価するには、関数 fairnessMetrics
や各種の解釈可能性関数を使用できます。詳細については、機械学習モデルの解釈を参照してください。
関数
fairnessMetrics | Bias and group metrics for a data set or classification model |
report | Generate fairness metrics report |
plot | Plot bar graph of fairness metric |
fairnessWeights | Reweight observations for fairness in binary classification |
disparateImpactRemover | Remove disparate impact of sensitive attribute |
transform | Transform new predictor data to remove disparate impact |
トピック
- Introduction to Fairness in Binary Classification
Detect and mitigate societal bias in machine learning by using the
fairnessMetrics
,fairnessWeights
, anddisparateImpactRemover
functions.
関連情報
- Explore Fairness Metrics for Credit Scoring Model (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Reweighting (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Disparate Impact Removal (Risk Management Toolbox)