Main Content

バイナリ分類の公平性

バイナリ分類の公平性の調査

バイナリ分類の社会的バイアスを検出して軽減するには、Statistics and Machine Learning Toolbox™ の関数 fairnessMetricsfairnessWeights、および disparateImpactRemover を使用できます。まず、fairnessMetrics を使用して、バイアス メトリクスとグループ メトリクスを用いてデータ セットまたは分類モデルの公平性を評価します。その後、fairnessWeights を使用して観測値を再重み付けするか、disparateImpactRemover を使用してセンシティブ属性による差異の影響を除去します。

関数 fairnessWeights および disparateImpactRemover は、分類器の学習 (または再学習) の前に予測子データを調整できる前処理の手法を提供します。学習後のモデルの動作を評価するには、関数 fairnessMetrics や各種の解釈可能性関数を使用できます。詳細については、機械学習モデルの解釈を参照してください。

関数

fairnessMetricsBias and group metrics for a data set or classification model
reportGenerate fairness metrics report
plotPlot bar graph of fairness metric
fairnessWeightsReweight observations for fairness in binary classification
disparateImpactRemoverRemove disparate impact of sensitive attribute
transformTransform new predictor data to remove disparate impact

トピック