米IBM、機械学習における学習バイアス対策ツール「AI Fairness 360」をオープンソースで公開
米IBMは9月19日、AIの学習に使われるデータセットの偏りを調査するためのオープンソースツールキット「AI Fairness 360(AIF360)」を発表した。データセットや機械学習モデルに意図しないバイアスが含まれていないかをチェックできるという。
機械学習の利用が進む一方で、機械学習のトレーニングに使われるデータセットにバイアスがかかっている場合、導き出される結果がそれによって意図しないものになる可能性がある。AI Fairness 360(AIF360)はこの問題への対策を目指す。
初期のトレーニングからテスト、実装、とAIアプリケーションライフサイクル全体を通じて機械学習モデルにおけるバイアスの検証、報告、緩和を目指す。初期リリースとして公開したPythonパッケージは、30以上の指標、9種類の最先端のバイアス緩和アルゴリズムなどで構成される。アルゴリズムは、トレーニングデータにおけるバイアスを緩和する「Optimized Pre-processing」、予想におけるバイアスを緩和する「Reject Option Classification」「Equalized Odds Post-processing」など意図しないバイアスを緩和することを目的とする。いずれも標準的な方法で呼び出すことができる。
このほか、信用評価、医療費、顔の性別分類の3種類について、AIのバイアスに関するチュートリアルも公開している。
AI Fairness 360
http://aif360.mybluemix.net/?cm_mc_uid=85385815021115354015859&cm_mc_sid_50200000=45672461537481249230