連載
» 2019年12月19日 05時00分 公開

AI・機械学習の用語辞典:公平性(Fairness、フェアネス)とは?

用語「公平性(Fairness)」について説明。機械学習モデルが不当な差別(人種差別/民族差別や、性別差別、文化差別/地域差別など)を引き起こさないように、不公平なバイアスを排除することを指す。

[一色政彦,デジタルアドバンテージ]
「AI・機械学習の用語辞典」のインデックス

連載目次

用語解説

 AI/機械学習(ML)における公平性Fairnessフェアネス)とは、不公平なバイアスに基づき学習した機械学習モデルが不当な差別(人種差別/民族差別や、性別差別、文化差別/地域差別など)を引き起こすケースがあるが、そのようにならないようにできるだけ不公平なバイアスを排除することである(図1)。

図1 「公平性」のイメージ 図1 「公平性」のイメージ

 なぜこのような用語が、わざわざ存在するのだろうか。それは次のような背景があるからだ。

背景

 機械学習技術をベースにしたAIシステムが社会実装されるにつれて、AI/機械学習が社会的な問題(特に倫理的な問題)を引き起こす事案が増えてきている。

 例えば、2016年3月にマイクロソフトにより公開された「Tay」というチャットボットは、次第に民族差別などのヘイトスピーチを行うようになった。Tayが複数のユーザーとの会話によって不適切に訓練されたためだ。Tayはマイクロソフトによって即刻停止されたが、人々に機械学習における「公平性」の大切さが強く意識されるきっかけとなった。これは人種差別/民族差別において公平性が保たれていない事例だ。

 他には2018年10月、Amazon.comによるAI(機械学習)採用エンジンが「女性」という語句を含むと減点するように学習してしまい、そのAIプロジェクトが廃止されたことが報道されている。これは性別差別において公平性が保たれていない事例である。

 また2018年7月に公開された論文によると、有名なデータセット「ImageNet」の45%以上は、世界人口のわずか4%である米国のものであることが指摘されている。このデータセットで学習した場合、例えば結婚式の花嫁衣装は米国と北インドでは大きく異なるために、米国の花嫁の写真は「花嫁」と正常に分類するが、北インドの花嫁は「コスチューム」と誤分類してしまうことが報告されている。これは文化差別/地域差別において公平性が保たれていない事例といえる。

 このように、公平性の問題は世界中で噴出しており、「この問題にどう対処すればよいか」が、近年、議論/話題となっている。例えば2019年12月には、日本における人工知能学会の倫理委員会が「機械学習と公平性に関する声明」を緊急的に公表し、大きな注目を集めている。

公平性を実現するために

 (主に人間による)不公平なバイアスは、例えばデータ収集時からデータのフィルタリング、ラベリング、学習結果のメトリクスなど、至る所に存在する可能性がある。もちろん「公平性を保つためにどこまでやるか」は、ケースバイケースで判断する必要がある。例えば先例の花嫁の写真は、できることなら世界中から公平に写真を収集した方がよい。もしそうできない場合には、「どのような地域のデータを基に学習した機械学習モデルなのか」といった情報をAI/機械学習の利用者に公開するなどして、AIシステムに関する説明責任を果たすべきである。つまり公平性を保つためには、「透明性」および「アカウンタビリティ」も大切なのである。

 ただし、公平性の実現は容易ではないので、今も議論が続いている。それだけに、AI/機械学習の関係者はその動向に注意し、公平性が保たれるように十分に留意しなければならない。

「AI・機械学習の用語辞典」のインデックス

AI・機械学習の用語辞典

Copyright© Digital Advantage Corp. All Rights Reserved.

編集部からのお知らせ

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。