連載
» 2019年12月05日 05時00分 公開

AI・機械学習の用語辞典:アカウンタビリティ(Accountability、説明責任)とは?

用語「アカウンタビリティ(Accountability)」について説明。ガバナンスと倫理の観点で、AIシステムの設計/実装の情報開示から結果/決定の説明までを行い、利害関係者に納得してもらう責任を指す。簡単に言うと、「AIシステムの挙動に対して、誰が/何が、責任を持つのか」を明らかにすること。

[一色政彦,デジタルアドバンテージ]
「AI・機械学習の用語辞典」のインデックス

連載目次

用語解説

 AI/機械学習システムにおけるアカウンタビリティAccountability、「説明責任」と訳されることが一般的)とは、ガバナンス(管理体制)と倫理の観点で、AIシステムの設計から実装に至るまでの情報を利害関係者(ステークホルダー)に開示し、出力結果や決定内容を説明する責任(法的な責任も含む)を果たし、その説明に対する理解と納得を、利害関係者から得る責務があることを指す。簡単に言うと、「AIシステムの挙動に対して、誰が/何が、責任を持つのか」を明らかにすることである(図1)。

 なお、日本語訳の「説明責任」という表現には注意が必要だ。これだけ読むと、「説明することに対しての責任」と読めてしまうので、「何かしら不祥事が起こったときに、単に釈明や謝罪をすることだ」と勘違いされてしまいがちである。不祥事のときだけではなく、いつでもAIシステムには説明責任があり、設計や実装の情報開示から結果や決定の説明までを行い、利害関係者に納得してもらう責任があるのだ。もし利害関係者(例えばAIの利用者)が納得しないのであれば、アカウンタビリティは果たせていないことになる(その結果によっては、法的な責任による金銭的な補償が必要になる可能性もある)。

図1 「アカウンタビリティ」のイメージ 図1 「アカウンタビリティ」のイメージ

 なぜこのような用語が、わざわざ存在するのだろうか。それは次のような背景があるからだ。

背景

 機械学習技術をベースにしたAIシステムが社会実装されるにつれて、AIが社会的な問題(特に倫理的な問題)を引き起こす事案が増えてきている。

 例えば、2016年3月にマイクロソフトにより公開された「Tay」というチャットボットは、次第にヘイトスピーチを行うようになった。Tayが複数のユーザーとの会話によって不適切に訓練されたためだ。この問題に対する責任は、誰に、もしくは何に、あるのだろうか? AIシステムそのものか? ヘイトスピーチを学ばせたユーザーたちか? AIシステムを作ったマイクロソフトか? この場合、マイクロソフトはアカウンタビリティを果たす必要がある。この例では、このような不適切な行動が行われないように事前に制御する機能を持たせるべきだったと、マイクロソフト自身の責任を問う声もあるが、Tayはマイクロソフトによって即刻停止された。

 アカウンタビリティは、AIの利用者の視点から見ると、「AIを利用する上で納得できる説明を求める権利」とも言えるだろう。裏を返せば、今のAIシステムには「納得できる説明を求めるための体制」がまだまだ十分ではないということである。AIを広く社会実装していくためにも、AIシステムのアカウンタビリティに対するニーズが高まっており、実際に世界中の国や組織でアカウンタビリティを含むAI倫理の規定や法整備が進められている(例えばEUのGDPRなど)。

アカウンタビリティを果たすために

 AIシステム(機械学習モデル)にアカウンタビリティを持たせるには、第一に、機械学習のプロセス全体や各工程内の内容に関して透明性が必要である。

 また、機械学習モデルは通常、ブラックボックであるものの、その予測結果や推定結果に至るプロセスが人間によって解釈できるように説明可能なAIになっていることが望ましい。

「AI・機械学習の用語辞典」のインデックス

AI・機械学習の用語辞典

Copyright© Digital Advantage Corp. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。