尾原和啓さんの「アルゴリズムフェアネス」を読みました。本を読むまで、恥ずかしながらこのタイトルの意味がピンと来ませんでした。サブタイトルは「もっと自由に生きるために、僕たちが知るべきこと」です。
AIの発展には三段階あって、分析(Analysis)、予測(Prediction)、処方(Prescription)という段階がある。渋滞しているという道路状況の分析から始まって、渋滞しそうだという予測ができるようになる。そして、その予測をベースに信号を制御すれば、渋滞を緩和することができる。そんなイメージだ。ただ、渋滞の緩和させ方がアルゴリズムであるなら、そこに恣意性を持たせることで、ある人にとって利益を、逆にある人にとっては不利益を被らせることも可能になる。例えば、Googleの検索結果で恣意的に上位に出すものと、絶対に出さないものがあるとしたら・・・それがアルゴリズムフェアネス。
では、フェアネスっていったい何なのだろうか?というのが改めての問い。立場によって、あるいはケースによって、人々が感じるフェアネスは変わってくる。従来はそれを国家が決めていたわけだけど、AIが進展するにしたがって、実は国家に代わるGAFAなどのプラットフォーマーがこれを決めている側面もある。あるいはむしろそういう側面が大きくなってきている。例えば有名な中国の芝麻信用は信用スコアが高いことで色々な優遇が受けられる。もし、知らぬところで(不可解なアルゴリズムで)信用スコアが悪くなったら、本人の努力ではどうしようも無くなってしまうかもしれない。便利に使えば便利なものだけど、恣意的に運用されると何とも言えない怖さがある。しかも、相手は一企業。どこまで企業のフェアネスを信じて良いのか?もちろん、プラットフォーマーは自ら厳しく自分たちのフェアネスをチェックしているが、アルゴリズムによって、思わぬことが起こっているのも事実。例えば、AirBandBの出現によってパリはホームレスと犯罪が増えたといわれている。パリでは需要が多いため、住宅として貸すよりもエアビーに出した方が儲かる現実から、パリの家賃相場は3割増、とりわけ移民が多く住むようなエリアでは家賃が2倍になりホームレスが増えた。そして、犯罪率も上がった。エアビーは何かを意図してマッチングをしているわけではないけど、結果としてパリのホームレスと犯罪率が増えた。誰にとっての何がフェアネスなのか。
結局、我々にできることは、こうしたプラットフォーマーの現実を知り、アンフェアであると思えばそれを指摘し、改善されないようなら、別のプラットフォーマーに依存する。プラットフォーマーの独占も監視し、常にオルタナティブを用意しておくこと。プラットフォーマーを選択できる環境を用意しておくことなのではないかというのが、この本のメッセージだったのではないかと思いました。
[DATA]
今月の読書 2冊
1月からの読書18冊