2019年6月8日土曜日

【第141回】人工知能は人間を偏見や差別から解放してくるのか?

 ~ 東大入学式の祝辞を聞いて ~

【第141回】トゥルースの視線

今年4月12日東京大学入学式で上野千鶴子氏(東大名誉教授・NPO法人ウィメンズアクションネットワーク理事長)が行った祝辞が賛否両論含め話題となりました。


一連の医大入試における女子学生と浪人生の差別に触れ、各種データにより女子受験生の偏差値の方が男子受験生よりも高いことが証明されているのにも関わらず、東大では女性比率が「2割の壁」を越えていないこと、4年制大学進学率が女子の方が7%も低いことを指摘しています。そして、「これまであなたたちが過ごしてきた学校は、タテマエ平等の社会でした。偏差値競争に男女別はありません。ですが、大学に入る時点ですでに隠れた性差別が始まっています。社会に出れば、もっとあからさまな性差別が横行しています。東京大学もまた、残念ながらその例のひとつです」と述べ、「あなたたちはがんばれば報われる、と思ってここまで来たはずです。ですが、冒頭で不正入試に触れたとおり、がんばってもそれが公正に報われない社会があなたたちを待っています。そしてがんばったら報われるとあなたがたが思えることそのものが、あなたがたの努力の成果ではなく、環境のおかげだったこと忘れないようにしてください」と入学者に厳しい言葉を投げかけます。

2018年12月に世界経済フォーラムが発表した経済・教育・健康・政治の4分野のデータから各国における男女格差を測る「ジェンダー・ギャップ指数」において、日本の順位は149か国中110位であることを考えると、様々な発言で物議をかもしてきた上野氏ですが、氏が指摘する日本にまだまだ残る男女差別の現状は極論と言うことはできません。日本が解決しなければならない、重要な問題の一つです。

男女差別だけではなく、世界には人種差別、民族差別、宗教差別、障害者差別、年齢差別、学力差別…多種多様な差別が存在します。「偏見(バイアス)」が差別を生みます。私たちの心には、自分でも気づかない「偏見」が存在しているのではないでしょうか? 当然、私自身の心にも。ある特定の社会や文化、生活習慣、人種、民族の中で育っている限り、偏見からは逃れられないような気もします。では、人工知能(AI)に様々な判断を委ねれば、偏見から解放されるのでしょうか?

2017年の世界的講演会「TED Conference」で、キャシー・オニール氏(ハーバード大学で数学の博士号を取得。 バーナードカレッジ教授を経て企業に転職し、アルゴリズム作成などに従事)は、「アルゴリズムを作るときに必要なものが2つあります。データすなわち過去の記録と、人が追い求める『成功』を定義する基準です。そして、観察と理解を通してアルゴリズムを訓練します。 アルゴリズムに成功と関係する要素を理解させるためです」と切り出します。彼女自身が料理するときの成功の基準は、子供たち野菜を食べることであることを例とし、「アルゴリズムとはプログラムに書き込まれた『意見』なのです。人々はアルゴリズムが客観的で正しく科学的なものと思っていますが、それはマーケティング上のトリックです」と警告します。

具体例として、ある大企業が人材採用プロセスを機械学習アルゴリズムに変えたら、まず女性は除外されるだろうと推測しています。なぜなら過去において女性が社内で活躍してきたようには見えないから。米国の多くの市町では深刻な人種差別があり、警察の活動や司法制度のデータが偏っている事実があり、「再犯リスク」アルゴリズムでは同じ犯罪でも黒人の方が白人よりも危険度が高く評価され、結果として刑期が長くなる傾向があるというのです。

オニール氏は、「バイアス(偏見)があるのは私たちで、どんなデータを集め選ぶかによって、そのバイアスをアルゴリズムに注入しているのです」と言います。そして、『アルゴリズム監査』の必要を説き、「私たちデータサイエンティストが真実を決めるべきではありません。私たちはもっと広い社会に生じる倫理的な議論を解釈する存在であるべきです。この状況は数学のテストではなく政治闘争なのです。専制君主のようなアルゴリズムに対して、私たちは説明を求める必要があります。ビッグデータを盲信する時代は終わらせるべきです」と。

人工知能は『倫理問題からの解放』カードを私たちにくれたりしません。つまり、私たちは人間としての価値観や倫理感をよりしっかり持たねばなりません。
― ゼイナップ・トゥフェックチー(テクノ社会学者、ハーバード大学バークマン・センター准教員) ―


トゥルースアカデミー代表 中島晃芳

トゥルースアカデミー
http://truth-academy.co.jp/