AIも人種差別をする



NHKラジオを聴いていると、ショックな話題が流れてきました。

最近、日常でも少しずつ見かける機会もでてきた顔認識技術。
幼い頃からアニメなどでみてきた、未来の世界がとうとう始まったのね、とテンション上がっていましたがこれが人種差別につながるとして、アメリカで、この技術の使用を中止する動きが広がっているそうです。

肌の色の薄い男性の誤認率は1%以下なのに対し、肌の色の濃い女性の誤認率は3割を超えていたとのこと。
誤認率が高く、偏りのあるまま、この技術が社会で運用されてしまうと、誤認逮捕など人権侵害につながる恐れがあると考えられています。

(詳しくはリンク参照)
「顔認識技術を禁止せよ」 黒人差別を受けハイテク大手の対応は?
(1/3) - ITmedia ビジネスオンライン
https://www.itmedia.co.jp/business/articles/2006/17/news017.html


そもそもどうして、人種や性別でこんなに差が生まれるの?って話なんですが。
NHKラジオによるとサンプルデータをとるのに、顔認識技術を高めるためAIが学習したデータが明るい肌の男性、白人男性に偏っていたのではないかという指摘がありました。
実際、肌の色の濃い人、女性のサンプル数を増やすと、誤認率はさがったそうです。
この技術の開発者たちは、おそらく意識せずに、白人の、男性の、サンプルを多く集めていたのでしょう。

この話をきいた時、ゾッとしました。

想像もできないような計算をして人間には、なしえないような技術まで習得する可能性を持つAI。誰に対しても平等に働きそうなイメージなのに。
作った人の、無意識がそのままAIの学習するサンプルデータの比率となり、技術の誤認率にも反映されてしまうなんて、妙なところが人間臭くないですか。

私たちの「普通」という感覚や、差別意識は周りの環境、生まれ育った環境に大きく左右されます。
それは人間だけでなく、AIも。
学習したサンプルの偏りが技術の偏りにつながり、AIも人間同様、差別をするってわけです。

このニュースはBLMへのつながりについても言及していましたが、黒人だけでなく黄色人種だってそうだろうし、人種だけでなく身長・体重などその他の身体的特徴、嗜好についても、一歩マジョリティの輪から外れれば誰だって差別される可能性はありますよね。

感情に左右されなさそうなAIですら、差別の加害者になりうるってことを肝に銘じる必要を感じました。

この記事へのコメント