1: 名無し
ティムニット・ゲブル氏は、米スタンフォード大学の有名な人工知能(AI)研究所の学生だった時代、米グーグルの街頭画像提供サービス「ストリートビュー」から集めた自動車の画像を基に、米国全土の人口統計を分析する研究を主導した。

AIによるこのアルゴリズム(問題を解決するための手順)は特定の地域の所得レベルや支持政党をある程度の精度で予測できたものの、人種や性別、社会経済的な偏見に影響を受けやすいものだったと、ゲブル氏は振り返る。また、犯罪者の再犯率を予測するコンピューターシステムが有色人種を差別していたとする、非営利報道機関「米プロパブリカ」の告発にも恐怖を覚えたという。

結果ゆがめる

「偏見という問題を考え始める必要があると気付いた」と語るゲブル氏は昨年初め、米マイクロソフトのプロジェクト「FATE」に加わった。3年前に設立された同プロジェクトは、AIシステムの開発に使用されるデータに潜む偏見と、それがいかにAIの出力結果をゆがめ得るかを明らかにすることを目指している。

企業や政府機関、病院は機械学習や画像認識などのAIツールへの依存を高めている。ローン査定から適切ながん治療法の決定に至るあらゆる場面で活用されているAIだが、特に女性やマイノリティーに影響を及ぼすという重大な弱点がある。「心配なのはAIが間違った判断を下した場合、誰かの人生や健康、経済的安定を左右しかねないということ」と、米コロンビア大学データ科学研究所のジャネット・ウィン所長は語る。

マイクロソフトや米IBM、カナダのトロント大学の研究者らは2011年から、公平なAIシステムの必要性を認識していた。AIによる美人コンテストが白人をひいきした事例などが物議を醸す中、今や業界の良識派はこの偏見問題に真剣に取り組んでいる。昨年12月に開催された機械学習分野の国際会議NIPSにおいても主要な議題となった。

AIは与えられたデータ以上に賢くはなれない。画像から犬種を判断するコンピューターモデルをプログラマーが構築するとしよう。プログラマーはまず、犬種名でタグ付けした犬の画像でアルゴリズムを訓練した後、タグ無しの個々の犬の画像でシステムを検証する。訓練データから学んだことを基に犬種を正しく特定できたかどうかをプログラマーが考察し、微調整していく。

アルゴリズムは学習と改良を重ね、時間とともにデータの精度も向上するはずだと期待されている。ただし、それは偏見が介入しなければの話だ。

偏見はさまざまな形で表れる。訓練データに多様性が不足していると、ソフトウエアは自らが知っている情報を基に推測するしかない。15年には、訓練データに黒人が不足していたグーグルのAIが、黒人をゴリラと認識する失敗を犯した。一方でデータが現実を正しく反映していても、やはりアルゴリズムが誤った答えを出す場合もある。男性看護師のサンプル数の少なさから、特定の画像や文章内の看護師を間違って女性と類推するのがその例だ。
以下ソース
2018.3.6 06:01
https://www.sankeibiz.jp/business/news/180306/bsj1803060601007-n1.htm

13: 名無し
>>1
https://news.yahoo.co.jp/polls/domestic/33543/result
出生前診断に関する世論調査です・・・参考までに

AIだったらどんな答えを出すんだろう?

2: 名無し
金正恩は電話機の機種名

3: 名無し
aiの手本が人間である以上無理やろ

4: 名無し
性別、年齢、年収、地域、人種による、偏りが統計により実証される時代か

現実(統計)と理想(こうありたい状態)との葛藤が、これからの人類の課題だろうな

5: 名無し
まさるは木を切るマサルは勝つ勝はメス乙女秋田犬

6: 名無し
AIが中国共産党を批判 → AIを再教育 →「やっぱり一党独裁は…」
AIが性別や人種によって差別 → AIを改良 →「やっぱりポリコレ勢力は…」

7: 名無し
差別(偏見)と区別の差が曖昧なんだものね
区別(≒差別)ができないなら、白人も黒人も見分けが付かないし、ゴリラや猿はもちろん他の動物と人間と見分けも付かない

発展途上段階では仕方ない
むしろ無邪気な子供くらいに見守る必要がある

8: 名無し
「〇〇には✕✕が多い」とか言うのが統計的には正しいのに政治的にはそう見なしてはダメと言うのがまかり通ってるということだ。

10: 名無し
AIに理想を求め過ぎ

11: 名無し
AI=白雪姫の魔女の鏡

19: 名無し
>>11
わかりやすい

26: 名無し
>>11
ふむ

12: 名無し
男と女を間違える感じなんだな
それでも使いどころはあるんだから見極めて使っていけばいいか
完全自動でないとAIを使いこなせないヤツは時代に乗り遅れるわけか

14: 名無し
感情の無いAIに差別意識なんてあるわけないだろ
合理的だからやってんだよ
いつまでもお隣の国と仲良くとか言ってるほうが
歪んでる

16: 名無し
× 人種差別
〇 人種の違い(人種により差が有る)

※ 人種による能力差(運動、知識)、嘘ばかり言ってる人種、人種により色々

17: 名無し
偏見じゃなくて事実ってことじゃないの?

18: 名無し
差別的な思想を持っていても、
それを脳内に留めておくとか
秘密の日記帳に書いてる分には全然OK
気の知れた少数の仲間で他人に聞かれない超プライベートな場所で差別的な会話してもOK
ってことだけどね
思想統制とは違うのよね

20: 名無し
個人個人には当てはまるとは限らないのは変わらないのと、最終的に差別主義者の
都合の良いように判断するかは別だけどな。差別主義者も社会悪として差別することもあり得る。

21: 名無し
AIが正しいじゃないの!
※ 人種に差がある

22: 名無し
AIの判断のほうが真実を表してることもあるけどな
人権屋とか圧力団体の力で歪められてたり美醜の価値観そのものが白人至上主義になってたり元々の現実が歪んでる
アジア人や黒人を差別的に見てたりするのは現実もそういうふうに見てるってことを表してるだけでAIが間違ってるわけじゃない
良くも悪くもAIは現実の延長であって元が歪んでたらその歪みを大きく表示するだけのこと

23: 名無し
何が正しいかを公平に偏見なく決めることは出来ないだろ
AIが「正しい」かもしれんよ
我々は、差別や偏見は良くない!という偏見を正しいと信じてAIに押し付けるしかな;い

24: 名無し
性に差別あり、人種に差別あり、食べ物に差別あり、自然界というものは差別ありきが自然の理、差別は無くならないし無くしちゃいけない。
全てをレベルの低い人に合わせて作るのが差別のない世界だけど、それは進化を否定する行為だ。

30: 名無し
人もいろいろ、AIもいろいろ
現在は、人間同士が争い
未来は、AI同士が争う