“AI”は中立ではなく「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性 … 検証結果で見えてきた負の側面

1:レバニラ炒め ★:2019/02/21(木) 00:30:08.08 ID:TNX4PRCH9AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面
人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。
IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。
マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。
いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。
さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。
アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。
原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。
●学習データに基づくAI、正確で中立だとは限らない
システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。
するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。
「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。
社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。
アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。
「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。
「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。
※続きは下記のソースでご覧ください
![]()
マサチューセッツ工科大学のジョイ・ブォラムウィニ氏による調査では、米国の誰もが知る著名な黒人女性たちを、AIが「男性」と判定(同氏の動画から)
AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1 .
引用元スレタイ:【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(AERA)
そんなAIに性差の感情論なんて通用する訳ないでしょ
※ 見ておきたい記事 (外部リンク) : 2019/02/21 (木) 03:15:14 ID:niwaka



かんじょう抜きで適正に評価すると女性が劣るってだけのデータだろ
そゆこと
AIは正しい
そういうことだよね、AIは男女の差別なく公正に判断した結果を差別と言われちゃうのはAIは不服だろうw
aiってしょぼいシステムだな
機械が女を男に見間違いをする で、笑ってしまったわwwww
本質だと思うぞ
人間社会において評価される女は男と同等であることが求められ、男と見まがうほどであることが求められる
女らしさとは産むことにしか能の無い無能な容姿だから、評価される女性はそんな姿から離れようとする
だが女に作らせると、
特定の人材に偏りそうだけどなw
男を作ったのは女なのにな
それどころか現代のインフラ作ってるのは全部男やぞ
社会に出すなとまでは言わんが、訳わかんない下駄履かせようとすんなとは思う
それでいて「女性ならではの~」とか言っちゃったり頭沸いてるとしか思わん
こうですね
冗談でなくて、真面目にそのうちそういう記事が出てきそう。
競馬だって牡は斤量が重いのだから当然だ
斤量差は公平な勝負をさせるため
単純に競争のスタートラインをあわせるならそうかもしれんが
最大幸福を求めるなら役割分担が正しくない?
ネット関係あるの?
これが女がバ力だと言う理由だなw
>>11
www
人間がどんだけ心理的なバイアスで見ているかって話だよ
こういう差別をなくさないとな
差別という言葉で現実逃避。事実を受け入れろ
差別じゃないだろ。そのままを言っている。
女は矛盾の塊だ。
いや、さすがに朝鮮人というのは口が過ぎるぞ
嫌な男と認識 → 実際は女だった
ならば無理に機会均等にする行為は無駄を産むだけなのでは
なんてことを人間がしてきた結果
平均すると女性社員が低い成果しか上げられない
よってAIが女性性を低評価する
しかしそれは許されない
永遠に女性差別とされるのだ
だから無理矢理女性優遇設定を密かにするだろう
ポリコレはAIをもその毒牙に巻き込む
性別をマスクして評価したら男だらけになっちまう
絶対的に正しい価値観などない
そもそもAIの中立性とはなに?
AI大統領とか誕生しても結局人間の紐付きだろう
正確だわな。
ポリコレでも
インストールしとけよ
そんなAIが必要だな
何がそうさせるのか
左翼や頭でっかちな理想主義者は”結果の平等”が大好きなんでね?
知らんけど
もはや宗教やん
人類が嫌いってソフィアが言ってたじゃん
おまえら(人類)滅ぼすってさ
好き嫌いなんてないよw
ただの統計。
ただし、むき出しの冷酷な統計は、人間の幻想を破壊する。
本当に平等を目指しているならそんなもん不要やろ
女性がしている事というフィルターを通さなければその人間はただの性格の悪い嫌な奴でしかないということだ。
まともに聞くなよ、スルーが原則
しかしこいつらなんでかんでも女性差別に結びつけたがるなw
これは女嫌いになるわ
やはり人間は悪
AIは正確だが中立とは限らないってことだろ?言わせんな恥ずかしい
学習段階でバイアスかかっていてもそのまま成長するんだし
> 原因は、AIが学習したデータにあった。
> AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
> このモデルに基づいて新しいデータの仕分けなどの作業を行う。
> だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。
人間と一緒で、AIも偏った学習によって洗脳されるということなんかな
結局データインプットする人間の問題・・・・
男でも女でも出来る奴は出来るし出来ない奴は出来ない
単純に個人差だと思う
ただし産休だの寿退社だのを見越した企業側からの優劣なら分かる
でもそれを優劣としちゃうと女も働けって言ってる社会側としても都合が悪いんだろうな
AIガー
まだまだ金勘定、あとは単純作業くらいってことやね。
http://asahi.2ch.sc/test/read.cgi/newsplus/1550676608/
0. にわか日報 : 2019/02/21 (木) 03:15:14 ID:- ▼レスする
お気軽に(たまにシリアスに)一言どうぞ
最近思うんだが
女性の「真骨頂」とは
「男性を支える事にある」と思う
RPGで言えば補助呪文(スクルトとかバイキルトとか)を「覚える可能性のある」性別
「支えたい」・「信じたい」
そういう思いから、支えられた男性が力を限界以上に発揮し
仕事等で成果を出す
別に「愛」とか大層なものじゃなくても
職場で頑張ってる同僚に茶を入れてあげるとか
そういった小さな支えでも男性は力を出したりする
今はどうすかね
「パパ活」だの「婚活で求める人物像」だの
なんか男を「自分の暮らしを保証するロボット」みたいに思ってる方増えてませんかね
もちろんそういう価値観は一部だってのはわかってるんです
ただ、現代に於いてそういう価値観が
話として挙げられる機会が増えたのは事実だと思うんです
「支えよう」・「信じよう」
そういう思いが尊重されない時代と『認識されてしまう』
とても大事なことなのにね
なーんて
これも特亜の日本国民男女分断工作なのも知ってるんですけど
「パパ活」だって
実際大量検挙したら日本国籍の女性はそんなにいないかも知れない
「婚活で求める人物像」に於いて年収以外の項目を重視する女性も多いかも知れない
何が言いたいかというと
今回のトピックはつまるところ
「AIが男性より女性の方が劣っているという認識を示したこと」にあると思うんですが
所詮機械ですよ
「性別が持つ『特性』までは見抜けない」
だから「『能力』の優劣の話」で機械が勝敗を分けたとしても
女性にも女性にしか持ち得ない「特性」が存在する
それが現代に於いて活かされている機会が減ってしまっている
どうか職場などで思い詰めてたり
大変そうな男性を見かけたら声をかけてあげたり労ったりしてあげて下さい
去年の男性の自殺者数は約14000人です
それを減らす方法はいくつかありますが政府主導でやらなければいけない方法ばかりだ
「女性が持つ『特性』で救える男性の命もある」
それが言いたい訳です
女の言う中立は「男女を能力関係無しに同数雇用しろ」ということだからな
ただねー
長々書いておいてアレなんですけど
今の日本では
「男性を支える」女性の『特性』が活かせる土壌にないんですよ
あまりにも特亜の日本国民男女分断工作が上手くいってるおかげでね
支えられる男性も「他意」を勘ぐってしまう訳です
「この人俺に気があるんじゃないか」とか
「押したらイケる」とか誤解を招くんですよ
今の日本の土壌では結構不自然な行動になっちゃいますから
だから性犯罪が増える可能性もあって
つまり女性も
男性に迫られた時はっきり「NO」と言える「強さ」を持つ事が前提になる訳です
「強さ」と「女性の特性」を両方兼ね備えてる方は是非『支える力』で
男性を助けてあげて頂きたい
上から目線で申し訳ありませんでした
あと
アレだな
特定の男性を支える行動を取ると
職場だったら「えこひいき」と取る男性が多い職場もあるかも知れないな
なにしろ土壌が歪みまくってるから
それで疲れちゃう女性がいたら
「やるんじゃなかった」みたいになるのも困りもんだ
まー
ケースバイケースで
私も責任は持てない
偉そうに書いておいて恐縮ですが
ゴールドバーグパラダイムだろ
男は無意識のうちに女を低く見る
女「も」無意識のうちに女を低く見る
ってやつな
さも女が劣るように言ってる奴も多いが、採用側が思ってる以上に女性が不利になったからダメだと言ってるだけのことだけどな
AIの構築時にバイアスかけずに学習させた結果なのかどうか
学習途中でバイアスかけたら最終的な結論が出る前に欠陥品という形で封印される
そんなAIを下に見てる時点でAIにも人権をとか言い出す連中がいるってこと自体
どれだけ人間のエゴがヒドイかの証左となるな
これ人間の歴史をAIに置き換えたらよくわかる話じゃね?
って、なんだソースは朝日か…
女の発言や行動や能力を性別を伏せた状態で判断したら
ほとんどがダメ人間と判断されるんじゃないか?
女だから許されてることが許されなくなるわけで力仕事
できないし化粧とかやたら時間使ってるし。
女性にしかない優れた能力はたくさんあるのに
それを男性が要求したり評価するとセクハラや
差別になってしまうので評価対象から外される。
そうすると女性は男性に勝てる要素は0になる。
日本には女性議員が少ない!
にはAIはどんな判断するんだ?簡単だよね、
「国民投票で選ばれるのが議員です。」
日本には女性管理職が少ない!
に付いてはどんな解答するんだw
論理によって構築されたシステムのフィードバックを理想と感情で評価するならもはやゴールなど無い
ウーマン、ウマル、玉川。
テレ朝モーニングショー三役揃い組w
管理人さんヨロ。
女性の能力によるものなのかどうか、そこを検証してるのが現段階
多分女性に不利な結果が出たら握りつぶされそうだけど
他、NGワードはFCブログ準拠です。
あと、唐突に個人名や訳の分からない商品の宣伝等を書き込むのはダメです