AIの仕組み自体は人間の能力を遥かに超えたものかもしれないし、それによって社会の利便性を更に向上させるものであるかもしれないけれど、そのAIを設定するのは人間だということ。
その人間が男性優位社会で育ってくれば当然男性優位AIが爆誕するんだし、
リンクしたアマゾンの採用AIの件を含めて、機械学習の仕組みを理解してるとは思えない。AIに対する現状の理解として、この表現はありえない。
id:fujii_yuji 機械学習の仕組みをご存知ないようですね。Amazonのは過去データからそうなったのであって、設計者の思想が反映されたのではないでしょ。 > "当然男性優位AIが爆誕する(略)AIは一握りのエリートに偏ったエリート優位AI"
id:fujii_yuji さんは、概要を理解しておられる様に思える。ブコメを見る限りで言えば、はてなーの理解度は1割程度といった感じがするけど、本当はもうちょっといるかも。
機械は未だに設計に従って自発的に成長し新たな発明を行う様な、いわゆる、ひらめきは獲得していない。今のAIと呼ばれているものは、学習したデータを参考にして、入力されたデータに対して最適な分類を行うことが出来るという程度の物。
モーリス・コンティ: 直感を持った人工知能が生み出すすごい発明 | TED Talk
例えば、この動画を見て欲しい。オブジェクトを設計するコンピュータが行うのは、与えられたアルゴリズムに従って答えを出す事だけだ。どんな形にしたいのかという目的、どんな材料を使うのかという制約、それを与えられると、高い強度とより少ない重量で目的を達成しろという最適化問題を解く。結果として、その答えが人間が持つ常識を裏切る答えを出した事に対して「直感を持っている」と言っているにすぎない。アルゴリズムを作成した研究者には、常識的な設計を裏切る答えも、理解できるものであり納得のいく答えでしかなかったはずだ。
将棋の人工知能が行う計算とは何か?既存の棋譜を大量に予め学習し、現在進行中の将棋の盤面上で起こり得る可能性のある駒の配置パターンを1手1手進めながら、棋譜と照らし合わせ、一手ごとに勝ちやすさがどの程度高まっていくか?を計算する。研究者は、盤面に表れる駒の並びを、どの様に評価するのか?駒を動かすごとに増えていく全てのパターンから、どこまでを用いて、何を捨てるか、評価と選択を行うアルゴリズムを機械に与える。その結果として現れた奇想天外な一手も、研究者にとっては蓋然性の高い答えでしかない。(あくまで一般的な人工知能の話だが)
完全に想像でしかないが、アマゾンの採用AIは、10年分の採用者の履歴書の中から、学歴や経歴、職務内容、スキルなどの性別に依存しない情報と採用後の実績を学んだのではないか。研究者は馬鹿ではないから、初めから性別情報など使っているとは思えない。これまで採用した人物に男性が多かったことは間違いなく影響があったという事は言えるが、可能な限り男女ごとのサンプルサイズの差に引っ張られる事なく、性別には中立な結果を出すように、用いるべき学習データとアルゴリズムを設計していると予想する。それでも、性別を隠されたある個人の履歴書から採否を判定した時に男性優位の答えを出したのは、活躍する社員に男性が優位になる傾向があったということ。その現実がポリコレとの間で齟齬をきたした場合に、計算結果としては蓋然性の高い納得できるものでありながらも、不誠実な結果と言われてしまった研究者の悔しさはいかばかりだっただろうか?
女性が優位になる様にアルゴリズムを作り直すときに、自分は科学者として真実に背を向けた事を理解したはずだ。にもかかわらず、どれほど女性優位のバイアスをかけてもAIが正しい答えを求める以上は男性優位の結果は覆らない、とマネージャーが判断して、非難を避けるために開発を停止した時の、その悔しさは想像するに余りある。
この件で、改めて、ジェンダー論は滅びろと心から思った。科学者には、政治的正しさではなく、真実を追求させてくれ。科学とは時に残酷なほど正しいものだ。
steel_eel 日本語のニュースで書いてたか知らんが、英語の方でみたが『××女子大学』『女子××部部長』とかを低評価してたみたいで、わりとダイレクトに性別を他の手がかり(というほどでもないか?)から判断して下げてた模様。
情報ありがとうございます。徹夜明けでして、ソース未確認で書いてますので、適当な事をいいます。すみません。
もしも学習データに、女子○○部長、というデータが入っていた場合にマイナスにする様なアルゴリズムを入れていたとは考えにくいです。というのは、そうであれば性別そのものを負のファクターにする方が早いです。ですので、他の素因でマイナスにせざるを得ない(不採用だった、あるいは解雇したなど)人物と女子○○部長の情報が結びついてしまったのでしょう。つまり、現実の採用では女性である事をマイナスに評価せざるを得ない様な学習データになっている、それを修正しようと思うと、女性のデータそのものを学習データから除外するしかないですが、そんな事をすれば、アマゾンは女性の居ない世界を仮定しなければ女性は採用できないという、矛盾にぶつかってしまいますね。
これではなく、入力情報に女子という単語が入っている場合に直接マイナスした場合。前述の理由で性別そのものをマイナスにしたのと同等でしかなくなります。これなら修正は容易ですので、そうではないでしょう。おやすみなさい。
AIをみんな自分勝手に都合の良い存在・概念に捉えてるんじゃね、という意味では元増田の趣旨と何ら変わりはないと思うが、 まあ結局AIも「人間様のお気持ち」には絶対に勝てないって...
やっぱり今のAIは統計的手法との区別付かないなー 奈倉と柏木のどちらの文章か判別するAIは作れても、奈倉または柏木の書きそうな文章を作るのはまだ難しい 昔行った勉強会で聞いた...
付かないというか、流行りのディープラーニングは「統計ツールを画像に使ってみた」なので実際に統計。
今まで男が技術革新をしてきたのだから男が優位にされて当たり前じゃねーの
なんとか夫人っていなかったっけ。
もともと男女の応募数の割合と採用数の割合それぞれに環境的あるいは社の採用ポリシーによるジェンダーバイアスがあって、 予測モデルがそのとおりにスコアリングしたなら、結果的...
>>> 活躍する社員に男性が優位になる傾向があったということ。 <<< 「活躍できるポジション」がきちんと実力主義で男女平等に割り振られてれば成立するけど、 評価するの...
データだけじゃなく、実際の社風が不平等なんでしょ。AIは王様の写真を撮ってしまった。
いや、性別という特徴量と女子なんとか部長は別の情報だろ。 お前カグル何メダル?
要は「今まで人力で高く評価してきた人を機械に高く評価させる」だけだからバイアスはそのままだし、革新的な人材も見付けられないんだよなあ
つまり増田はAIが出した男の方が優秀という答えが真実だと言いたいの? 馬鹿か。ただのよくある学習データが使えない問題だろうが
「優秀(Amazon社員調べ)」じゃないの?
https://anond.hatelabo.jp/20181012235158 https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN プログラミングもAIも素人知識なんだけど 増田やブコメの流れに違和感が有るので。 予想イ: Amaz...
文章がへたでよく分からなかったけど どういった基準で人を採用しようとしたかが分からないとなんともいえないよ 「肉体的にタフで休みが少ない」みたいな条件があったらそりゃ男性...