2018-10-12

機械学習は、まるで理解されていない

anond:20181012093212

AIの仕組み自体人間能力を遥かに超えたものかもしれないし、それによって社会利便性を更に向上させるものであるかもしれないけれど、そのAIを設定するのは人間だということ。

その人間男性優位社会で育ってくれば当然男性優位AI爆誕するんだし、

AIを扱う人間競争を勝ち抜いた一握りのエリートばかりだったら、

当然AIは一握りのエリートに偏ったエリート優位AIになるのだから

リンクしたアマゾン採用AIの件を含めて、機械学習の仕組みを理解してるとは思えない。AIに対する現状の理解として、この表現はありえない。

id:fujii_yuji 機械学習の仕組みをご存知ないようですね。Amazonのは過去データからそうなったのであって、設計者の思想が反映されたのではないでしょ。 > "当然男性優位AI爆誕する(略)AIは一握りのエリートに偏ったエリート優位AI"

id:fujii_yuji さんは、概要理解しておられる様に思える。ブコメを見る限りで言えば、はてなー理解度は1割程度といった感じがするけど、本当はもうちょっといるかも。

機械はひらめきは獲得していない。

機械は未だに設計に従って自発的に成長し新たな発明を行う様な、いわゆる、ひらめきは獲得していない。今のAIと呼ばれているものは、学習したデータを参考にして、入力されたデータに対して最適な分類を行うことが出来るという程度の物。

モーリス・コンティ: 直感を持った人工知能が生み出すすごい発明 | TED Talk

例えば、この動画を見て欲しい。オブジェクト設計するコンピュータが行うのは、与えられたアルゴリズムに従って答えを出す事だけだ。どんな形にしたいのかという目的、どんな材料を使うのかという制約、それを与えられると、高い強度とより少ない重量で目的を達成しろという最適化問題を解く。結果として、その答えが人間が持つ常識を裏切る答えを出した事に対して「直感を持っている」と言っているにすぎない。アルゴリズム作成した研究者には、常識的な設計を裏切る答えも、理解できるものであり納得のいく答えでしかなかったはずだ。

将棋人工知能が行う計算とは何か?既存棋譜を大量に予め学習し、現在進行中の将棋の盤面上で起こり得る可能性のある駒の配置パターンを1手1手進めながら、棋譜と照らし合わせ、一手ごとに勝ちやすさがどの程度高まっていくか?を計算する。研究者は、盤面に表れる駒の並びを、どの様に評価するのか?駒を動かすごとに増えていく全てのパターンから、どこまでを用いて、何を捨てるか、評価選択を行うアルゴリズム機械に与える。その結果として現れた奇想天外な一手も、研究者にとっては蓋然性の高い答えでしかない。(あくま一般的人工知能の話だが)

ポリコレ科学を歪める

完全に想像しかないが、アマゾン採用AIは、10年分の採用者の履歴書の中から学歴や経歴、職務内容、スキルなどの性別依存しない情報採用後の実績を学んだのではないか研究者馬鹿ではないから、初めから性別情報など使っているとは思えない。これまで採用した人物男性が多かったことは間違いなく影響があったという事は言えるが、可能な限り男女ごとのサンプルサイズの差に引っ張られる事なく、性別には中立な結果を出すように、用いるべき学習データアルゴリズム設計していると予想する。それでも、性別を隠されたある個人履歴書から採否を判定した時に男性優位の答えを出したのは、活躍する社員男性が優位になる傾向があったということ。その現実ポリコレとの間で齟齬をきたした場合に、計算結果としては蓋然性の高い納得できるものでありながらも、不誠実な結果と言われてしまった研究者の悔しさはいかばかりだっただろうか?

女性が優位になる様にアルゴリズムを作り直すときに、自分科学者として真実に背を向けた事を理解したはずだ。にもかかわらず、どれほど女性優位のバイアスをかけてもAIが正しい答えを求める以上は男性優位の結果は覆らない、とマネージャー判断して、非難を避けるために開発を停止した時の、その悔しさは想像するに余りある

この件で、改めて、ジェンダー論は滅びろと心から思った。科学者には、政治的正しさではなく、真実を追求させてくれ。科学とは時に残酷なほど正しいものだ。

修正、補足事項

steel_eel 日本語ニュースで書いてたか知らんが、英語の方でみたが『××女子大学』『女子××部部長』とかを低評価してたみたいで、わりとダイレクト性別を他の手がかり(というほどでもないか?)から判断して下げてた模様。

情報ありがとうございます徹夜明けでして、ソース未確認で書いてますので、適当な事をいいますすみません

もしも学習データに、女子○○部長、というデータが入っていた場合マイナスにする様なアルゴリズムを入れていたとは考えにくいです。というのは、そうであれば性別のものを負のファクターにする方が早いです。ですので、他の素因でマイナスにせざるを得ない(不採用だった、あるいは解雇したなど)人物女子○○部長情報が結びついてしまったのでしょう。つまり現実採用では女性である事をマイナス評価せざるを得ない様な学習データになっている、それを修正しようと思うと、女性データのもの学習データから除外するしかないですが、そんな事をすれば、アマゾン女性の居ない世界仮定しなければ女性採用できないという、矛盾にぶつかってしまますね。

これではなく、入力情報女子という単語が入っている場合に直接マイナスした場合。前述の理由性別のものマイナスにしたのと同等でしかなくなります。これなら修正は容易ですので、そうではないでしょう。おやすみなさい。

uncorrelated サンプル数ではなくサンプルサイズでお願いしま

サンプル数警察!!

ごめんなさい。ふざけました。修正させていただきます

  • anond:20181012235158

    AIをみんな自分勝手に都合の良い存在・概念に捉えてるんじゃね、という意味では元増田の趣旨と何ら変わりはないと思うが、 まあ結局AIも「人間様のお気持ち」には絶対に勝てないって...

  • anond:20181012235158

    やっぱり今のAIは統計的手法との区別付かないなー 奈倉と柏木のどちらの文章か判別するAIは作れても、奈倉または柏木の書きそうな文章を作るのはまだ難しい 昔行った勉強会で聞いた...

    • anond:20181013070430

      付かないというか、流行りのディープラーニングは「統計ツールを画像に使ってみた」なので実際に統計。

  • anond:20181012235158

    今まで男が技術革新をしてきたのだから男が優位にされて当たり前じゃねーの

  • anond:20181012235158

    もともと男女の応募数の割合と採用数の割合それぞれに環境的あるいは社の採用ポリシーによるジェンダーバイアスがあって、 予測モデルがそのとおりにスコアリングしたなら、結果的...

  • anond:20181012235158

    >>> 活躍する社員に男性が優位になる傾向があったということ。 <<< 「活躍できるポジション」がきちんと実力主義で男女平等に割り振られてれば成立するけど、 評価するの...

    • anond:20181013095310

      データだけじゃなく、実際の社風が不平等なんでしょ。AIは王様の写真を撮ってしまった。

  • anond:20181012235158

    いや、性別という特徴量と女子なんとか部長は別の情報だろ。 お前カグル何メダル?

  • anond:20181012235158

    要は「今まで人力で高く評価してきた人を機械に高く評価させる」だけだからバイアスはそのままだし、革新的な人材も見付けられないんだよなあ

  • anond:20181012235158

    つまり増田はAIが出した男の方が優秀という答えが真実だと言いたいの? 馬鹿か。ただのよくある学習データが使えない問題だろうが

  • 人材採用AIは男女差別AI 説。

    https://anond.hatelabo.jp/20181012235158 https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN プログラミングもAIも素人知識なんだけど 増田やブコメの流れに違和感が有るので。    予想イ: Amaz...

    • anond:20181013231644

      文章がへたでよく分からなかったけど どういった基準で人を採用しようとしたかが分からないとなんともいえないよ 「肉体的にタフで休みが少ない」みたいな条件があったらそりゃ男性...

記事への反応(ブックマークコメント)

アーカイブ ヘルプ
ログイン ユーザー登録
ようこそ ゲスト さん