2018-10-12

anond:20181012224310

AIによるスコアリングに偏りがあったこと、それが採用担当者による評価整合しなかった以上のことは言えないでしょ。

イデオロギー的に不都合というなら深読みしすぎかと。ブコメもそういうの多いけど。

  • 人種や家系と企業のフィット、差別の合理性があって、但し必ずしも文明とは相容れないってだけじゃないの 「正しい」統計処理をすれば望ましい結果以外あり得ないと言ってるみたい...

    • 意図としては、予測モデルが有効に機能するにはテストデータと訓練データとの乖離があってはならない、というごく当たり前の話をしたまで。 「正しい」統計処理以前の話。

      • 有効に機能していなかったという話なんだっけ? 推論とイデオロギーが整合しないので利用を中止したという話じゃなかったっけ?

        • 元記事は予測結果が偏ったということであって、予測結果がイデオロギーとか採用ポリシーと整合しなかったとは書いてない。 https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN

          • 現実と整合した推論が不都合と読めるんだが これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性から...

            • AIによるスコアリングに偏りがあったこと、それが採用担当者による評価と整合しなかった以上のことは言えないでしょ。 イデオロギー的に不都合というなら深読みしすぎかと。ブコメ...

              • 採用担当者による評価と整合しなかったとどこに書いてある? 全く逆だと思うんだが。 採用者と不採用者を与えてクラスタ分析させたら、被差別階級を不採用者と正しく分類し、不都合...

                • 正解。 この10年間の採用者のキャリアとスキルなどレジュメから読み取れるデータを、性別はブラインドした状態で学習データとして与えたと。 そこに女性のデータの与えて、採否を判...

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん