サンプルのチョイスで結果に偏りを作れるってことで、運用する人間の政治に利用される運命だにゃー その点、アマゾンがこの情報を公開した事は啓蒙的と言えるかもな。
意図的に学習サンプルの偏りを入れたモデルは作れるけど、少なくともアマゾンのは想定していなかった結果でしょ。
うむ、彼らも想定外だったと思うにゃん。 私企業の内部システムだから、公表せず or もっとお為ごかしの公表という選択肢もあったと思うのだ。 だってAIをバブらせたい人が沢山いる昨...
良心的ではあるね。 うがった見方をすれば、AIの誤った運用を抑制するための教育的配慮にも見える。
というか何を「誤った運用」と判断するかという話にもなってくるな。 完全に世界の意見を正しくサンプリングできているデータが男性優位の偏見を内在しているとしたら、それを食わ...
最終的な審級は人間にあるのだと、もっと啓蒙されてほしい。
運用が正しいかどうかは当初の目的を遂行できているかどうかで決まる。 Amazonが取りやめたのもそういう理由。