2024-05-29

anond:20240529152919

ちゃん評価方法があるよ、じゃねぇんだよ

大抵はclassification reportとかAUCを出力すればそれなりに評価可能だろ、そんなのは常識レベルの話、お前の初心者知見など求めてない

記事への反応 -
  • 知ってたら100%とか十分なとかいう話にならんから

    • 知ってるから「100%なんて言うのは不毛だ」という話になったんだろ

      • 100%じゃないなんてのは当たり前の話でそんな話が出てくる事自体もうダメだし サンプル数より95か99かって話だしなんならバイナリなんだからデータ50・50じゃないだろうし色々ダ...

        • 100%じゃないなんてのは当たり前の話でそんな話が出てくる事自体もうダメだし 当たり前がわかってない奴が社内にいる状況で前提知識を揃えるという話ね サンプル数より95か99か...

          • まあ君の上司が完全に無知なのを君のせいにするのは確かに酷だが 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 不均衡でダメだと現場で使えないだろ...

            • ちゃんと評価の方法があるよ、じゃねぇんだよ 大抵はclassification reportとかAUCを出力すればそれなりに評価は可能だろ、そんなのは常識レベルの話、お前の初心者知見など求めてない

              • はいはいそうですね

              • 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 大抵はclassification reportとかAUCを出力すればそれなりに評価は可能 内容分かってないでscikit learn弄って...

                • 分かるって何が?

                  • F1の式とかやな

                    • それ、classification reportって単語がわかってればF1の式をわかってる前提で話していると思わない?

                      • 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 普通不均衡だしだからアキュラシーじゃなくてF1使うわけなのでね

                        • だからclassification reportを使えばF1出るだろ?

                          • それ単なるライブラリの機能なので 何やってるか分かってれば 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ って言葉は出ないんですよ

                            • 不均衡に関しては、テストデータを作る際のラベルの分量のバランスを気をつけろという話ね いくらAUCやF1で良い精度が出たと言っても、実データの分布で実用レベルの結果が出ないと...

                              • いやバランス弄ってテストデータ作ってる時点でテストデータじゃないから 実データを分けるんだよ

                                • お前、ホールドアウト分割したところで実用のテストにならんのまず理解してる? 訓練データの分布で話してるよねそれ

                            • ライブラリの機能にしろ、F1を出力することがわかってるなら、F1について事前知識があると考えるのが妥当である。

                            • 横だけど、なんか相手を否定したいがために必死になってるのがわかりますなぁw コテハンに誹謗中傷すると訴えられるからほどほどにねw

                              • はいはい

                              • 評価の際には不均衡データではダメ は、まともにやったことある人なら完全におかしいのわかるけどね

                                • 訓練データの分布が、99%がTrueで1%がFalseってタイプのやつだとするだろ? それでそのまま評価するにしろ、F1を使うにしろ、実用の精度の評価は難しいんよ なぜって?「ほぼTrueでいける...

                        • そうじゃなくて、正規のテストデータを作る場合はラベルのバランスをある程度気をつけろという話だと思うが...

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん