2024-05-29

anond:20240529154622

そうじゃなくて、正規テストデータを作る場合はラベルバランスをある程度気をつけろという話だと思うが...

記事への反応 -
  • 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 大抵はclassification reportとかAUCを出力すればそれなりに評価は可能 内容分かってないでscikit learn弄って...

    • 分かるって何が?

      • F1の式とかやな

        • それ、classification reportって単語がわかってればF1の式をわかってる前提で話していると思わない?

          • 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 普通不均衡だしだからアキュラシーじゃなくてF1使うわけなのでね

            • そうじゃなくて、正規のテストデータを作る場合はラベルのバランスをある程度気をつけろという話だと思うが...

            • だからclassification reportを使えばF1出るだろ?

              • それ単なるライブラリの機能なので 何やってるか分かってれば 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ って言葉は出ないんですよ

                • 不均衡に関しては、テストデータを作る際のラベルの分量のバランスを気をつけろという話ね いくらAUCやF1で良い精度が出たと言っても、実データの分布で実用レベルの結果が出ないと...

                  • いやバランス弄ってテストデータ作ってる時点でテストデータじゃないから 実データを分けるんだよ

                    • お前、ホールドアウト分割したところで実用のテストにならんのまず理解してる? 訓練データの分布で話してるよねそれ

                      • だからバリデーションと分けるんだけど 謎のテストデータがどこかにあったら一回しか使えないだろ

                      • 君Kaggleしかやった事ないのでは? ブラックボックスのテストデータはプロダクションではあり得ないぞ あるとすれば新たに入ってくる生データ

                • ライブラリの機能にしろ、F1を出力することがわかってるなら、F1について事前知識があると考えるのが妥当である。

                • 横だけど、なんか相手を否定したいがために必死になってるのがわかりますなぁw コテハンに誹謗中傷すると訴えられるからほどほどにねw

                  • はいはい

                  • 評価の際には不均衡データではダメ は、まともにやったことある人なら完全におかしいのわかるけどね

                    • 訓練データの分布が、99%がTrueで1%がFalseってタイプのやつだとするだろ? それでそのまま評価するにしろ、F1を使うにしろ、実用の精度の評価は難しいんよ なぜって?「ほぼTrueでいける...

                      • それ「評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ」ってなりますかね?

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん