2024-05-29

anond:20240529155027

ん?

ベルの「バランス」って?

手動で合わせるの?

  • 分かるって何が?

    • F1の式とかやな

      • それ、classification reportって単語がわかってればF1の式をわかってる前提で話していると思わない?

        • 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 普通不均衡だしだからアキュラシーじゃなくてF1使うわけなのでね

          • そうじゃなくて、正規のテストデータを作る場合はラベルのバランスをある程度気をつけろという話だと思うが...

          • だからclassification reportを使えばF1出るだろ?

            • それ単なるライブラリの機能なので 何やってるか分かってれば 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ って言葉は出ないんですよ

              • 不均衡に関しては、テストデータを作る際のラベルの分量のバランスを気をつけろという話ね いくらAUCやF1で良い精度が出たと言っても、実データの分布で実用レベルの結果が出ないと...

                • いやバランス弄ってテストデータ作ってる時点でテストデータじゃないから 実データを分けるんだよ

                  • お前、ホールドアウト分割したところで実用のテストにならんのまず理解してる? 訓練データの分布で話してるよねそれ

                    • だからバリデーションと分けるんだけど 謎のテストデータがどこかにあったら一回しか使えないだろ

                      • コンペみたいにリーダーボードで評価するようにするんだよ、知らんのか? テストデータを「1回しか利用できない」なんてことはなく、ラベルを開発者にバラさなければいい

                    • 君Kaggleしかやった事ないのでは? ブラックボックスのテストデータはプロダクションではあり得ないぞ あるとすれば新たに入ってくる生データ

                      • ブラックボックスのテストがありえない?何いってんだお前? むしろブラックボックス以外のテストはできないだろ、頭おかしいのか? 開発者がテストデータのラベルを見れる時点で、...

              • ライブラリの機能にしろ、F1を出力することがわかってるなら、F1について事前知識があると考えるのが妥当である。

              • 横だけど、なんか相手を否定したいがために必死になってるのがわかりますなぁw コテハンに誹謗中傷すると訴えられるからほどほどにねw

                • はいはい

                • 評価の際には不均衡データではダメ は、まともにやったことある人なら完全におかしいのわかるけどね

                  • 訓練データの分布が、99%がTrueで1%がFalseってタイプのやつだとするだろ? それでそのまま評価するにしろ、F1を使うにしろ、実用の精度の評価は難しいんよ なぜって?「ほぼTrueでいける...

                    • それ「評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ」ってなりますかね?

                      • 「わかりきった話」という言葉のチョイスは間違えたかも知れないが、テストデータが不均衡だと不都合すると言いたかった

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん