2022-10-03

anond:20221003195941

それはそう。予測とか生成をする分にはいいんだけど、モデル解釈性は全くない。統計的学習理論なんかも滅茶苦茶大雑把にこういう感じのデータ関数空間)はニューラルネットが有利とか言ってるだけだし、未来永劫何も分からんのじゃないかと思うわ。

まあ生成に関して言えば、ピカソダリがどういうロジックでああいう絵を描いたのか説明できんのかって言われたところで、美術史家が半分妄想みたいな理論をこねくり回して後から理由らしきものを捻り出すのがせいぜいなのと同じだろうと思う。予測はもうちょっと何とかなって欲しいけどなあ。

記事への反応 -
  • モザイクっぽい画像 + 謎の数式 + 「拡散モデルを使っているんだよ(おわり)」の文字 っていう組み合わせの解説をすげーよく見かける。 でもノイズをかけまくってから複合した...

    • 拡散の逆過程を学習してるんやで。 拡散過程は情報を失う過程なので逆過程は決定不能なわけだが、決定不能な中でも「拡散する前はこういう状態だったケースが多い」というパターン...

      • 呪文唱えて逆過程やらせたのが最終的に人間からみてあんま違和感ない形になる理由はなんなんや? なんとなく自分の中で迷ってる仮定は次の2つや A最終的に部分は一つの画像から復...

        • そういう細かいところがどうなって上手く行ってるのかは多分今のところ誰も分かってない(今後も分からなさそうな気が俺はする)。追ってないので分からんけど、なんか論文はある...

          • ニューラルネットワーク自体を人間が分かりやすい形で覗けないから擬似的にブラックボックスみたいになってるって感じか。

            • それはそう。予測とか生成はいいんだけど、モデルの解釈性は全くない。統計的学習理論なんかも滅茶苦茶大雑把にこういう感じのデータ(関数空間)はニューラルネットが有利とか言...

      • めっちゃわかりやすい まさにこれ

        • この解説増田きっと賢いんやろな 平易に説明できるってすごいよねえ

    • 格さんモデルがあるなら、助さんモデルもあるじゃろ・・・と思うくらいに時代劇脳。

    • ノイズを学習画像と結びつけてノイズを乱数の代わりにしてるんやで。だから呪文が同じでも結果が変わる

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん