凸最適化になってるか(なってない場合に一般的に最適化をどう構成するか)とか、カーネル法で非線形に写像した嵜が気軽に"無限次元"とかいうけどどういう意味で無限なのか(例えばそもそもその"内積"は写像したさきの空間で完備化されてるのか、もっと言えば可分なヒルベルト空間でなければ高々可算個の直交基底の存在すら一般には言えないけど計算機で表現するときには有限次元で近似するわけでそのへんどうするのか)とか、そういう数学的に素性のいい空間での議論になってないと色々厳しい気が。(いや私もディイイイィィーーープラーーーーーニングは全然知らないのでそのへんどうなってるのか無知なんだけど)
「ええ!?そんなにメモリ/CPU(GPU)使っていいの!??????????」 って言うのがまず最初にあったし 古典機械学習(MLP以外)も同じくらいの数のパラメータを使わせたら同じ...
凸最適化になってるか(なってない場合に一般的に最適化をどう構成するか)とか、カーネル法で非線形に写像した嵜が気軽に"無限次元"とかいうけどどういう意味で無限なのか(例えばそも...
言ってること半分くらいしかわからんけどディーーーーープラーニングにそういう難しい理論は在っても無いものと同じくらいの精度しか出ない。