機械学習の記事を検索して読んでいるが、色んなアーキテクチャがあるのはわかるが、各部品の必要性がよくわからない。
Transformerあたりから、なんかいきなり構造変わってさっぱり。
より広い範囲の文脈を見ているというのであれば、単にデータひっぱってくればいいだけじゃね?と思ってしまう。
あとGPUで処理するのもよくわからない。
グラフィック処理するためのハードだから、頂点シェーダー、ラスタライザーなどは入っていると思うが、AIの時に使っているパイプラインが全然わからん。
ニューラルネットの構造通りにGPU内を組み替えてるのか?
GPUの演算器の個数からニューラルネットの構成決めりゃ無駄がないように思うが、そういったのを見たことがない。
Permalink | 記事への反応(1) | 17:33
ツイートシェア
より広い範囲の文脈を見ているというのであれば、単にデータひっぱってくればいいだけじゃね? それがまさしくトランスフォーマー、ってか自己注意機構 再帰型接続みたいな洒落...