たとえば数値を2倍にする関数は1が入力されたら2を出力、入力が2なら出力が4、入力が3なら出力が6というような動作をする
これをf(1)=2、f(2)=4、f(3)=6という風に書くとしよう
じゃあ逆にAIではf(1)=2、f(3)=6という理想的な入力と出力のセットを幾つか用意して後は補間して計算することになる
たとえばf(1)=2でf(3)=6というセットしか用意されてないならf(2)は2と6の中間でf(2)=4と補間した値を出力してみる
それがAIのやってる事
関数に対しての入力する数値・出力する数値が複数の場合の例としては足し算・掛け算を行う関数なんてのもある
f(1,2)に対しては1+2と1*2を計算してf(1,2)=(3,2)で、f(4,2)に対しては出力は4+2と4*2を計算してf(4,2)=(6,8)という風に行うのが
足し算・掛け算関数だとする
逆にAIではf(1,2)=(3,2)、f(4,2)=(6,8)、f(3,5)=(8,15)、f(7,3)=(10,21)という風に理想的な入力・出力の例が4つ与えられたら
f(5,4)に対してはf(5,4)=(9,16)くらいじゃねえかなって補間処理で求められたりする
実際のAIはこの入力と出力の値をめっちゃ多くして補間処理もすっげぇ工夫してはいる
例えば入力する値が10個で出力する値が20個ならf(1,2,1,2,4,4,1,5,2,3)=(1,1,1,3,4,5,6,7,1,2,3,1,1,2,1,1,1,1,3,3)みたいなfを考えたりする
でも関数の補間をやってるに過ぎないのは一番上の例と変わりない
最近関数補間の勉強をして、まとめたかったんだね わかる
「人間の思考なんて所詮は脳細胞上の電気信号にすぎない」とか言ってそう
元増田は「今やってるAI」と昔ながらの統計学の入門書に出てくる回帰分析の区別もついてないだろ。 それでネットに吹かしたこと書けるんだから、蛇を怖がらない何とやらだな。
横失 生成モデルがやってることなんて単純化すればただの補完では とんでもなく巨大なモデルをとんでもないお金かけて学習させるとすごい補完ができてしまったみたいなのが脅威なわ...
似たような考え方するならこんな主張もできてしまう。 プログラムは理論的には数学の枠組みで考えられる。数学は集合論で考えられる事が多い。 関数だって集合論では集合として考え...