っていうタグを見かけた。
生成AI と現在普及してる「普通の」AI って何が違うんだろうね?
じゃあ違いはなにかって考えると結構難しくて、使われてるアルゴリズムだけに注目すると、言語モデルのTransformerは機械翻訳も使ってるし、Google検索をするときにも使われてる(BERT)。画像とかのDiffusion モデルは知らない。(今どうなったか知らないけど、Transformer の画像生成モデルが計算量少なくて結構いいかもみたいなのは聞いた。)
これらは少なくとも使い続けてきたし、生理的なキツさはなかった(翻訳家であったりはあったと思う。あと、自分は、物心ついたときからそこにあったからイマイチわからんってのもある)。
だからそこの違いってのは量的なものだと思うんだよね。量的な変化が質的な変化を生む(more is different )。
自分が、このエントリだけを学習させたとしても、その精度の低いモデルは生成AIとは言わないだろうし。
計算量だけを取ってきたりしても、モデルを蒸留させるとか、そもそもの計算効率の上昇とかで変わってきちゃうし。
どれが生成でどれが生成じゃないんだろうか?