現行のAIのほとんどは高々1つの事象にしかフォーカスしない。
というのも幾つもの事象を重ね合わせ人間のような総合的な思考を再現するとなると指数的にメモリや計算量が増えるからだ。
ディープラーニングが主流となった昨今。
深い階層でも誤差を算出できるようになり、より階層を増やして学習量も増やして、より精度の高いAIへと成長を続けてはいるものの、それだけのリソースを割けば1つの事象しか扱えないし、加えて高額な装置も必要となってくるので汎用化には向かない。
それでも一部の大規模なAIはネットを通して利用できるようになったのは喜ばしいことではある。
現行のAIがダメなのは、統計学から抜け出せないところにあるのではないか。
最終的にマシンパワーで大量のデータを統計的に処理すればそれなりの結果を返しますよということでしかない。
かといってそれより優れたAIを私が作れるわけではないのだが、AIが今のまま進化を続けても大規模化していくだけでシンギュラリティには程遠いと感じる。
AIはよしなにやってくれないからな 人間様のほうが、よしなにやってくれる
確かに…。人間の仕事を奪うといわれてるけどまだほんの一部だけだし。
Foundation modelsで検索して少し勉強しような。 https://arxiv.org/abs/2108.07258
助かる。 でもこれも幾つかを組み合わせただけで今までより使い勝手は良くなるが大規模化していくことに変わりはないしシンギュラリティは望めないな。
現在の流れとしては「どうも大規模化そのものが汎用人工知能か少なくとも汎用的な知的処理が備わっていると人間に感じられる要素を創発してる臭い」ということが分かりつつある感...
ロボットに五感を持たせてそこから得た情報から学習するようになればとりあえず人間を超えるのはそれほど難しくはなさそう。 今でさえ任意のモデルにおいては人間を超えてるからそ...
ハードが足枷になってる。 大容量の計算を瞬時にできればもっとエレガントな手法が生まれてる気がする。
少し前までそういって余裕こいてた絵師様とかが 例のAIでショック受けてたりするので そのショボサも近いうちに克服されるだろう