あらかじめ日本語を理解してる人でないと理解できない日本語文法と、
理系に実感が湧くように言うと、
回帰関数を2次、3次、4次…と複雑化して《過学習=オーバーフィット》したのが前者で
※ あらかじめ理解してる日本語=標本データに n次関数をむりやり当てはめてる状態
※ n次関数は西洋で発達した文法解析のメタファーだと思って欲しい
階層ベイジアンモデルのパラメータを MCMC でシミレーションして推定したのが後者というか…
前者でも、正則化項つけてリッジ回帰的な方向に持ってくことは可能かもしれないけど…