みんな大好きChatGPTの原理であるLLM(大規模言語モデル)ですが、人の脳もこれと同じなんですよ
では考えてみましょう
LLM(大規模言語モデル)のデータを蓄積するための入力を
1 日本語のみでやった場合
2 日本語と英語の両方でやった場合
どちらが性能がよくなりますか?
そりゃ普通の子はもちろん1ですよね
1の場合は100のデータ量、2の場合は50と50のデータ量なんですから、100と50じゃ全然違います
じゃあ200のデータ量にすれば100と100では?
そもそも普通の子が200もデータ貯められますか?という話になります
だからこそ「"普通の子"に幼少からの英語教育は悪で決定」です
Permalink | 記事への反応(1) | 14:02
ツイートシェア
専門校とか作った方がいいかもね