2023-11-07

普通の子に幼少から英語教育は悪で決定

みんな大好きChatGPTの原理であるLLM(大規模言語モデル)ですが、人の脳もこれと同じなんですよ

では考えてみましょう

LLM(大規模言語モデル)のデータを蓄積するための入力

1 日本語のみでやった場合

2 日本語英語の両方でやった場合

どちらが性能がよくなりますか?

そりゃ普通の子はもちろん1ですよね

1の場合は100のデータ量、2の場合は50と50のデータ量なんですから、100と50じゃ全然違います

じゃあ200のデータ量にすれば100と100では?

そもそも普通の子が200もデータ貯められますか?という話になります

からこそ「"普通の子"に幼少から英語教育は悪で決定」です

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん