だから、100万件にするために、どんだけユーザー数が必要なの?
ユーザ数100人が たとえば1日10ツイートするとして 1000ツイート 100万件に達するのに 1000日 約3年
ユーザー数1000人なら 100日。
何が言いたいかというと、100日もかかるなら、バックアップタスク (たとえば5日ごとに分割)しても 1日あたりの件数はたかが知れてるから
余裕で持つだろ。という話。
ちなみに、100万件でもう崩壊しちゃうの? 数百万件ぐらいつっこんだことあるけど・・・このレベルは平気だよね?
Hadoop勉強するより先に、1万人のユーザーを集めることを先に考えたほうが良い。という話がしたかっただけ。
Hadoopを勉強する のが3ヶ月としても 3人月で人を雇うのと 3人月分の既存スペックのマシン+MySQLとどっちがいいか?というのは超微妙。
ユーザー数がたくさんいるなら、そのとおり。
テーブル分割やDB分割 サーバー分割が必要なのもそのとおり。
ただまぁ・・・単純な直列テーブルだけなら、やり方はいくらでもあるし、商用クラスをHadoopか?他の競合製品が出てこないか?というのは、しばらく様子見でしょ。
調べたけど、フェイルオーバー関連がまだ微妙な部分があって考えないといけないよね。
Google 自体が Hadoopのつかっていた、なんたらほうしきだっけ?やめて、次のアーキテクチャーにしました。ってレポでてるのに、次もHadoopか保証ないし。様子見。
益田では東大生のふりができるぞ
一人100人フォローしてるとすれば、ユーザー一万人ですでにその域。 ユーザーは気に入った発言をブックマークしたリストを複数持つことができる。この仕様を取り込むと?