普通の統計的分析となんか違うの?
この仮説の論証には普通の統計分析で十分でしょ。
ビッグデータを解析する場合の特有なポイントというのは、データ件数が莫大なこととかモデルの複雑さに起因する、計算量の発散への対処、ということになるので、基本は仮定を入れて計算量を下げるとか並列実行を可能にすることなんだよね
で、今回の場合はというと、件数は精々数千万〜億のオーダで仮説モデルも単純なので、この件で「ビッグデータ解析()」とか出る幕なし。
そもそも、数千万程度のデータ件数でビッグデータとか、その道のプロは間違っても言わないと思うけど。
余談:
真顔でビッグデータとか言う奴初めて見た。
見聞が狭いね。
Permalink | 記事への反応(1) | 14:04
ツイートシェア
その可能性も確かにある。 ここでデータなしで議論しても仕方ないので、何かエビデンスとなるデータないの?という話。 国勢調査とか、住民基本台帳の各人データを、氏名住所をマス...
真顔でビッグデータとか言う奴初めて見た。 「ビッグデータ解析」ってなに…。普通の統計的分析となんか違うの?
普通の統計的分析となんか違うの? この仮説の論証には普通の統計分析で十分でしょ。 ビッグデータを解析する場合の特有なポイントというのは、データ件数が莫大なこととかモデ...
せつこ、それはデータマイニングや