SEOが次にどうなっていくのかを考えてみた。
社内でSEOについて話しても
この繰り返しなので話が進まない。
ビックデータを扱う時に行うデータクレンジングを強化してスキーム化したものだと思ってる。
こんなのをいちいち手作業を基本としてやってたらコスト無限大なので
パンダアップデートはほんとどうても良くてこんなの対処できないウェブマスターとか
中規模以上のシステム担当者はチェンジしてもらったほうが世のためになる。
このレベルのウェブマスターに適当なこと吹き込んで状況を悪化させる
で、次にどうなっていくかを考えると
リアルタイムレコメンドの性質が強化されそう。パーソナライズとは関係ない。
これにセマンティック強化の流れがかみ合うと
それが検索結果にも同じく入ってくるのかと考えると
そんな顧客満足度を下げるような事はしない。
まずGoogleが定義した仕様の通りにサイトを作ること。W3CじゃなくてGoogle。
次にデータクレンジングのトレンドをリアルタイムに把握すること。
ようするにペンギンにやられないように先手を打つこと。
10とか20とかじゃ意味がなく、統計で使うので母数に最低1000は欲しい。
母数として利用で出来るサイトを抽出するのにさらに10倍以上のサイト数が必要。
技術に理解のない会社はデータマイニングをエクセルでやりたがるけど、無謀。
どんなにサイトをホワイトハットで言う所のクリーンな状態にしたって
検索結果の上位には表示されない。
キーワードの解釈され方の傾向を掴むのは統計じゃ出来ないのは必然。
どの状態であればGoogleから好意的に解釈されるかを意思決定するAIの出番なんだろうか?
先読みして何かする部類のものはないと思ってる。
ツールベンダーが多数出てきたり。