サテライトブログの階層構造は効果があるのか
アメブロ FC2 seesaa 忍者 Jugem Livedoorなど、無料ブログサービスがありますが、数が多ければ多いほど、どのブログからの被リンク効果が高かったか分かります。テキスト量 運営期間 更新頻度 どの位置からリンクを送ったか 関連性は高かったかなど、などを集計すれば、どのようなブログから、どのようにして被リンクを送ると効果が出るのかが推測できます。
データ量はできる限り多くする
検証する数は、多ければ多いほどしっかりしたデータが取れるのは言うまでもなく。期間をずらして再度同じ検証を繰り返すことも必要です。
あまりにも少ないデータ量ですと、確認したい項目以外の要素に影響されている可能性が大きくなってしまうので、SEO検証方法としては、数をこなすことは必須です。
グーグルのジョン・ミューラーの話では、
ページにあるリンクがそのページの品質を改善するときもある。しかし、人為的にやるような要因としてみなすようなものではないと考える。ページにリンクがあるからといって、それだけで必ずしも良いということにはならない。
「よく知られたサイトにリンクしているから、このコンテンツもすばらしいのだろう」と検索エンジンが判断してくれることを期待して、グーグルやウィキペディア、CNNにまずリンクを張る人たちを見たことがある。
グーグルは、絶対にそうした評価をすることはない。
有名サイトにリンクすることで、ページに価値を加えることはできるかもしれない。しかし、単にリンクしただけで突然品質が高く評価されるなんてことはないと、断言しています。
「権威があるサイト(グーグルやウィキペディアなど)にリンクすると、リンクしたページの評価が上がる」というのは、古くからSEOに取り組んでいた人なら聞いたことがあるかもしれない。しかし、それが順位に大きな影響があるというのはまったくの間違いだと、さすがに気付いているはずだ。
いわゆる“SEO都市伝説”の1つだと言えるでしょう。
毎日数万ページ更新されるような大規模なサイトや、画像や音声がメインコンテンツになるような特殊なサイト以外は、小手先のSEO対策にいちいち反応しなくてもいい、あるいは、これから2~3年のうちには反応しなくてよくなるだろう。
今では、より使いやすいページレイアウトにすることなど、本当にユーザーが満足するような大規模な改修が、検索エンジンからの評価を上げるために一番効果的な施策です。
Googleが公式発表した30以上の仕様変更のうち、99%のサイトの中の人が気にするべきは2つ「スマホ対応」と「ローカル情報の重視」
通常のサイトのWeb担当者やWebメディアの関係者は、情報を1つずつ積み重ねることと、その情報をソーシャルなど検索以外の方法でも多く見てもらえるよう考えることに専念する。
今は慌てずに、自分のサイトが提供する価値を高めることだけを考えるのが一番
Mozのサイラス・シェパード氏が、ツイッターでフォロワーに次のように問いかけた。
都市伝説
- 2~3週間おきにページを修正して新しい状態に保ち続けると上位表示できる(更新頻度が高ければそれだけで評価が上がる)
- SEOはいったん完了してしまえばそれで終わりで、良い状態がずっと続く
- meta keywordsタグには◯個のキーワードを設定する
- リンクの否認ツールは使いものにならない
- (ツールバーの)PageRankを気にかける
- rel=”canonical”を完全に信頼する
- グーグルは有名ブランドを優遇している
- 同じサイトから2本以上のリンクを獲得しても価値がない
- キーワード出現率を考える
- 質が低いリンクはすべて否認しなければならない
- PPC広告を出稿すると順位が上がる
- YouTube動画を掲載すると順位が上がる
- 検索順位だけが重要な成功指標
- 検索順位を上げるためにHTTPSへ移行しなければならない
- 構造化データでマークアップすれば自動的に必ず検索結果やナレッジグラフに反映される
- 素晴らしいコンテンツを作ればそれだけで十分
- グーグルの口から発せられたSEOの情報はすべて真実
- いかなる方法でも、ユーザーの訪問やエンゲージメントのデータをグーグルは検索品質向上のために使っていない
- グーグルには200のランキング指標があって、自分はそれをすべて知っている
- 重複コンテンツはペナルティを受ける
どれも正しくないSEOだ。信じてはいけない。