SitePoint: New Articles, Fresh Thinking for Web Developers and Designers |
Net Applicationsの報告によれば2009年2月における世界の検索エンジンのシェアはGoogleが81.57%でトップ、次いでYahooが10.07%、3位がMSNの2.97%となっている。この1年間でGoogleがじわじわとシェアを伸ばし、Yahoo!とMSNがシェアを落とすという傾向が続いている。地域差が大きいため日本で同様の傾向にあるかは不明瞭だが、Googleが検索サービス市場において無視できない支配的なシェアを確保し続けていることは間違いない。
主要な検索エンジンはそれぞれがSEOのサポートを実施している。検索にヒットしやすいように適切なコンテンツを作成するように情報を提供している。Googleは検索機能自身がもっとも優れたコンテンツを探し出すため明示的なSEOは必要なく、内容を考えて優れたものにすることこそが最良のSEOだと説明しているが、「Google's Search Engine Optimization Starter Guide [PDF]」を提供するなど当然ならがSEOサポートも実施している。
圧倒的なシェアを考えると、Google検索に対するSEOはもっとも効果が得られやすいということになる(Net Applicationsの公開しているデータは世界市場のもので、日本市場が必ずしも同じ状況になるかはわからない)。そこでMihaela Lica氏がSitePointに掲載したHow Google Really Wants You to Optimize Your Siteをチェックしたい。Google ModeratorのAsk a Google engineerに寄せられた質問や、これまで公開されたGoogle SEO情報をまとめた内容になっている。Google SEOを検討するうえで有益な記事だ。
How Google Really Wants You to Optimize Your Siteで紹介されている内容で特に興味深い部分を簡単にまとめると次のとおり。
- 好ましいURLスタイルは重要な方から順に『long-haired-dogs.html』『long_haired_dogs.html』『longhaireddogs.html』のようになる
- GoogleではTrustRankは使っておらず、むしろそうした効果がでないように抑制している
- 有料リンクやテキストリンク広告は自動的に見つけ出してランキングに反映させている
- 重複するコンテンツに関しても処理をおこなっている
重複するコンテンツは頭の痛い問題だ。いくつかのCMSはひとつのコンテンツに対して複数のURLを生成する(たとえば検索結果から飛ぶURLと、トップページからリンクをたどるURLなど)。またコンテンツスクラップされることで重複コンテンツが生まれることもある。こうした重複コンテンツのペナルティを受けてランキングが下がっているのではないかと考えるユーザは少なくない。これに対するGoogleの取り組みや有効な対策は次のようなものだと紹介されている。
〔ドメイン内重複コンテンツ〕
- レギュラーページと印刷ページ: どちらかが検索では表示される
- CMSが生成する複数URL: もっともベストと考えられるURLが使われる
- アクセスを稼ぐために故意に重複させたと考えられるコンテンツ: インデックスやランキングを調整して対処している
〔クロスドメイン重複コンテンツ〕
- コンテンツスクラップは自動的に検出して対処している。コンテンツスクラップの方がランキングが上位に来ている場合、Robots.txtでアクセスを拒否していないか、Googleのコンテンツガイドラインに違反していないか、またはSitemapsのチェックなどを実施してみてほしい
- 同時掲載をした場合でオリジナルのランキングをあげたい場合、オリジナルサイトへのリンクをほかのページに掲載するようにすればよい
- より人気の高いサイトにコンテンツスクラップされてしまったら、GoogleにDMCAリクエストを申請する
Mihaela Lica氏は記事の最後で、結局のところコンテンツはコピーしない方がよいだろうと意見を述べている。