sitemap.xmlとrobots.txtの設置

SEO的には見える所だけではなく、見えないところの対策も必要です。サイトの中にどういうページがあるかというリストや、サイト内で検索ロボットがどういう風に動くか、という事を伝えるための対策があります。

まず、ひとつの方法はXMLサイトマップを作成することです。XMLサイトマップとは、普通のウェブサイト内にあるサイトマップとは違い、googleクローラーにどのようなページがあるかを伝えるサイトマップです。HTMLと違い、XMLサイトマップはXMLという言語で書かれています。

サイト内は基本的に様々なページで構成されていますので、このXMLサイトマップを上手に作成して設置し、googleにどこにサイトマップがあるか伝えましょう。サイト内クロールの役に立ちますし、クローラーが上手にサイト内を移動し、インデックスしてくれます。

もう一つの方法はrobots.txtの設置です。これは何かというと、googleなど検索からくるクローラーが上手にサイト内をクロールするためであり、なおかつ制限を与えるためのものです。例えばこのページはクロールしてインデックスしてほしい、このページはインデックスしたりアクセスすることを拒否する、などと伝える事が出来ます。
注意したいのは、このrobots.txtがあっても、その内容を反映する場合もあればそうではない場合もあるという事でしょう。設置してもSEO的にその内容が必ず反映されるとは限らないので、この点は注意したいところです。
ちなみにどちらもかなり書き方が違います。最近では、専門のプラグインを使って作成したりする場合が多いでしょう。
専門の書き方をするため、オリジナルの書き方ではうまく伝わらなかったり、拒否するはずのページがそうならない場合があります。出来れば専門のツールを使って自動で作ったり、ある程度知識を得てから自分で書く方が良いでしょう。

特にサイトマップはページ数が増えると作成・更新が面倒になりますので、出来ればまとめて作成・管理・更新できるような自動ツールを使うことをおすすめします。

基本的に検索結果に対しての影響を与える様々な事の中でも、このようなXMLサイトマップやインデックスのことはあまり人に見せる部分や作業ではありません。このため、googleでも意外と意識しづらい場合があります。サイトを作った後にはこうした点をふまえて、適切に対策をしておくとSEO的に良い影響を及ぼすでしょう。

関連記事