ホームページやブログを開設して間もないと、
なかなかアクセスが増加しない状況にあるのではないでしょうか?
アクセスを増やすためには、「SEO対策」が必要ですが、実際どうしたらいいのか悩まれている人もいることでしょう。
SEO対策を実施するうえで、まず「robots.txt」について確認する必要があります。
この記事では、「robots.txt」とは何か、そしてどのような役割や仕組みを持つのか、また、「robots.txt」を確認する方法についても説明していきます。
下記の記事では、SEO対策の基本と対策のコツについて解説していますので合わせてご覧下さい。⇒SEO対策の基本とコツを詳しく見る
「robots.txt」とは?
「robots.txt」は、一言で説明すると、
検索エンジンのクローラに対して、アクセスして良いかどうかを伝えるファイルです。
私達が普段、インターネット検索して表示される結果は、検索エンジンに登録されているからです。
これらは「クローラ」とよばれる検索ロボットが、インターネット上を絶えず巡回して収集した情報が元になっています。
「robots.txt」は、このクローラに対して、
自身のWEBサイトにアクセスして収集しても良いかどうかを伝える役目を持っています。
検索エンジンの仕組みについては、下記の記事で詳しく解説していますので合わせてご覧下さい。⇒googleインデックスと検索エンジンの仕組みについて詳しく見る
「robots.txt」の仕組み
ホームページを作成したら、検索結果に表示してアクセスアップを図りたいものです。
いっぽうで、限られた人にだけ見て欲しいページもあると思いますし、検索結果に表示したくないサイトも存在すると思います。
これらの情報を「robots.txt」というファイルに書き込みます。
ウェブクローラが巡回して、自身のWEBサイトを訪れた際に「robots.txt」の内容を確認します。
クロールを許可していれば、WEBサイト内を巡回し検索エンジンに登録されます。
いっぽう、クロールを許可しない設定を「robots.txt」に記述した場合には、クローラをブロックしますので検索エンジンには登録されません。
「robots.txt」を確認する方法
「robots.txt」を確認する方法は、
Googleが提供しているWEB管理者向けツール「Googleサーチコンソール」を使用します。
Googleサーチコンソールには「robots.txt テスター」というツールがありますので、自身のサイト・アドレスを入力することによって簡単に調べることができます。
詳しい手順は、Google公式ヘルプの「robots.txt」テスターに関する記事に記載されているので参照してください。
「robots.txt」の役割と仕組みについてまとめ
いかがだったでしょうか。
今回は、robots.txtの役割と仕組みについて、また、robots.txtの確認方法についても合わせて解説致しました。
ホームページやブログを開設したのに検索結果に表示されない
コンテンツの内容に自信があるのにアクセスが増えない
robots.txtについて気にしたことがなかった
という方は、robots.txtを今回紹介した方法で確認してみてください。
サイトのrobots.txtを見直すことにより、SEOにおいて優位に立ちサイト訪問者を増やせる施策が見つかるかもしれません。
下記の記事では、プロのSEOコンサルタントも使用している「SEO対策ツール」についてご紹介していますので合わせてご覧下さい。⇒無料及び有料のおすすめSEO対策ツールを詳しく見る
コメント