All in One SEOでRobots.txtツールを使う

あなたのサイトのrobots.txtをカスタマイズしたいですか?この記事がお役に立ちます。

All in One SEOのrobots.txtモジュールでは、WordPressが作成するrobots.txtを管理することができます。

これにより、あなたのサイトについてウェブクローラーに与える指示をより自由にコントロールできるようになります。

チュートリアル・ビデオ

All in One SEOのRobots.txtツールの使い方のビデオです:

WordPressのRobots.txtについて

まず、WordPressがすべてのWordPressサイトにダイナミックなrobots.txtを生成することを理解することが重要です。

このデフォルトのrobots.txtには、WordPressで運営されているサイトの標準的なルールが含まれています。

第二に、WordPressは動的なrobots.txtを生成するため、サーバー上に静的なファイルはありません。robots.txtの内容はWordPressのデータベースに保存され、ウェブブラウザに表示されます。これは完全に正常であり、サーバー上の物理的なファイルを使用するよりもはるかに優れています。

最後に、All in One SEOはrobots.txtを生成するのではなく、WordPressが生成するデフォルトのrobots.txtにカスタムルールを追加する非常に簡単な方法を提供するだけである。

All in One SEOでRobots.txtエディタを使う

まずは、All in One SEOメニューの「ツール」をクリックします。

All in One SEOメニューの「ツール」メニュー項目

Robots.txtエディターが表示され、最初の設定がEnable Custom Robots.txtになっているはずです。トグルをクリックしてカスタムrobots.txtエディターを有効にします。

Robots.txtエディタの「Enable Custom Robots.txt」トグルをクリックします。

画面の下にカスタムRobots.txtプレビューのセクションがあり、WordPressが追加したデフォルトのルールが表示されているはずです。

Robots.txtエディタのRobots.txtプレビューセクション

WordPressのデフォルトRobots.txtルール

Custom Robots.txt Previewセクションに表示されるデフォルトのルール(上のスクリーンショットに示されている)は、ロボットにWordPressのコアファイルをクロールしないよう求めるものです。これらのファイルには関連するサイトのコンテンツが含まれていないため、検索エンジンが直接アクセスする必要はありません。

何らかの理由でWordPressが追加したデフォルトのルールを削除したい場合は、WordPressのrobots_txtフィルターフックを使用する必要があります。

ルールビルダを使ったルールの追加

ルールビルダーは、サイト上の特定のパスに独自のカスタムルールを追加するために使用します。

例えば、一時ディレクトリからのすべてのロボットをブロックするルールを追加したい場合、ルール・ビルダーを使って追加することができる。

robots.txtルール・ビルダーにルールを追加する

ルールを追加するには、[Add Rule]ボタンをクリックし、以下のフィールドに入力します。

ユーザーエージェント

まず、User Agentフィールドにユーザーエージェントを入力する。

例えば、グーグルのクローラーを指定したい場合は、ユーザーエージェントの欄に "Googlebot "と入力する。

すべてのユーザーエージェントに適用するルールが必要な場合は、[User Agent]フィールドに「*」を入力してください。

指令

次に、[Directive]ドロップダウンでルールタイプを選択する。選択できるルールタイプは4つある:

  • Allowは、指定されたユーザーエージェントを持つクローラーに、Valueフィールドのディレクトリまたはファイルへのアクセスを許可します。
  • Blockは、指定されたユーザーエージェントを持つクローラーがValueフィールドのディレクトリやファイルにアクセスするのをブロックします。
  • Clean-paramを使うと、URLパラメータを持つページを除外することができます。現在、このディレクティブをサポートしている唯一の検索エンジンであるYandexは、ここに例を挙げて説明しています。
  • クロール遅延は、クローラーがあなたのコンテンツをクロールする頻度を指定します。例えば、クロールディレイを10に設定すると、クローラーはあなたのコンテンツを10秒に1回以上クロールしないようになります。
    現在、このディレクティブはBing、Yahoo、Yandexでのみサポートされています。Googleのクローラーのクロール率は、Google Search Consoleで変更できます。

価値

次に、Valueフィールドにディレクトリパスまたはファイル名を入力する。

wp-content/backups/のようなディレクトリパスや、/wp-content/backups/temp.pngのようなファイルパスを入力できます。

wp-content/backup-*のようにワイルドカードとして*を使うこともできます。

さらにルールを追加したい場合は、「Add Rule」ボタンをクリックし、上記の手順を繰り返します。

終了したら、「変更を保存」ボタンをクリックします。

あなたのルールはカスタムRobots.txtプレビューセクションと、Robots.txtを開くボタンをクリックして表示できるrobots.txtに表示されます。

カスタムrobots.txtの完成

ルールビルダを使ったルールの編集

追加したルールを編集するには、ルールビルダーで詳細を変更し、「変更を保存」ボタンをクリックするだけです。

ルールエディターでカスタムrobots.txtルールを編集する

ルールビルダでルールを削除する

追加したルールを削除するには、ルールの右にあるゴミ箱アイコンをクリックします。

ルールエディターでカスタムrobots.txtルールを削除する

ルール・ビルダーでルールの順序を変更する

カスタムルールをrobots.txtに表示する順番は、ルールビルダーでエントリーをドラッグ&ドロップすることで簡単に変更できます。

ルールの右側にあるドラッグ&ドロップアイコンをクリックしたまま、以下のように表示したい場所にルールを移動させる。

Robots.txtエディタでカスタムルールの順序を変更する

なぜルールを置く順番が重要なのかについては、グーグルが良い説明をしている

独自のRobots.txtをAll in One SEOにインポートする

自分のrobots.txtや他のソースからのルールを非常に簡単にインポートすることができます。

まず、インポートボタンをクリックしてRobots.txtのインポートウィンドウを開きます。

All in One SEOのルールビルダーに表示されるインポートボタン

ImportRobots.txtウィンドウでは、Import from URLフィールドにrobots.txtのURLを入力してURLからインポートするか、Paste Robots.txtテキストフィールドにrobots.txtの内容を貼り付けることができます。

Robots.txtのインポートウィンドウにURLからインポートフィールドとRobots.txtの貼り付けテキストが表示されています。

これが完了したら、インポートボタンをクリックします。

ルールビルダで高度なルールを使用する

Robots.txtルールビルダーは、高度なルールの使用もサポートしています。これには正規表現パターンやURLパラメータが含まれます。

高度なルールの使い方の例を3つ紹介しよう:

上記の例では、これらの高度なルールが示されている:

  • /search$ - 正規表現を使って、正確なパス"/search "へのアクセスを許可する。
  • /search/ - "/search/"で始まるが完全一致しないパスへのアクセスをブロックする。
  • /?display=wide - URLパラメータが一致するホームページへのアクセスを許可します。

このような高度なルールにより、サイトのrobots.txtファイルをきめ細かく制御できるため、ユーザーエージェントがウェブサイトにアクセスする方法を完全に制御できます。

不要なクローラーをブロックする

Block AI Crawlersを使用すると、AIクローラーやGoogle AdsBotなどの既知のクローラーをブロックするルールをrobots.txtに追加できます。

All in One SEOのRobots.txtエディタでAIクローラーをブロックする設定

各クローラーを選択してブロックすることもできるし、「すべてのAIクローラー」を選択してリストにあるすべてのクローラーをブロックすることもできる。

サイト内検索URLのクロールをブロックする

robots.txtにルールを追加することで、サイト内検索URLのクロールをブロックすることができます。これにより、サイトの不要なクロールを減らすことができます。

All in One SEOのRobots.txtエディタでサイト内検索URLのクロールをブロックする設定

WordPressマルチサイト用Robots.txtエディター

マルチサイトネットワーク用のRobots.txtエディタもあります。詳細はマルチサイトネットワーク用Robots.txtエディタのドキュメントをご覧ください。