All in One SEO の Robots.txt ツールの使用方法

サイトの robots.txt をカスタマイズしたいですか?この記事がお役に立ちます。

All in One SEO の robots.txt モジュールを使用すると、WordPress が作成する robots.txt を管理できます。

これにより、ウェブクローラーにサイトについて与える指示をより細かく制御できるようになります。

チュートリアルビデオ

All in One SEO の Robots.txt ツールの使用方法に関する動画はこちらです:

WordPress の Robots.txt について

まず、WordPress がすべての WordPress サイトに対して動的な robots.txt を生成することを理解することが重要です。

このデフォルトの robots.txt には、WordPress で実行されているすべてのサイトの標準ルールが含まれています。

次に、WordPress は動的な robots.txt を生成するため、サーバー上に静的なファイルは見つかりません。robots.txt の内容は WordPress データベースに保存され、ウェブブラウザに表示されます。これは完全に正常であり、サーバー上の物理ファイルを使用するよりもはるかに優れています。

最後に、All in One SEO は robots.txt を生成しません。WordPress が生成するデフォルトの robots.txt にカスタムルールを追加するための非常に簡単な方法を提供するだけです。

All in One SEO の Robots.txt エディターの使用方法

開始するには、All in One SEO メニューの ツール をクリックします。

All in One SEOメニューのツールメニュー項目

Robots.txt エディター が表示され、最初の設定は カスタム Robots.txt を有効にする になります。カスタム robots.txt エディターを有効にするには、トグルをクリックします。

Robots.txtエディタのカスタムrobots.txtを有効にするトグルをクリックします

画面下部にあるカスタムrobots.txtプレビューセクションが表示され、WordPressによって追加されたデフォルトのルールが表示されます。

Robots.txtエディタのRobots.txtプレビューセクション

WordPress のデフォルト Robots.txt ルール

カスタムrobots.txtプレビューセクション(上記のスクリーンショットに表示)に表示されるデフォルトのルールは、ロボットにWordPressのコアファイルをクロールしないように要求します。これらのファイルには関連するサイトコンテンツが含まれていないため、検索エンジンがこれらのファイルに直接アクセスする必要はありません。

何らかの理由でWordPressによって追加されたデフォルトのルールを削除したい場合は、WordPressのrobots_txtフィルターフックを使用する必要があります。

ルールビルダーを使用したルールの追加

ルールビルダーは、サイト上の特定のパスに対して独自のカスタムルールを追加するために使用されます。

たとえば、一時ディレクトリのすべてのロボットをブロックするルールを追加したい場合は、ルールビルダーを使用して追加できます。

robots.txtルールビルダーでルールを追加する

ルールを追加するには、ルールを追加ボタンをクリックし、以下に説明するフィールドを完了します。

ユーザーエージェント

まず、ユーザーエージェントフィールドにユーザーエージェントを入力します。

たとえば、Googleのクローラーを指定したい場合は、ユーザーエージェントフィールドに「Googlebot」と入力します。

すべてのユーザーエージェントに適用されるルールが必要な場合は、ユーザーエージェントフィールドに*を入力します。

ディレクティブ

次に、ディレクティブドロップダウンでルールタイプを選択します。選択できるルールタイプは4つあります。

  • 許可は、指定されたユーザーエージェントを持つクローラーに、フィールドのディレクトリまたはファイルへのアクセスを許可します。
  • ブロックは、指定されたユーザーエージェントを持つクローラーに、フィールドのディレクトリまたはファイルへのアクセスをブロックします。
  • クリーンパラメータを使用すると、URLパラメータを持つページを除外できます。これらのページは、異なるURLで同じコンテンツを提供できます。現在このディレクティブをサポートしている唯一の検索エンジンであるYandexには、ここに例とともに良い説明があります。
  • クロール遅延は、クローラーがコンテンツをクロールできる頻度をクローラーに伝えます。たとえば、クロール遅延が10の場合、クローラーは10秒ごとにコンテンツをクロールするように指示されます。
    現在、このディレクティブはBing、Yahoo、Yandexのみがサポートしています。Google Search ConsoleでGoogleクローラーのクロールレートを変更できます。

次に、フィールドにディレクトリパスまたはファイル名を入力します。

/wp-content/backups/ のようなディレクトリパスや、 /wp-content/backups/temp.png のようなファイルパスを入力できます。

ワイルドカードとして * を使用して、 /wp-content/backup-* のようにすることもできます。

さらにルールを追加したい場合は、ルールを追加ボタンをクリックして、上記の手順を繰り返します。

完了したら、変更を保存ボタンをクリックします。

ルールは、カスタムrobots.txtプレビューセクションと、robots.txtを開くボタンをクリックして表示できるrobots.txtに表示されます。

カスタムrobots.txtが完了しました

ルールビルダーを使用したルールの編集

追加したルールを編集するには、ルールビルダーで詳細を変更し、変更を保存ボタンをクリックするだけです。

ルールエディタでカスタムrobots.txtルールを編集する

ルールビルダーでのルールの削除

追加したルールを削除するには、ルールの右側にあるゴミ箱アイコンをクリックします。

ルールエディタでカスタムrobots.txtルールを削除する

ルールビルダーでのルールの順序変更

ルールビルダーのエントリをドラッグアンドドロップすることで、robots.txtに表示されるカスタムルールの順序を簡単に変更できます。

ルールの右側にあるドラッグアンドドロップアイコンをクリックして保持し、以下に示すように表示したい場所にルールを移動します。

Robots.txtエディターでのカスタムルールの順序を変更する

Googleは、ルールの配置順序が重要である理由について、ここで詳しく説明しています

Robots.txt を All in One SEO にインポートする

独自のrobots.txtまたはルールを他のソースから非常に簡単にインポートできます。

まず、インポートボタンをクリックして、robots.txtのインポートウィンドウを開きます。

All in One SEOのルールビルダーに表示されるインポートボタン

robots.txtのインポートウィンドウでは、URLからインポートフィールドにrobots.txtのURLを入力してインポートするか、robots.txtテキストを貼り付けフィールドにrobots.txtの内容を貼り付けてインポートできます。

URLからインポートフィールドとRobots.txtテキストを貼り付けが表示されるインポートRobots.txtウィンドウ

完了したら、インポートボタンをクリックします。

ルールビルダーでの高度なルールの使用

Robots.txtルールビルダーは、高度なルールの使用もサポートしています。これには、正規表現パターンとURLパラメータが含まれます。

高度なルールがどのように使用できるかの3つの例を次に示します。

上記の例では、これらの高度なルールが示されています。

  • /search$ – これは正規表現を使用して、正確なパス「/search」へのアクセスを許可します
  • /search/ – これは、「/search/」で始まるパスへのアクセスをブロックしますが、正確な一致ではありません
  • /?display=wide – これは、一致するURLパラメータを持つホームページへのアクセスを許可します

このような高度なルールにより、サイトのrobots.txtファイルを細かく制御できるため、ユーザーエージェントがウェブサイトにアクセスする方法を完全に制御できます。

不要なクローラーのブロック

AIクローラーをブロックを使用して、AIクローラーやGoogle AdsBotなどの既知のクローラーをブロックするルールをrobots.txtに追加できます。

All in One SEO Robots.txtエディターのAIクローラーブロック設定

ブロックする各クローラーを選択するか、すべてのリストされているクローラーをブロックするために すべてのAIクローラー を選択できます。

サイト内検索 URL のクロールをブロックする

サイト内検索URLのクロールをブロック設定を使用して、検索ページのURLのクロールを防ぐルールをrobots.txtに追加できます。これにより、サイトの不要なクロールが削減されます。

All in One SEO Robots.txtエディターの内部サイト検索URLのクロールブロック設定

WordPress マルチサイト用の Robots.txt エディター

マルチサイトネットワーク用のRobots.txtエディタもあります。詳細は、マルチサイトネットワーク用のRobots.txtエディタに関するドキュメントで確認できます。