#1 WordPress Robots.txt ジェネレーター&エディター
コードなしで検索エンジンがあなたのサイトをクロールする方法をコントロールする
robots.txtルールで苦労するのはもうやめましょう。AIOSEOのRobot.txt Editorは、検索エンジンのクローラーを簡単にコントロールし、インデックスエラーを防ぎ、機密性の高いコンテンツを保護します。

WordPressのダッシュボードからRobots.txtを簡単に変更できる
WordPressでrobots.txtを編集する簡単な方法が必要ですか?
All in One SEOを使用すると、簡単にサイトを制御し、デフォルトのWordPressファイルを上書きするrobots.txtファイルを設定することができます。
強力なSEO機能のすべてをご覧ください
All in One SEOを最高のWordPress SEOプラグインにするすべての機能を紹介します。
AIOSEOでWordPressのSEO順位を上げる
最も強力なオールインワンWordPress SEOプラグインを入手して、今すぐウェブサイトの検索順位を向上させましょう。
(インスタント・ダウンロード)
さらに強力なSEO機能
- タイトル、メタディスクリプション、キーワードなど、ページ内SEO最適化に必要なすべてを簡単に追加できます。
- GoogleナレッジグラフとSchemaリッチスニペットの完全サポート
- Google Search Console、Bing、Yandex、Baidu、Pinterestウェブマスターツールと簡単に接続できます。
- WooCommerceの高度なeコマースSEOサポートにより、商品ページや商品カテゴリーなどを最適化できます。
- GoogleやBingなどの検索エンジンに、サイトの変更を自動的に通知します。
WordPressでRobots.txtファイルを作成し、最適化する方法
WordPressウェブサイトのrobots.txtファイルの作成や編集でお困りですか?もしそうなら、これ以上調べる必要はありません。このガイドでは、市場で最高のSEO用WordPressプラグインであるAll in One SEOを使って、WordPressで完璧に最適化されたrobots.txtを作成する方法をご紹介します。
Robots.txtとは?
Robots.txtは、検索エンジンのボットに対する指示(ディレクティブとも呼ばれる)を記述したテキストファイルです。ウェブサイトの所有者は、検索エンジンがウェブサイトの不要なページをクロールするのを防ぐためにこのファイルを使用します。また、検索エンジンがあなたのウェブサイトを最適にナビゲートし、インデックスするためのヒントを与えます。
典型的なWordPressのrobots.txtの例です:
User-agent: *
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-admin/
Disallow: /wp-content/uploads/wpforms/
Disallow: /xmlrpc.php
Sitemap: https://aioseo.com/video-sitemap.xml
Sitemap: https://aioseo.com/sitemap.xml
Sitemap: https://aioseo.com/sitemap.rss
上の例のrobots.txtファイルについて説明する前に、robots.txtファイルの主な構成要素を見てみましょう。
- ユーザーエージェント:User-agent は検索ボットが自分自身を識別するために使うものです。このディレクティブを使って、特定の検索エンジン・ボットをターゲットにすることができます。例えば、Googleだけにクロールしてもらいたい場合は、*の代わりにgooglebotを追加します。は、Google、Bing、Yahooなどのすべての検索エンジンがあなたのウェブサイトをクロールすることを許可していることを示します。
- 許可する:これは、検索エンジンがウェブサイトのこの特定のセクションをクロールすることを許可していることを示します。
- Disallow:このディレクティブを使うことで、検索エンジンにウェブサイトの特定のページやファイルにアクセスしないように指示することができます。
robots.txtの例に戻ると、すべての検索エンジンがuser-agentを使ってウェブサイトをクロールすることを許可している:* ディレクティブを使って、すべての検索エンジンにクロールを許可している。また、Googleにどのようにクロールしてもらいたいかに基づいて、URLの許可と不許可を設定しました。
robots.txtファイルを使用することで、複数のサイトマップを送信することもできます。私たちのrobots.txtファイルでは、私たちのウェブサイトにある別のビデオサイトマップを送信しています。これにより、検索エンジンが当社のウェブサイトの動画を見つけ、クロールし、インデックスすることが容易になります。
サイトマップとは、ウェブサイトのナビゲーションマップのことです。サイトマップは、検索エンジンにあなたのウェブサイトのページ数を知らせます。AIOSEOのWordPress Sitemap Generatorを使えば、簡単にサイトマップを作成し、送信することができます。
また、編集したい場合に備えて「WordPressのrobots.txtはどこにありますか?
WordPressのrobots.txtの場所は、WordPressウェブサイトのルートディレクトリにあります。FTPクライアントまたはcPanelを使用してサイトに接続すると、ファイルを表示できます。
しかし、AIOSEOを使えばそこまでする必要はない。AIOSEOを使えば、WordPressのダッシュボードからrobots.txtファイルを編集・閲覧することができる。WordPressのrobots.txtプラグインを別途用意する必要はない。このガイドの後半で詳しく説明する。
また、ドメイン名に続けて "robots.txt "と入力すれば、オンラインで閲覧することもできる。例えば、https://www.example.com/robots.txt。
robots.txtファイルとは何か、どのようなものかを知っていただいたところで、なぜあなたのウェブサイトにとって重要なのかをお話ししましょう。
なぜWordPressウェブサイトにRobots.txtファイルが必要なのか?
robots.txtを使用すると、検索エンジンがあなたのウェブサイトをクロールし、インデックスする方法を制御することができます。robots.txtファイルがなければ、検索エンジンは重要でないページであっても、あなたのウェブサイトのすべてをクロールします。
検索ボットが不必要なページをクロールしないようにしなければ、クロール予算を使い果たしてしまい、クロールしてほしいページをクロールしてくれないかもしれない。
クロールバジェットとは、Googleのような検索エンジンがあなたのウェブサイトに与える注目度のことです。これは、検索エンジンがあなたのウェブサイトをクロールすることを好む頻度と、あなたのウェブサイトをクロールできる頻度に基づいています。
クロール予算を無駄にしていると、Googleや他の検索エンジンが効率的にウェブサイトをクロールできなくなり、ウェブサイトのパフォーマンスが低下する可能性があります。
各ウェブサイトのクロール予算には限りがあります。検索エンジンのボットは、クロールセッション中に一定のページ数しかクロールしません。
ボットが最初のクロールセッションであなたのウェブサイトをすべてクロールしなかった場合、次のセッションで残りのページをクロールしに戻ってきます。
ウェブサイトによっては、次のクロールセッションが数日間ないかもしれません。これにより、ウェブサイトのインデックス作成が遅くなり、重要なページが検索エンジンにクロールされず、インデックスされなくなります。これはトラフィックとビジネスの大きな損失につながります。
WordPressの管理ページ、プラグインファイル、テーマフォルダなど、ウェブサイトの不要なページを許可しないようにすれば、すぐに解決できます。これにより、クロールの予算を節約し、インデックス率を向上させることができます。
それでは、AIOSEOを使ってrobots.txtファイルを表示、編集、作成、送信する方法を説明します。
WordPressウェブサイトにRobots.txtファイルを作成するには?
All in One SEO (AIOSEO)は、WordPress上でrobots.txtファイルを非常に簡単に作成・編集することができます。
WordPressのダッシュボードを開き、All in One SEO " Toolsにアクセスするだけです。

その後、Robots.txt Editorページに移動します。ここから、フォームを使ってrobots.txtファイルを簡単に追加・編集することができます。

AIOSEOを使えば、robots.txtファイルのフォーマットを心配する必要はありません。フィールドにディレクティブを追加するだけで、あとはAIOSEOがやってくれる。
ディレクティブを追加したら、Save Changes をクリックして設定を完了します。
robots.txtファイルを作成したら、エラーがないかどうかテストする必要があります。
WordPressのRobots.txtファイルをテストする
robots.txtファイルをテストするには、robots.txtテスターツールにアクセスし、Googleサーチコンソールのアカウントでログインするだけです。
次に、URLフィールドに「robots.txt」と入力し、「Test」をクリックする。

robots.txtが有効であれば、許可されたメッセージが表示されます。そうでない場合は、ボックスにハイライトされたエラーと警告が表示されます。

これで完了です!これでWordPressのrobots.txtファイルの作成と検証は完了です。
このガイドが、AIOSEOを使用してWordPressウェブサイトの最適化されたrobots.txtファイルを作成する方法を学ぶのにお役に立てば幸いです。
AIOSEOのRobots.txtエディタに関するFAQ
All in One SEOでWordPressのrobots.txtファイルの管理に関するクイックアンサーを取得します。ここに掲載されていない質問については、お問い合わせください。
robots.txtファイルは、検索エンジンにあなたのサイトのどの部分にアクセスでき、またアクセスできないかを伝えます。これは、検索エンジンがあなたのサイトをクロールする方法を制御し、機密性の高いコンテンツを保護するために非常に重要です。
いいえ!ビジュアル・エディターが専門知識を不要にします。簡単なポイント・アンド・クリック操作でルールを作成・変更できます。
AIOSEOは、robots.txtのルールをリアルタイムで自動的に検証し、適切なフォーマットで意図したとおりに動作することを保証します。これにより、サイトのインデックスに影響を与える可能性のある一般的なミスを防ぐことができます。
はい!WordPressのマルチサイトネットワークを運営している場合、1つの中央ダッシュボードからすべてのサイトのrobots.txtファイルを管理できます。
もちろん!さまざまな検索エンジンに対応したルールを作成することで、どのクローラーがあなたのコンテンツにアクセスできるかを正確にコントロールすることができます。
はい!AIOSEOは自動的に既存のrobots.txtルールを検出し、簡単に管理できるようにビジュアルエディタにインポートします。
ご安心ください!当社の検証システムは、公開前にエラーを検出し、必要に応じて簡単に変更を元に戻すことができます。あなたのサイトのクロールは保護されたままです。