WordPressマルチサイトネットワークでAll in One SEOを使用する方法については、こちらのビデオをご覧ください。
WordPressマルチサイトネットワークを利用している場合、ネットワーク内のすべてのサイトに適用されるグローバルrobots.txtルールを管理できます。
重要:
この機能は現在、サブドメインとして設定されているWordPressマルチサイトネットワークでのみ機能します。サブディレクトリとして設定されたものには機能しません。
この記事で
チュートリアル・ビデオ
まずは、Network Adminにアクセスし、左メニューのAll in One SEO > Network Toolsをクリックしてください。
標準的なRobots.txtエディタが表示され、robots.txtのカスタムルールを有効にして管理することができます。
カスタムRobots.txtを有効にする トグルをクリックして、ルールエディタを有効にします。

画面の一番下にRobots.txtプレビューのセクションがあり、WordPressが追加したデフォルトのルールが表示されているはずです。

WordPressのデフォルトRobots.txtルール
Robots.txtのプレビュー・セクションに表示されるデフォルトのルール(上のスクリーンショット)は、ロボットにWordPressのコア・ファイルをクロールさせないよう求めるものです。これらのファイルには関連するサイトのコンテンツが含まれていないため、検索エンジンが直接アクセスする必要はありません。
何らかの理由でWordPressが追加したデフォルトのルールを削除したい場合は、WordPressのrobots_txtフィルターフックを使用する必要があります。
ルールビルダを使ったルールの追加
ルールビルダーは、サイト上の特定のパスに独自のカスタムルールを追加するために使用します。
例えば、一時ディレクトリからのすべてのロボットをブロックするルールを追加したい場合、ルール・ビルダーを使って追加することができる。

ルールを追加するには、ユーザーエージェントフィールドにユーザーエージェントを入力します。を使用すると、すべてのユーザエージェントにルールが適用されます。
次に、ユーザーエージェントを許可またはブロックするために、AllowまたはDisallowのいずれかを選択します。
次に、ディレクトリ・パス・フィールドにディレクトリ・パスまたはファイル名を入力します。
最後に「変更を保存」ボタンをクリックします。
さらにルールを追加したい場合は、[Add Rule]ボタンをクリックし、上記の手順を繰り返して[Save Changes]ボタンをクリックします。
あなたのルールは、Robots.txtプレビューセクションと、Robots.txtを開くボタンをクリックして表示できるrobots.txtに表示されます。

ここで追加したルールは、ネットワーク内のすべてのサイトに適用され、個々のサイトレベルで上書きすることはできません。
ルールビルダを使ったルールの編集
追加したルールを編集するには、ルールビルダーで詳細を変更し、「変更を保存」ボタンをクリックするだけです。

ルールビルダでルールを削除する
追加したルールを削除するには、ルールの右にあるゴミ箱アイコンをクリックします。

不要なクローラーをブロックする
Block AI Crawlersを使用すると、AIクローラーやGoogle AdsBotなどの既知のクローラーをブロックするルールをrobots.txtに追加できます。

各クローラーを選択してブロックすることもできるし、「すべてのAIクローラー」を選択してリストにあるすべてのクローラーをブロックすることもできる。
サイト内検索URLのクロールをブロックする
robots.txtにルールを追加することで、サイト内検索URLのクロールをブロックすることができます。これにより、サイトの不要なクロールを減らすことができます。

サブサイトのRobots.txtの管理
マルチサイトのRobots.txtエディタでは、ネットワーク上のどのサイトのロボットルールも簡単に編集できます。
まずは、Robots.txtエディターの上部にあるサイトセレクタをクリックしてください。そこからルールを編集したいサイトを選択するか、ドメインを入力して検索します:

サイトを選択すると、下のルールが自動的に更新され、そのサイトだけのルールを修正/変更することができます。サブサイトのルールを変更したら、必ず[変更を保存]をクリックしてください。