robots.txtによりURLが制限されていますと言われた時の対処
具体的に書くとwordpressの管理画面で検索にかけない状態のチェックボタンを外した時のメモ
ベーシック認証も外し公開状態になったと思い、まずはHP名で検索にかけてみる。 すると「robots.txtによりURLが制限されています」とWEBサイトの中身が見えない状態に。
にアクセスしてサイトを登録する。
途中でPCがないと面倒な認証
が要求されますが、 タブ2つ目のその他の認証方法で、ググアナコードやメタタグの差し込みで十分の模様
2robots.txtの編集 if)ftpでアクセスしてrobots.txtを探して無い場合ー> ウェブマスターツール内でいじるもしくはhead内にrobots.txtの役割を果たすmetaタグがあるので確認する。
3 if)問題が無い場合 robots.txtが disarrow /(ディレクトリ全てを許可しない)になってない場合。 googleのサーチエンジン側の問題の様なのでロボットがこちらの状態を再度拾いにきてくれるまで待っておくと解決する(これだった) 反映まで1日前後と書いてある記事がありましたがわたしは2日前後かかった覚えがあります。