robots.txtによりURLが制限されていますと言われた時の対処

f:id:tsumayouzi:20150102014233j:plain

具体的に書くとwordpressの管理画面で検索にかけない状態のチェックボタンを外した時のメモ

ベーシック認証も外し公開状態になったと思い、まずはHP名で検索にかけてみる。 すると「robots.txtによりURLが制限されています」とWEBサイトの中身が見えない状態に。

ウェブマスターツールで原因を確認。

f:id:tsumayouzi:20150102014820p:plain

にアクセスしてサイトを登録する。 途中でPCがないと面倒な認証

f:id:tsumayouzi:20150102014949p:plain

が要求されますが、 タブ2つ目のその他の認証方法で、ググアナコードやメタタグの差し込みで十分の模様

f:id:tsumayouzi:20150102015159p:plain

robots.txtの編集 if)ftpでアクセスしてrobots.txtを探して無い場合ー> ウェブマスターツール内でいじるもしくはhead内にrobots.txtの役割を果たすmetaタグがあるので確認する。

3 if)問題が無い場合 robots.txtが disarrow /(ディレクトリ全てを許可しない)になってない場合。 googleサーチエンジン側の問題の様なのでロボットがこちらの状態を再度拾いにきてくれるまで待っておくと解決する(これだった) 反映まで1日前後と書いてある記事がありましたがわたしは2日前後かかった覚えがあります。