robots.txtファイルでリンクエラー(重複するメタデータ)を解消する。
こんにちは ドンケアスです。
今回はウェブマスターツールに表示される
エラー(重複メタデータ)についてrobots.txtを使った解消法を説明します。
まずrobots.txtを準備します。
こちらのrobots.txtを基本に使います。
(名前を付けて保存してください)
まずこちらを見てください。
これが僕のrobots.txtです。
この様にウェブマスターツールに
表示されているエラーページのリンクを
参考robots.txtのように貼り付けます。
ウェブマスターツールでのエラーページの確認は
ウェブマスターツールを開いて
左側のメニュより
最適化→HTMLと開いてください。
ここにエラーページの数が表示されています。
ここに出ているエラーリンクをrobots.txtに貼り付けます。
タイトルタグをクリック
ここに出ているのは重複で出ているので
1つは残しても問題ないです
こちらのリンクをコピーして
参考のrobots.txtのようにコピーしましょう。
1つ注意はウェブマスターツールで表示されているものを
コピーしても日本語表記だと反映されないので
リンクをクリックしてから上部のリンクをコピーして貼り付けましょう。
かなり時間かかりますが根気よくやりましょう
robots.txtファイルが出来ましたら、
次はサーバーにアップロードします。
FFFTPを開いて
ドメインのフォルダー→public_html
ここにrobots.txtをコピーします。
最後にワードプレスの設定で『XML Sitemap』にある
『サイトマップの URL を仮想 robots.txt ファイルに追加 』
こちらのチェックをはずしましょう
これでrobots.txtファイルによる
エラーリンクの除外が可能です。
ウェブマスターツールに反映されるのに
3日から1週間はかかるので
しばらく様子見ましょう
検索クリエのグラフが上昇してきたら
改善されたと言ってもいいでしょう
以上で説明終わります。
ドンケアスのしゃべるマガ
サイトアフィリで安定的に稼ぐ思考、心構え、気付き、使用しているツールなどなどを
ラジオ感覚で聞ける音声メルマガを配信しています。

コメント
これは、素晴らしく参考になる記事を、
ありがとうございます!
(~o~)/
I have a qutesion about the cherry dump cake. Do you prepare the cake mix or use the dry cake mix. I have make similar recipe with can peaches and dry cake mix.
はじめまして。
iBSAスマホアフィリ通信講座スタッフの、
にのいちと申しますm(_ _)m。
とても参考になる記事内容ありがとうございます!!
応援クリックさせて頂きます!
ポチっとな^^
ドンケアスさん!とても参考になりました!
ありがとうございます!