検索意図キーワード例(このガイドの対象)
- インデックス されない 原因
- Google インデックス 登録 されない
- クロール済み - インデックス未登録 対処
- 検出 - インデックス未登録 原因
- Search Console URL検査 見方
- site: インデックス 確認
切り分けの基本: まずは5分類で当てにいく
インデックス未登録は“現象”で、原因は複数あります。最短で直すには、原因を5分類(ブロック/正規化/取得/品質/発見)に振り分けます。
この分類で見ると、対処が一気に具体化します。例えばブロックなら設定を外す、正規化なら代表URLを決める、品質なら構成と一次情報を足す、のように打ち手が変わります。
- ブロック: noindex、robots.txt、認証、X-Robots-Tag
- 正規化: canonical、重複URL、http/httpsや末尾スラッシュの揺れ
- 取得: JS依存でHTMLが空、ソフト404、エラー/遅延
- 品質: 薄い/重複/意図ズレ/独自性不足
- 発見: 内部リンク不足、サイトマップ不備、階層が深い
URL検査で見る場所(この順でOK)
URL検査は情報が多いので、見る順番を固定すると速いです。
- インデックス登録可否(ブロック有無)
- ユーザーが選択したカノニカル / Googleが選択したカノニカル(正規化)
- 取得したページ(本文が取れているか、HTMLが空でないか)
- クロール/検出の状況(発見が遅いのか)
除外理由(GSC)から打ち手を決める(例)
除外理由は“答え”ではなくヒントですが、分類(ブロック/正規化/取得/品質/発見)へ戻す材料になります。
- 検出 - 未登録: 発見と品質を疑う(内部リンク、サイトマップ、薄いページ量産)
- クロール済み - 未登録: 品質/重複/代表決定を疑う(統合、一次情報追加)
- 重複(別ページが正規): canonical/内部リンク/URL揺れを疑う
- ソフト404: 実質薄い/エラー扱い(本文、テンプレ、ステータス)
- robots.txt/noindex: ブロック系(設定を外す、環境判定)
実務チェックリスト(まずここだけ)
- 200で返る/ソフト404ではない/無限リダイレクトではない
- noindex / X-Robots-Tag / robots.txt で塞がっていない
- canonicalが正規URLを指す(正規URLはインデックス可能)
- view-sourceに本文がある(重要テキストがHTMLにある)
- 重要ページから内部リンクがある(一覧→詳細、関連記事、パンくず)
- サイトマップに正規URLだけが入っている
- 同テーマの類似ページが増えすぎていない(代表が決まっている)
やりがちなミス(復旧が遅れる)
- 原因を潰さずにURL検査のリクエストだけを繰り返す
- 重複URLを増やし続けて代表ページが決まらない
- 内部リンクが無いまま、サイトマップ送信だけで待つ
- robots.txtで塞いでしまい、状況確認ができない
品質で落ちているときの直し方(最短)
「検出 - 未登録」「クロール済み - 未登録」は、品質や重複が原因になりやすいです。
対処は、見出しを整えて追記するだけでは弱いことが多いので、代表ページを決めて統合し、一次情報(検証・手順・失敗例)を足します。
よくある質問(Q&A)
サイトマップを送ればインデックスされますか?
保証されません。サイトマップは発見の補助です。正規化や品質が原因の場合、クロールされても除外されます。
URL検査のリクエストは大量URLに使っていい?
おすすめしません。重要ページに絞って使い、原因(ブロック/正規化/取得/品質/発見)を潰す方が中長期で効きます。
公開して何日でインデックスされる?
サイト規模や内部リンクで変わります。1〜2週間たっても未登録が続く場合は、切り分けを実施して詰まりを解消しましょう。