Googlebot 2MB制限とは
Googleが公式ドキュメントを更新し、Googlebotが読み取るHTMLの上限を「最初の2MB」と明記しました。これまで広く知られていた15MBという上限は一般的なクローラー全体の制限であり、Googlebot固有の制限は2MBだったことが判明しました。
この変更は新しいルールの導入ではなく、既存の仕様を正確に文書化したものです。しかし多くのSEO担当者が15MB前提で運用していたため、実務上は新たな対応が必要になるケースがあります。
影響を受けるページの特徴
一般的なWebページのHTMLサイズは100KB〜500KB程度であり、大半のサイトには影響がありません。しかし以下のようなページは2MBを超える可能性があります。
- ECサイトの大規模商品一覧ページ(数百商品を1ページに表示)
- SPAでレンダリング後のDOMが肥大化するページ
- インラインSVGを大量に埋め込んだデザインリッチなページ
- インラインCSS/JSが肥大化したページ(CSSフレームワークの未使用コード含む)
- 大量のJSON-LDを埋め込んだページ(商品レビュー等)
HTMLサイズの計測方法
まず自サイトの主要ページがどの程度のHTMLサイズか把握することが重要です。以下の方法で簡単に計測できます。
- Chrome DevToolsのNetworkタブでドキュメントサイズを確認(Transfer SizeではなくSize列)
- curl -s URL | wc -c でコマンドラインから確認
- Screaming Frogなどのクローラーツールで一括チェック
- Search Consoleの「ページのインデックス登録」で問題のあるURLを特定
具体的な軽量化テクニック
HTMLサイズが2MBに近い場合、以下の最適化を検討してください。重要なコンテンツをHTML上部に配置することが最も効果的です。
- インラインCSS/JSを外部ファイルに分離し、HTMLからリンク参照に変更
- インラインSVGを外部SVGファイル化し、<img>タグで参照
- 不要なHTML属性(data-*等)の削除
- ページネーションの導入(1ページあたりの商品数を制限)
- 遅延読み込み(Intersection Observer)でHTML初期サイズを削減
- SSR/SSG時にクリティカルCSSのみインライン化し、残りは外部化
実務アクションアイテム
- Screaming Frogで全ページのHTMLサイズを一括スキャンし、1.5MB超のページをリストアップ
- 該当ページの重要コンテンツがHTML先頭2MB以内に含まれているか確認
- インラインリソースの外部ファイル化を優先度高で実施
- 大規模一覧ページにはページネーションまたは無限スクロール(Googlebot対応版)を導入
- Search Consoleの「ページのインデックス登録」を週次でチェックする運用を追加
参考ソース
- 海外SEO情報ブログGooglebotは最初の2MBまでをクロールする、15MBではなかった?
よくある質問(Q&A)
2MB制限はレンダリング後のDOMサイズですか?
いいえ、Googlebotが取得するHTTPレスポンスの最初の2MBです。サーバーサイドレンダリング(SSR)の場合は最終HTMLサイズ、クライアントサイドレンダリング(CSR)の場合はGooglebotがJavaScriptをレンダリングした後の結果が対象になります。
圧縮(gzip/brotli)後のサイズですか?
展開後のサイズです。gzipやbrotliで圧縮された状態で転送されても、Googlebotは展開後のHTMLで2MBを判定します。
2MBを超えた部分はどうなりますか?
2MBを超えた部分のHTMLはGooglebotに認識されません。そこに含まれるコンテンツやリンクはインデックス対象外になる可能性があります。特に重要な内部リンクが2MB以降に配置されていると、リンクジュースの伝達にも影響します。