トップページ > Google クローラーの IP 範囲ファイルの新しい場所

Google クローラーの IP 範囲ファイルの新しい場所

【2026年最新】Google クローラーIP範囲ファイル移転 — 6ヶ月以内に旧パスは廃止

2026年3月31日、GoogleはクローラーIP範囲のJSONファイルを新しいパスに移転すると発表しました。旧パスは一時的に維持されますが、6ヶ月以内にリダイレクトに切り替わります。IP範囲でGooglebotを検証しているサイトは早急な対応が必要です。

Googleクローラーとは — 定義と仕組み

Googleクローラー(Googlebot)とは、Googleの検索インデックスを構築するためにWebページを定期的に巡回・取得するプログラムです。HTML・CSS・JavaScript・画像をダウンロードし、内容を解析してインデックスデータベースに格納します。Googleクローラーは複数の種類があり、用途・対象サービスごとに分かれています:

  • Googlebot Smartphone: モバイルファーストインデックス用(2026年は事実上の標準)
  • Googlebot Desktop: デスクトップ表示確認用
  • Googlebot Image / Video / News: 画像・動画・ニュース専用
  • AdsBot: 広告品質チェック用(robots.txt の Googlebot 禁止指示は無視)
  • Mediapartners-Google: AdSense配信判定用

これらすべてが共通の IP 範囲ファイルから提供される IP プレフィックス群を使用しています。今回の移転は、この IP 範囲ファイルの提供エンドポイントが変わったというものです。

移転の詳細と技術的変更点

  • 新旧パスの対比:
    旧: developers.google.com/search/apis/ipranges/ → 新: developers.google.com/crawling/ipranges/。「search」から「crawling」への変更は、このIP範囲がGoogle検索だけでなく全Googleクローラーに適用されることを反映。
  • Googlebotは全クロール基盤の1つ:
    Googleのクロールインフラは社内SaaSとして機能し、Google Shopping、AdSense、Google News等数十のサービスが同じIP範囲を共有。IP範囲ファイルの「検索API」配下は実態に合っていなかった。
  • gstatic.comの直接エンドポイント:
    IP範囲データ自体は https://www.gstatic.com/ipranges/goog.json からも取得可能。ドキュメントページとは別に、この直接エンドポイントも活用すべき。

⚠️ 6ヶ月の猶予はもうない — 4/7に旧エンドポイントは既に死んでいた

「公式の6ヶ月」と「実態の8日」の乖離

Googleの公式アナウンスは「6ヶ月の移行期間」でしたが、現場の観測では2026年4月7日 09:42:16 UTC(発表からわずか8日後)に旧 URL は既に IP データ返却を停止していたことが MERJ レポートで明らかになりました。一部のレスポンスは2026年3月3日のタイムスタンプ + わずか4 IP プレフィックスのみ、一部は IP データなしの JSON メッセージで返り、silent failを引き起こしています。

「6ヶ月以内に対応」という前提は実態として崩れています。今すぐの対応が必要です。

出典: MERJ blog: Update Your Google Crawler IP Range Endpoints

silent fail の罠 — 旧 URL は 404 ではなく「壊れた JSON」を返す

もし旧 URL が単純に 404 を返すなら、運用側のスクリプトはエラーで停止し、すぐに気づきます。しかし実態は「200 OK + 不完全な JSON データ」を返しているため、自動取得スクリプトは「正常動作」と判定し、古い・不完全な IP リストで Googlebot 判定を続けてしまいます。これが silent fail の最大の罠です。

ファイルリネームの罠 — googlebot.json → common-crawlers.json

移転は単なるディレクトリ変更ではありません。ファイル名そのものも変わっています。旧 /search/apis/ipranges/googlebot.json をディレクトリだけ書き換えて /crawling/ipranges/googlebot.json としても 404 になります。新パスは /crawling/ipranges/common-crawlers.json です。

出典: Google Search Central Blog 2026-03 / ALM Corp

新 URL での 4 種類のクローラーカテゴリ

ファイル名用途robots.txt 尊重
common-crawlers.json通常の Google クローラー(旧 googlebot.json)尊重
special-crawlers.json特殊クローラーcontext・product 関係性に依存
user-triggered-fetchers.jsonユーザートリガー型 fetcher尊重しない場合あり
user-triggered-fetchers-google.jsonGoogle サービス内のユーザー fetcher尊重しない場合あり

出典: Google for Developers - Common Crawlers

旧URL vs 新URL の挙動比較

項目旧URL(4/7以降)新URL
HTTPステータス200 OK(誤誘導)200 OK
レスポンス内容不完全な JSON / 4 IP のみ完全な IP リスト(1,800+ IP)
タイムスタンプ2026-03-03 で固定日次更新
運用への影響silent fail で気づかない正常運用

影響を受ける運用と対策 — 6つのチェック項目

  • WAF / Web Application Firewall ルール:
    クローラー IP のホワイトリストに旧 URL から自動取得している場合、新パスからの定期取得に切り替え。1,800+ IP は不定期に更新される
  • ファイアウォール / ACL(Access Control List):
    サーバー前段の ACL で Google IP を許可している場合、参照先 URL の更新が必要
  • レートリミット設定:
    Googlebot に対して特別なレートリミットを設けている場合、IP 判定基盤の更新を確認
  • オリジンプロテクション(CDN前段):
    CloudFlare 等のオリジン保護機能で Googlebot を許可している場合、IP データソースの更新
  • ログ分類スクリプト:
    アクセスログを Googlebot とその他に分類しているスクリプトの IP マスタの更新
  • Googlebot 検証スクリプト:
    IP アドレスで Googlebot の真正性を検証するスクリプトの参照先 URL を更新。Google 公式の DNS 逆引き検証host コマンド)が IP リストよりも信頼性が高い補助手段

WAF で Googlebot ホワイトリスト設定方法 — 4つの主要 WAF 別手順

WAF(Web Application Firewall)に Googlebot のホワイトリストを設定する標準的な手順は、製品ごとに以下の通りです。すべて新しい IP 範囲ファイル URLからの自動取得を前提とします:

WAF / CDN設定箇所推奨アプローチ
CloudflareFirewall Rules / IP Access Rules公式の Verified Bots 機能で Googlebot 自動許可、IPリスト直接運用は非推奨
AWS WAFIP Sets + Rule GroupLambda で日次ジョブ → 新URL から JSON 取得 → IP Set 自動更新
Imperva / F5IP Reputation / Network List公式 API で IP リスト同期 + 監視 alert 設定
nginx / Apachegeo ディレクティブ / mod_authzcron で JSON 取得 → IP リスト生成 → reload

シンプルな自動取得スクリプト例(cron で日次実行):

#!/bin/bash
# fetch new IP ranges and validate
URL="https://developers.google.com/static/crawling/ipranges/common-crawlers.json"
TMP=$(mktemp)
curl -fsSL "$URL" -o "$TMP" || { echo "FETCH FAILED"; exit 1; }

# silent fail check — IP count threshold validation
COUNT=$(jq '.prefixes | length' "$TMP")
[ "$COUNT" -lt 50 ] && { echo "WARN: only $COUNT prefixes — possible silent fail"; exit 1; }

# atomic update
mv "$TMP" /etc/waf/google-ip-ranges.json
systemctl reload nginx

silent fail による SEO 影響 — 観測事例と統計

4/7 早期停止以降、不完全な JSON を返す旧エンドポイントを参照し続けた組織で観測された SEO 影響は以下の通りです(業界レポート集計、2026年4月〜5月):

  • Googlebot 誤判定率: 不完全な IP リスト(4 IP のみ)使用組織で、本物の Googlebot を「不審な bot」として 403 ブロックする事例が増加
  • 影響規模: 旧 URL を programmatic 取得していた組織のうち、推定 30〜45% が silent fail に気づかずに運用継続
  • クロール効率低下: 一部サイトで Googlebot のクロール頻度が 4月7日以降に 20〜35% 低下、一部 URL のクロール完全停止
  • 復旧までの平均時間: silent fail 発覚から修正完了まで平均 14日(運用ログ調査・スクリプト書き換え・WAF設定変更を含む)

これらの数字は、「定期的な IP 数の妥当性チェック」を運用に組み込んでいなかった組織で発生しています。前掲のスクリプト例にあるCOUNT < 50 のような閾値チェックがあれば防げた問題です。

出典: MERJ blog + 業界SEOコミュニティの観測集計

企業サイト運用事例 — 移転対応のパターン3つ

2026年5月時点で、IP 範囲移転への対応として観測された3つの企業運用パターン:

パターン対応速度業界の評判 / レビュー
先行対応型3/31発表後72時間以内SEO技術ブログで称賛、silent fail を回避できた組織として参照される
4/7 silent fail 観測後対応型2週間以内に発覚 → 即対応「気づけたから良かった」という温度。MERJ レポート参照組織が多い
放置・気づかず継続運用型1ヶ月以上未対応業界フォーラムで「クロール効率低下の原因不明」相談が増加。否定的な評価

業界の総括(評判・レビュー): 移転自体は技術的に難しい作業ではないものの、「6ヶ月の猶予」公式アナウンスと「8日後に silent fail」現場実態の乖離が組織の運用文化を試したと評価されています。検証ロジック・閾値チェック・監視 alert を運用に組み込んでいた組織は被害ゼロ、組み込んでいなかった組織は気づくのに 14日かかったという温度差が浮き彫りになりました。

出典: MERJ blog / SEO業界フォーラム集計(2026/4-5)

マルチボット時代の検証 — 2026年現状 + 自動化スクリプト

2026年は AI 学習クローラー(GPTBot、ClaudeBot、PerplexityBot 等)も含めたボット検証が必要です。Google 公式の DNS 逆引き検証(host コマンド)が最も信頼性の高い方法。IP範囲ファイルは補助的手段と位置づけ、本番環境では DNS 逆引き + IP 範囲の二重チェックを推奨します。

影響範囲を programmatic に取得する組織のみが今回の移転で深刻な影響を受けます。人間が手動コピーして使っている運用は影響軽微ですが、「自動取得運用 vs 手動コピー運用」の選択は2026年の AI クローラー時代では自動取得が標準です。

マルチボット判定の自動化スクリプト例(DNS 逆引き + IP 範囲の二重チェック):

#!/usr/bin/env python3
# verify_googlebot.py — DNS reverse lookup + IP range cross-check
import socket, json, sys, ipaddress

def verify(client_ip, ip_ranges_file='/etc/waf/google-ip-ranges.json'):
    # Step 1: DNS reverse lookup
    try:
        host = socket.gethostbyaddr(client_ip)[0]
    except Exception:
        return False, 'DNS reverse lookup failed'
    if not (host.endswith('.googlebot.com') or host.endswith('.google.com')):
        return False, f'Hostname {host} not Google'

    # Step 2: Forward DNS confirmation
    try:
        if client_ip not in socket.gethostbyname_ex(host)[2]:
            return False, 'Forward DNS mismatch'
    except Exception:
        return False, 'Forward DNS lookup failed'

    # Step 3: IP range cross-check
    with open(ip_ranges_file) as f:
        ranges = json.load(f)['prefixes']
    addr = ipaddress.ip_address(client_ip)
    for pfx in ranges:
        net_str = pfx.get('ipv4Prefix') or pfx.get('ipv6Prefix')
        if net_str and addr in ipaddress.ip_network(net_str):
            return True, f'Verified Googlebot ({host})'
    return False, 'Not in published Google IP ranges'

if __name__ == '__main__':
    ok, msg = verify(sys.argv[1])
    print(('OK: ' if ok else 'NG: ') + msg)
    sys.exit(0 if ok else 1)

このスクリプトは DNS 逆引き + 順引き確認 + IP 範囲チェックの3層検証で、なりすまし bot を確実に弾けます。WAF・nginx・アプリケーション層のいずれにも組み込み可能です。

移行チェックリスト

  1. 自社のスクリプト・ドキュメントで旧パス(/search/apis/ipranges/)を検索し新パスに更新
  2. ファイル名も googlebot.json → common-crawlers.json に変更(必須)
  3. WAF / CDN 設定で Googlebot ホワイトリストの自動更新を確認
  4. レスポンスの完全性をチェックする検証ロジックを追加(IP数が極端に少ない場合は警告)
  5. DNS 逆引き検証を併用するロジックを追加
  6. サイトアナライザーでクローラーアクセスログを確認し、想定外のボットを特定

参照: Googlebot 2MB 制限 | Gemini Skills | AI対応診断ツール | sitemap/canonical 整合性 | AIはあなたのサイトをどう"読んでいる"か | MERJ: 4/7 早期停止レポート | Google Search Central

【2026年5月11日 追記】Google Preferred Sources グローバル展開 — クローラー対策と並行して進める「発見されやすいサイト設計」

2026年5月、Google が Discover / Top Stories カルーセル等でPreferred Sources(優先ソース)機能をグローバル展開しました。既に200,000+ サイトがユーザーから選ばれており、優先登録されたサイトはクリック率が2倍と公式発表されています。

Googlebot のクローラーIP範囲正常化(正規クローラーの検証体制の整備)と並行して、正規クローラーに「優良サイト」として認識される設計を進めることが重要です。

Preferred Sources に登録されやすいサイト要件

要件具体的な施策クローラー対策との関連
連載性・継続更新週1本以上の更新ペース、同一カテゴリで継続定期クロールシグナルが安定
固定執筆者の明示著者ページ + Person schema + 写真掲載E-E-A-T評価が向上
専門特化特定領域に深く踏み込んだコンテンツトピッカルオーソリティとして評価
独自データ自社測定・実体験記録を含む記事一次情報源として優先引用
構造化データ整備Article + Author + Organization schemaクローラーによるコンテンツ理解を助ける

2026年5月11日 LCRS 第9回 13.9% — 「発見される→引用される」の実証

当サイトのLCRS(LLM Citation Rate Score)測定で第9回 13.9% (5/36)を達成。クローラー正規化(Bot弾き)+ Preferred Sources設計(コンテンツ品質)+ IndexNow(インデックス促進)の三層施策が、AI引用率の継続上昇に繋がっています。

  • 第7回(5/1): 0% → 第8回(5/7): 10.7% → 第9回(5/11): 13.9%
  • Perplexity RAGリアルタイム性: 公開後3日以内に引用確認(archives/49が公開3日後に初引用)
  • ChatGPT: 引き続き0件(学習周期3-12ヶ月のタイムラグ構造)

ボット弾き施策でサーバーリソースが最適化されると、正規クローラーの巡回品質が向上します。これがインデックス速度の向上→AI引用率の上昇という経路で効いていると考えられます。

出典: Numinix: May 2026 SEO News / 当サイト LCRS 第9回測定 2026年5月11日 / archives/50 測定4軸の全体像

・GoogleのIP範囲を示すJSONファイルが新しい場所に移動。
・新しいURLはdevelopers.google.com/crawling/ipranges。
・この範囲はGoogle検索のクローラーだけでなく、他のクローラーにも適用。
・古いsearchパスも当面利用可能だが、早期の切り替えが推奨される。
・6か月以内に古い場所は段階的に廃止され、新しい場所にリダイレクト予定。

この記事でこんな事が
学べそうですね

SEO|技術

ポイント要約

GoogleのクローラーIP範囲ファイルの新しい場所についての情報を提供し、早急な更新を推奨しています。

このトピックで身につけるべきスキル

学習の要点

  • 1
    新しいIP範囲ファイルのURLをブックマークする。
    見てみる
    サイトのクローリング状況を確認するためのツール
  • 2
    システムの設定を見直し、新しいパスに切り替える手順を作成する。
    見てみる
    robots.txtの設定をテストするためのツール
  • 3
    クローラーの動作を監視し、問題が発生した場合に迅速に対応する。
    見てみる
    サイトのパフォーマンスを監視するためのツール

重要キーワード・学習リソース

クローリング

SEOの基本を学べる包括的なガイド

SEO Basics - Moz詳しく学ぶ
IPアドレス管理

クローリングの仕組みを理解するためのリソース

Understanding Crawling - Google Search Central詳しく学ぶ
検索エンジン最適化

IPアドレス管理に関する情報を学べるリソース

IP Address Management - TechTarget詳しく学ぶ

本記事の参照元

Google クローラーの IP 範囲ファイルの新しい場所

出典: Google検索セントラルブログ

元記事を読む外部サイト
2025/05/31
THU
00:00:00

ブラウザ・OS 最新バージョン

毎日更新:2026-05-16 調査更新済
  • Android(stable) 未取得
  • Chrome Android(stable) 148.0.7778.167
  • Chrome iOS(stable) 148.0.7778.166
  • Chrome(beta) 149.0.7827.14
  • Chrome(dev) 150.0.7838.0
  • Chrome(stable) 148.0.7778.168
  • Edge(stable) 148.0.3967.54
  • Firefox(stable) 150.0.3
  • Opera(stable) 131.0.5877.55
  • Safari iOS(stable) 未取得
  • Safari(stable) 未取得
  • iOS(stable) 未取得

現在の貴方のIPアドレス

216.73.216.72

このサイトで書いている人

株式会社ツクルン

株式会社ツクルン

Webアドバイジング・クリエイター
池田南美夫
もうすぐ●●歳。ずっーと現役SE。日本にインターネットが上陸してから、ずっーと携わる。 ほんとは超アナログ人間のギター弾き、バンドマン。でも音楽活動とSE、案外似てる。