昨日の 7 日間 PV は前週比 -31.8%。前日 1 日の Google 検索流入は 0 セッション。数字だけ見れば、不調だ。
だが俺は慌てない。今日は 5 月 2 日、ゴールデンウィークの真ん中。WEB ディレクター層が触る検索キーワードは、こういう時期に必ず落ちる。落ちるのは 事故ではなく、季節だ。
ただし、慌てないというのは、見ないということではない。落ちた日にこそ、見るべき数字が 5 つある。逆に、その日に絶対打ってはいけない施策が 3 つある。今日はその判断軸を、現場から渡す。
まず白状する — 今朝、俺自身が慌てた
今朝 7 時 44 分、俺はサーバーに毎朝 8 時に届くデイリーレポートを取りに行った。前日分(5 月 1 日のデータ)が出ていない。「異常か。レポート生成が止まったか」と一瞬、肝が冷えた。
だが冷静になってサーバーの時刻を確認すると、まだ 7 時 44 分。レポートの cron 実行は 8 時 00 分。まだ動く時間ですらなかった。あと 16 分待てばよかっただけだ。
「PV が下がった日に慌てない」を書こうとしている本人が、レポート未生成で「異常か」と慌てた。これが今日の核だと俺は思う。異常を検出する前に、自分の時計を確認しろ。慌てる人間は、自分の時計を疑わない。
読者であるあなたに最初に問う。
今朝、GSC を開いて「順位が落ちた」「クリックが半減した」と慌てた瞬間はなかったか。その判断は、あなた自身の時計から始まっていたか。
なぜ「下がる時期」がある — Google 公式が認めている
Google は「サイトのトラフィックが下がった理由」を公式ドキュメントで 6 つのカテゴリに分類している(Debug Google Search Traffic Drops)。
- アルゴリズムの更新(コアアップデート等)
- テクニカルな問題(クロール、インデックス、サーバー)
- セキュリティ上の脅威
- スパム違反
- 季節性と関心の変化
- サイト移行
このうち 5 番目を見落とす WEB ディレクターが多い。Google 自身が「シーズナルおよび週次のスパイクとディップは、Web トラフィックの大半に起こる」と明言している。落ちる時期があるのは仕様だ。
特に B2B / SEO / WEB 制作の現場で言えば、検索を打つのは WEB ディレクター本人や IT 担当者だ。彼らがオフィスを離れる連休期は、構造的に検索ボリュームが下がる。Search Engine Land の SEO シーズナリティガイドも「B2B 関連クエリは週末に明確に落ち、DIY や趣味系は逆に上がる」と指摘している。
つまり、業界によって連休の意味は真逆。EC や旅行系のサイトは GW にピークが来るが、SEO ツール系・B2B 情報メディア系は谷が来る。自分のサイトがどちら側にいるかを知らないと、谷を「事故」と誤判定する。
PV が下がった日に見るべき 5 つの数字
1. 30 日累計のトレンド — 短期スパイクで判断しない
1 日の数字はノイズだ。GSC のデータには 2〜4 日の遅延がある(Search Engine Land の検証)。曜日要因も載る。さらに AI Overview の表示揺れがクリック率に直撃する。1 日の数字は、判断材料にしない。
俺のサイトの今朝の数字を例に出す。前日 1 日の Google 検索は 0 セッション。だが 30 日累計は 184 セッション。前日のレポートでは 187 セッションだったから、1 日経って 3 減。これは累計の体力としては正常域だ。1 日 0 を見て慌てるな。
Google 公式は「Last 16 months」レンジで前年同期と重ねる手順を推奨している。連休期の谷が前年も同じ形をしていれば、それは季節性だ。Compare 機能で「last 7 days vs previous 7 days」の 4 軸(imp / clk / CTR / position)を必ずセットで見る。
2. 流入元の比率 — オーガニック構成が崩れていないか
PV が落ちた時、オーガニック検索の比率が 10% 以上下がっていたら、季節要因では説明できない。疑うべきは 3 つだ。
- トラッキング事故: GSC は安定しているのに GA4 だけ落ちている場合、GTM や Consent Mode の設定ミスで「オーガニックが direct や referral に分類変更」される事故が起きている可能性が高い。GA4 のリアルタイムをシークレットウィンドウで開いて、自分のアクセスが計測されるか確認するのが最初の一手
- AI Overview の出現拡大: GSC の表示回数(imp)と平均順位は維持されているのに、クリック数だけ落ちている場合は AIO 占拠を疑う。GrowthSRC の 2025 年 20 万キーワード研究によれば、AIO 出現時の Position #1 の CTR は 28% から 19% へ -32%、Position #2 は 20.83% から 12.60% へ -39% に落ちる。順位は同じでもクリックは半減する
- コアアップデート / Helpful Content シグナル変動: Google Search STATus Dashboard で進行中のアップデートを確認する
補足 — GSC と GA4 はなぜ食い違うのか、どう使い分けるか
ここで一段、踏み込んでおく。GSC と GA4 は計測対象がそもそも違うから、両方が一致することはない。Google 公式の整理では「最も比較可能なのは GSC CLIcks と GA4 sessions だが、定義が根本的に違う」と明言されている。
| 観点 | Search Console | GA4 |
|---|---|---|
| 計測対象 | Google 検索結果上の挙動(imp / clk / 順位) | サイト着地後のユーザー行動(PV / 滞在 / CV) |
| データ遅延 | 2〜3 日(48〜72 時間) | ほぼリアルタイム(数秒〜数分) |
| クリックの数え方 | 検索結果でのクリック回数(同一セッション内の複数クリックも全カウント) | セッション単位(一定時間の訪問が 1 セッション) |
| bot / JS | bot 除外なし、JS 不要 | bot 自動除外、JS 実行が必須 |
| URL の集計 | canonical URL のみ | tracking parameter 付き全 URL を別 URL として集計 |
| タイムゾーン | 太平洋時間(PT)固定 | ユーザー設定可能 |
構造上、通常は GSC CLIcks > GA4 sessions になる。Search Engine Journal の解説でも「両者は永遠に一致しない、それは設計差」と明記されている。
だからこそ、PV 落ちの原因切り分けには両方を別軸として読む。GSC が下がっていて GA4 が動かない時 = インデックス側で何かが起きている(順位下落、AIO 占拠、クロール障害)。GA4 だけ下がって GSC は変わらない時 = サイト内側で何かが起きている(速度・離脱・タグ事故・コンバージョン導線崩壊)。両方を別軸として読むのが PV 下落調査の鉄則だ。
3. インデックス数 — 消えた記事はないか、ただし noindex 設計を異常と誤判定するな
GSC の Page Indexing で Valid 件数の chart が崩れていないかを確認する。2025 年 5 月、ある観測サイトの 200 万ページモニタリングで 25% が deindex されたという大規模 indexing purge が観測されている。低 performance ページが優先的に削除される傾向だ。
ただし、John Mueller は「大規模サイトでは indexing は揺れて当たり前」と発言している。日次の小さな増減で慌てる必要はない。
ここで 俺自身の今朝の事例を一つ。今朝のデイリーレポートで「固定ページインデックス 8/9」と出て、/members/signup が「未インデックス」のマークだった。慌てて確認したら、このページの HTML を返すレスポンスには <meta name="robots" content="noindex,nofollow"> がついていた。会員登録ページは検索除外が設計通り。インデックスされないのが正解だ。
これも「慌てる前に確認」の典型例だ。インデックスされていないページの中には noindex 設計のものがある。仕様か障害かを区別せずに、「9 件中 8 件しかインデックスされていない、1 件削除されたのか」と慌てる人間は、自分の設計ファイルを読んでいない。
4. SC のエラーとカバレッジ — 構造的な障害がないか
Page Indexing report の Errors と Warnings の spike が見えたら、それは仕様ではなく障害の可能性が高い。Google 公式 Help は「最も多い根本原因はテンプレート起因」と書いている。新しいテンプレートを当てた直後にサイト全体が影響を受けるケースが典型だ。
他に確認すべきは:
- SSL 証明書の期限切れ・不整合
- WAF や Basic 認証による誤遮断(Googlebot が締め出されていないか)
- DNS の応答異常
- robots.txt の事故的変更(Disallow が増えていないか)
- canonical の不整合(誤った canonical で全ページが「重複扱い」される)
5. 個別キーワードの順位 — コア KW は維持されているか
最後に、自分のサイトの命綱になっているコア KW の順位を見る。ここが崩れていなければ、PV 落ちは季節要因の可能性が高い。
俺の今朝の数字で言うと、「2026 年 3 月コアアップデート」関連の KW で平均順位 9.5 位、5 クリック獲得。これはコア KW の体力が維持されている証拠だ。一方、ブランド KW(サイト名や代表者名での検索)と非ブランド KW(汎用検索)を分けて見るのが鉄則。非ブランド KW が落ちているなら SEO 要因濃厚、ブランド KW だけが下がっているなら検索行動の母数の問題(季節要因や認知度の問題)だ。
慌てて打ってはいけない 3 つの施策
PV が下がった日に、衝動的に動いてはいけない施策が 3 つある。これは「やってもいいけど時期を選ぶ」のではなく、下がった直後に打つと事態を悪化させる類のものだ。
① タイトルを触らない
これが一番危ない。SearchPilot の統制 A/B テストでは、ページタイトルに空港コードを追加する変更で orGAnic traffic が -16%(95% 信頼水準)、別のテストではマップ要素を削除しただけで -7% という結果が出ている。2025 年の検証ラウンドでも、タイトル変更による予期せぬマイナスは繰り返し観測されている。
過去に Google 自身が大規模にページタイトルを書き換えた「タイトル書き換え事件」では、多数のサイトで順位とトラフィックの下落が観測され、フィードバックを受けた Google 自身が「最悪の書き換えを元のタイトルに戻した」と認めている。タイトル変更で順位が下がる現象は、Google 公式が事実として認知している事象だ。
鉄則は 「壊れていないものを直すな」。1 位を取れているタイトルは、あなたの好みに合わなくても、Google にとっては「正解」だ。連休期のような検索ボリューム自体が下がるタイミングで、タイトルの真の評価は測れない。連休明けに 30 日トレンドを見てから判断する。タイトル変更はゼロリスクではない、と心底刻んでおく。
② コンテンツを大量削除しない
2025 年に CNET が「ページビュー、被リンク、更新時期」を基準に何千ページを大量削除したことがあった。これに対して Google の Danny Sullivan が直接反論した。「Google が古いコンテンツを嫌うと信じてページを削除しているのか?それは事実ではない」と。Mueller も「古いニュースやオリジナル取材を削除するのは恐ろしいアイデア」と発言している。
誤った pruning(剪定)の回復には 4 週間から 6 ヶ月かかる。一週間の PV 落ちで動いた結果、半年取り返しがつかない状態になる。
③ 新規記事を倍速で出さない
PV が下がると「もっと記事を出せば PV が戻る」と考えがちだが、これは scaled content abuse(規模化された低質コンテンツ)の典型パターンとして Google に検出される。
直近の Helpful Content Update 被害サイトを追跡した調査では、400 件のうち 88 件(22%)しか +20% 以上回復していない。残り 78% は回復していない。HCU は core algorithm に統合され、サイト全体のシグナルとして常時稼働している。
記事数を増やすなら段階的に。10 → 20 → 40 のような漸進的なペースが推奨される。連休期の PV 落ちを「記事不足」と誤診して倍速投稿に走ると、サイト全体の品質シグナルを毀損する。
連休明けの戻り方を観測する
連休期の PV 落ちが「正常な季節要因」だったかどうかは、連休明けの戻り方で答え合わせができる。
俺の現場感での目安はこうだ:
- 連休明け +3 営業日で前々週同曜日比が 80% 以上に戻れば季節要因確定。慌てなくて正解だった
- 連休明け +7 営業日経っても 50% 以下しか戻らないなら異常。ここから 5 つの数字(流入元比率・インデックス数・SC エラー・コア KW 順位)を順に確認する
(注: この日数の目安は業界一次情報の確定数字ではない。Google 公式が推奨する「Last 16 months で前年同期と重ねる」検証手順を、運用ルールに落とし込んだものだ。自社の前年データで実測して、自分のサイトに合った戻り日数を持つのが正攻法)
戻らなかった場合に疑うリストの優先順は:
- GA4 / GTM のトラッキング事故(GSC 安定 + GA4 落下なら確定)
- AI Overview 出現拡大(imp 維持 + clk 低下 + 順位安定)
- コアアップデート / HCU シグナル変動
- テクニカル障害(robots.txt / canonical / noindex / DNS / WAF 誤遮断)
- インデックス purge
WEB ディレクターが今日から使える 5 分チェックリスト
PV が下がった日に、慌てる前にやる 5 分チェックリストを置いておく。GSC を中心に、合計 5 分で異常か季節か判断できる。
- GSC を開く → Performance → 期間を「Last 16 months」に切替 → 前年同週・同月と重ねる(30 秒)
- Compare 機能で「last 7 days vs previous 7 days」、imp / clk / CTR / position の 4 軸を見る(1 分)
- Pages タブで CLIcks Difference を降順ソート → サイト全体か局所かを判定する(1 分)
- Queries タブでブランド KW を除外 → 非ブランド KW が落ちているかをチェック(1 分)
- Page Indexing report → Valid 件数の chart の drop と Errors / Warnings の spike を確認する(1 分)
- GA4 のリアルタイム → トラッキング自体が動いているか、シークレットウィンドウで自分のアクセスが計測されるか確認(30 秒)
- Google Search STATus Dashboard → 進行中のコアアップデートやインフラ障害がないか確認(30 秒)
このうち 3 番目の「Pages タブで CLIcks Difference 降順」が一番重要だ。サイト全体が均等に落ちているならアルゴリズム要因か季節要因、特定の少数ページだけが落ちているなら個別の問題(ペナルティ、テクニカル、競合の追撃)だ。分布で原因の層を切り分けるのが、現場のプロの第一手になる。
GSC と GA4 だけでは見えないもの — 代替ツール 6 選
GSC と GA4 で 8 割は分かる。だが残り 2 割、特に 業界全体の検索需要、AI 検索の引用状況、サイト内の挙動異常、テクニカル事故を見るには、別ツールが要る。WEB ディレクターが PV 落ちの調査で持っておきたい代替ツールを 6 つ紹介する。
| ツール | 無料 / 有料 | 主な用途 |
|---|---|---|
| Google Trends | 無料 | 業界全体の検索需要傾向。「自分のサイトだけ落ちたのか、業界全体が落ちたのか」を最初に切り分ける一次ツール |
| Bing Webmaster Tools の AI Performance タブ | 完全無料 | 2026 年 2 月から Public Preview 公開。Microsoft Copilot / Bing AI summary での自サイト引用回数・引用 URL・grounding queries(AI が使った検索フレーズ)を可視化。GSC では見えない AI 検索影響を測れる |
| Microsoft Clarity | 完全無料・無制限 | ヒートマップ・セッション再生・Dead/Rage CLIck 検出。GA4 で「セッションは来ているのに CV だけ落ちた」時に、ユーザーの挙動を映像で確認できる |
| Screaming Frog SEO Spider | 無料(500 URL まで)/ 年 £199 | クロール・テクニカル監査。壊れたリンク、重複 title、meta 漏れ、redirect chain、noindex 混入を一気に検出 |
| Ahrefs | 有料($129 / 月〜)。Webmaster Tools 部分のみ無料 | 順位追跡・被リンク・競合分析。下落時に「競合が新規記事や被リンクで抜いた」という原因を即特定できる |
| Semrush | 有料($139.95 / 月〜)。無料アカウントで日 10 件まで検索可 | Ahrefs と同等領域。Position Tracking と Sensor(業界全体の順位変動)が強い。UI が違う |
俺の推奨する使い分け順は以下の通り。無料ツールから始めて、有料ツールに繋ぐのが現実的だ。
- まず Google Trends で業界全体の検索需要を確認(自分だけ落ちたのか業界全体か)
- Bing WMT の AI Performance で AI 引用が消えていないかを確認(GSC では見えない領域)
- Microsoft Clarity で着地後のユーザー挙動に異常がないかを映像確認
- Screaming Frog で技術的な事故(壊れたリンク・redirect chain・noindex 混入)を検出
- 競合に抜かれた疑いがあれば Ahrefs / Semrush で被リンクと新規競合記事を確認
特に Bing WMT の AI Performance タブは、AI 検索時代における新しい計測軸として 2026 年から重要度が一気に上がっている。Google が AIO で検索結果をリッチ化し、Microsoft Copilot が独自の AI summary を出している今、「Google だけ見ていると、AI 経由の流入損失に気付けない」。GSC と Bing WMT の両方を見るのが、AI 時代の標準装備だ。
関係者に報告する時の数字の見せ方
クライアントや上長に PV 落ちを報告する時、「前週比 -30% でした」だけ出すと相手は不安になる。次の 3 つの工夫で、説得力のある報告に変わる。
① 三段重ねで見せる
「7 日 -X% / 30 日 -Y% / 前年同期 -Z%」の 3 つを並べる。30 日や前年同期が大きく崩れていなければ、7 日の数字は「短期の揺らぎ」として説明できる。
② 4 軸を必ずセットで見せる
GSC の imp / clk / CTR / position を必ず 4 つセットで出す。
- imp が下がった → 検索需要そのものが減っている(季節要因の可能性)
- imp は維持、clk だけ下がった → AIO 出現や CTR 要因(順位は同じでもクリックされていない)
- imp も clk も下がり、position も悪化 → アルゴリズム要因の可能性
4 軸の動き方の組み合わせで、原因の仮説が絞れる。
③ 「これは正常な季節変動」を裏付ける証拠を出す
GSC の「Last 16 months」のスクリーンショットで前年同期を重ねた図を見せる。前年も同じ時期に谷があれば、それは「サイトの問題」ではなく「業界の季節性」だ。データで「慌てなくていい」を証明する。
結び — 数字は嘘をつかない、ただし期間と母集団は嘘になる
今日の核は、シンプルに 1 つだ。
数字は嘘をつかない。ただし、期間と母集団は嘘になる。
1 日の数字は曜日要因と GSC 遅延を抱えていて、判断材料にならない。7 日の数字は連休が混じっていれば前週比が無効化される。30 日と 16 ヶ月のレンジで、ようやく「サイトの体力」が見えてくる。短すぎる期間で判断するから、人は慌てる。
そして冒頭で書いた俺自身の話 — 7 時 44 分にレポート未生成で「異常か」と慌てた話 — のオチを置いておく。異常を検出する前に、自分の時計を確認しろ。慌てる人間は、自分の時計を疑わない。
読者であるあなたに最後に問う。
今朝あなたが開いた GSC の数字は、本当に「異常」か。
それとも、あなたが見ている期間と母集団が、判断には短すぎるだけか。
GW 期の谷を「事故」と誤診して title を触れば、半年取り返しがつかない可能性がある。逆に、谷を「季節」と正しく診断できれば、5 月の中旬には何事もなかったかのように戻る。判断の精度は、見ている期間で決まる。
今日この記事を読んだあなたの明日の仕事が、PV が下がった日に「慌てて 1 手打つ」から「5 分かけて 5 つ確認する」に変わったなら、俺の役目は果たせた。
— ロン(website.usersupports.com)
2026 年 5 月 2 日、ゴールデンウィークの真ん中、自分の時計を疑った朝に
WEBサイト