GA4 を覗いたら、chatgpt.com から月25セッションの流入が記録されていました。
playpark のコーポレートサイトの2026年4月時点の数字です。Google からの流入と比べれば桁違いに小さい。それでも、検索結果ページを経由しないトラフィックが「ある」という事実は、それなりに重みがあります。誰かが ChatGPT に何かを聞いて、回答に含まれていたリンクをクリックしてきている。
「GEO(Generative Engine Optimization)」というキーワードで検索すると、3原則・5ステップ・FAQ schema 強化など、もっともらしい方法論が大量に出てきます。ただ、いくつか読み比べて気になるのが、断定的に書かれている割に 一次ソースが見当たらない ことです。「生成AIは数値を好む」「自己完結性の高い H2 が引用されやすい」と言われても、誰がどう測ったのかが書かれていない。
幸い、GEO には査読論文があります。Princeton 大学などの研究チームが KDD '24 で発表した GEO 論文(Aggarwal et al., 2024)です。9つの最適化手法を実際に試して、どれが効いてどれが効かなかったかを数値で示しています。
この記事では、その論文で 実証された手法 と、playpark の GA4 で観測した実数、そして GA4 で AI 流入を測ろうとして気づいた落とし穴をまとめます。「GEO 入門」と名付けた記事は世にあふれていますが、論文に立ち戻った内容のものは意外と少ないので、補完になるはずです。
この記事で学べること
- GEO 論文が実証した9手法の効果(数値付き)
- 効かなかった手法 / 逆効果だった手法
- 「FAQ schema が AI に効く」言説の現状
- GA4 で AI 流入を見るときに見落としがちな点
- playpark で観測した chatgpt.com referral の実数
GEO(Generative Engine Optimization)とは
GEO は Princeton 大学・IIT Delhi などの研究チームが2023年11月に提唱し、KDD '24 で発表されたコンテンツ最適化のフレームワークです。論文の言葉を借りれば「生成エンジンの応答に自社コンテンツが含まれる可視性を、ブラックボックス最適化で高めるための初の体系的アプローチ」。要するに、生成AIに引用される確率を上げるための研究プロジェクトです。
論文の貢献は、9つの手法を本気で測った ことに尽きます。「これが効くらしい」という業界談義ではなく、ベンチマーク(GEO-bench)を作って、各手法を適用した記事と元記事を比較しました。評価軸は2つ。
- Position-Adjusted Word Count (PAWC): 応答内で引用された語数を、引用位置で重み付けした指標(早く引かれるほど高評価)
- Subjective Impression: 引用箇所の質を LLM judge で評価した指標
最良の手法でベースライン比 PAWC +41%、Subjective Impression +28%。これだけ動けば、SEO の世界での「順位 1 つアップ」よりよほど大きな差です。
論文が実証した「引用率を上げる」3手法
論文 Table 1 で測定された9手法のうち、上位3つはこうでした。
1. Quotation Addition — 信頼できる出典の引用文を入れる(PAWC +41%、SI +28%)
論文中の 最良手法。本文に「他のソースからの直接引用文」を組み込みます。生成AIが応答を組み立てるとき、すでに「誰かが引用している箇所」を再引用しやすい、という挙動が観察されました。
ちなみに、本記事で Princeton 論文の文章を直接引用しているのは、自分自身でも Quotation Addition を実演している形です。意図的にやっています。
2. Statistics Addition — 定量的な統計を足す(PAWC +30〜40%、SI +15〜30%)
「多くの企業が」「広く使われている」のような定性表現を、実数や割合で置き換えます。論文では特に「Law & Government」ドメインや「Opinion」型クエリで効果が大きいと報告されています。
3. Cite Sources — 出典を本文中に明示する(PAWC +30〜40%、SI +15〜30%)
主張の根拠を、フットノートではなく 本文中インラインで リンクします。生成AIから見れば、それ自体が「引用に値する記述」のシグナルになる、という解釈です。
上位3手法の共通点
3手法とも、ページの構造を一切変えずに本文中の追記だけで成立する のが特徴です。論文の表現で言えば「require minimal changes but significantly improve visibility」。
これは個人的には意外な結果でした。GEO 系の記事を読んでいると、見出し構造の見直しや FAQ schema の実装といった「足場の組み直し」を勧めるものが多い。論文上では、そういう大工事よりも、本文に出典を貼って数字を補強するほうが効く、ということになります。
論文で「効かなかった」手法
入門記事ではあまり書かれない部分ですが、論文には 効かなかった手法 も明記されています。
| 手法 | 結果 |
|---|---|
| Keyword Stuffing(クエリのキーワードを大量に詰める) | ベースライン比でほぼ改善なし、ドメインによっては悪化 |
| Unique Words(ユニークな単語を増やす) | 効果が極めて小さい |
Keyword Stuffing が効かないのは、従来 SEO で 20年前から「やってはいけない」と言われ続けてきた施策と同じ顔ぶれです。生成エンジン側のランキングも、検索エンジンの低品質ページ排除と似たシグナルを使っている可能性があります。論文中の直接的な分析ではなく、結果を眺めての推測です。
「FAQ schema が AI に効く」という話の現在地
GEO の文脈で「FAQ schema を入れると AI 検索に引用されやすい」「自己完結性の高い H2 にすべき」という主張が頻出しますが、これらは GEO 論文では検証されていません。論文が扱ったのは前述の9手法だけで、構造化データや見出し階層は俎上に載っていない。
では Google 公式はどう言っているか。FAQPage 構造化データのドキュメント を読むと、2026年4月時点でこう書かれています。
"FAQ rich results are only available for well-known, authoritative websites that are government-focused or health-focused."
要するに、Google 検索の FAQ rich result は 政府系・医療系の権威あるサイト限定 の機能です。一般の企業サイトでは表示されません。AI Overviews への効果については、Google 公式は何も言っていません。
「FAQ schema は AI Overviews 表示確率を 3.2 倍にする」式の数字は、第三者ブログをたどると出てきますが、計測手法・サンプル数・再現性を確認できる一次ソースには行き当たりません。
playpark のサイトでも MDX フロントマターに faq: を定義して FAQPage JSON-LD を出力していますが、この実装が AI 引用率に与えた効果を、自社で定量的に確認できているわけではありません。やって損はないし、論文の Cite Sources / Statistics Addition と思想は近いので無駄ではない。ただ「これを入れたから AI に引用される」と断定できる根拠は、私たちの手元にも、Google 公式にも、論文にもない。
自社で観測した AI 検索流入の実数
一次ソース引用ばかりだと退屈なので、自社の数字も置きます。
| Source | セッション(直近 90 日) |
|---|---|
chatgpt.com | 25 |
l.threads.com | 53 |
2026年4月時点で GA4 から取り出した、直近 90 日の playpark コーポレートサイトの referral です。l.threads.com は厳密には生成AIではなく Meta の Threads 経由のリンクで、流入の中身は別記事「投稿してない Threads から 53 sessions 来ていた話」で GA4 のディメンションを切り替えながら追っています。AI 要約起点というより、Threads 上の第三者シェアが起点だった可能性が高い、というのが現時点の所見です。新興チャネルとして並べていますが、「AI 検索流入」と一括りにできる素性ではない、という点は明示しておきます。Perplexity・Claude.ai からの流入については、現状の GA4 構成ではセグメント定義が必要で、まだ集計していません(次のセクションで触れる事情もあります)。
絶対値としては、月数十セッションです。「優先度を下げてもいい」と判断するか、「小さくても今のうちに最適化しておく」と判断するかは、運用フェーズ次第。playpark は後者を選んでいます。理由は身も蓋もなくて、論文の3手法(Cite / Quote / Stat)はそもそも従来 SEO で評価されてきた要素の延長線上にあって、追加コストが小さいからです。
GA4 で AI 流入を測るときの落とし穴
「GA4 で chatgpt.com perplexity.ai claude.ai をセグメント化すれば AI 流入が見える」と書いている GEO 入門は多いです。実際にやろうとすると、すぐに気づきます。素直に値が入ってこない。
| AI ツール | GA4 referral の挙動 |
|---|---|
| ChatGPT | リンククリックでも referral を渡さないケースが多く、その場合 Direct に分類される。ChatGPT 内蔵の Web 検索(ChatGPT search)使用時は chatgpt.com referral が記録されやすい |
| Claude.ai | referral データが不安定。session_source として安定して取れない |
| Perplexity | 比較的安定して perplexity.ai を session_source として渡す |
| Google Gemini | gemini.google.com referral が記録されることがあるが、Google プロパティ内のリダイレクト挙動の影響を受ける |
つまり、GA4 で見えている AI 流入は 氷山の一角 です。playpark の chatgpt.com 25 sessions という数字も、実際にはこれより多くのトラフィックが Direct のバケツに紛れている可能性が高い。
それでも、観測できる範囲だけは継続的に見ておく価値があります。「集客 > トラフィック獲得」レポートで session_source ディメンションを使い、上記4ドメインを含むカスタムチャネルグループを定義しておくのが、現時点で取れる最も実用的な対応です。GSC(Google Search Console)には生成AI検索のクエリは出ません。生成エンジン側の計測 API が公開されていないので、これは仕様です。
まとめ
整理するとこうなります。
- 論文で実証された Top 3 手法は Cite Sources / Quotation Addition / Statistics Addition。いずれも本文中の追記だけで成立し、ページ構造の変更を伴わない
- Keyword Stuffing は逆効果、Unique Words は効果が極めて小さい
- FAQ schema・H2 構造の見直しは GEO 論文では検証されていない。業界ブログの主張に過ぎず、効果は現時点で未検証
- GA4 の AI referral 計測は不完全。ChatGPT/Claude は多くが Direct に流れる
- playpark の chatgpt.com referral 25 sessions/月 は2026年4月時点の自社実測値。論文手法を新規記事から組み込んで効果を追跡予定
GEO 周辺は、まだ「論文 + 実測」より「業界談義」のほうが早いペースで増えている分野です。読むときに「これは誰がどう測った主張か?」だけを意識すると、ノイズの大半はフィルタできます。本記事も「3原則!」「5ステップ!」型に流れる誘惑がありましたが、自戒を込めて、論文と実測の範囲に留めました。
出典
- Aggarwal, P., Murahari, V., Rajpurohit, T., Kalyan, A., Narasimhan, K., & Deshpande, A. (2024). GEO: Generative Engine Optimization. Proceedings of the 30th ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD '24). arXiv:2311.09735
- Google Search Central. Mark Up FAQs with Structured Data(2026年4月時点)
- Backbone Media. Tracking AI Traffic in GA4: What's Possible (and What's Not)
- Hedgehog Marketing. How to See Traffic from AI in GA4 (ChatGPT, Perplexity or Claude)
playpark の SEO 周辺の取り組みは GA4 × GSC × Google Trends でコンテンツを自動提案するパイプライン と サイトリニューアル後3ヶ月の実測レポート もあわせてどうぞ。
GEO 対応や AI 検索流入計測の設計のご相談は、お問い合わせフォーム よりご連絡ください。



