本文讨论的是 《搜索引擎工作全流程》 中的第 6 阶段:GEO 引用。
GEO 的复杂在于:不同的 LLM 引用机制差异极大。一个策略在 Perplexity 上生效,在豆包上可能完全无效。如果用"做 Google SEO"的心态去做所有 LLM,结果多半是——在 Perplexity 上拿到可观引用,在文心上几乎被无视,而你完全不知道为什么。
本文拆解 ChatGPT / Perplexity / 豆包 / 文心 四个引擎的引用机制,给出每一家的 GEO 策略差异,以及一套跨引擎都能用的基线打法。
分析任意 LLM 引擎的三个问题
在进入具体引擎之前,先给一个可以套在任何新 LLM 上的分析框架。每次出来一个新引擎,问这三个问题,就能大致判断它的引用机制:
- 内容源问题 — 引擎的回答主要来自训练语料、还是实时检索、还是自家生态的内容平台?这决定了你进入它"知识库"的路径。
- 引用形态问题 — 回答里是否强制附引用?是附链接还是只附标题?用户能不能点出去?这决定了你从引用里能拿走什么(流量、品牌、还是什么都没有)。
- 信号偏好问题 — 这家引擎对域名权威度、语义匹配、内容结构、时间新鲜度、还是站外信任图谱更敏感?这决定了你该往哪里使力。
下面四个引擎,每家都按这三个问题展开。
ChatGPT
机制: 训练语料纳入(截断到某一时间点)+ Browsing 实时联网。引用不是产品核心形态,仅在 web search 触发时显示源链接;默认对话多数情况下只输出文本、不附来源。
对你的影响:
- 训练语料中被覆盖的权威网站,即使不联网也能被 ChatGPT 在答案中复述(但通常不会明确点名你的域名)。
- 联网时优先命中的是"语义最相关 + 权威度较高"的页面,且会倾向于挑 3–5 个主源头而不是大批量引用。
- 引用溯源不是 ChatGPT 的产品默认行为——很多用户看到的答案里根本没有链接;这意味着你的内容被使用,但用户不知道"这是从你那里学来的"。
GEO 策略: 双轨并行——争取被训练语料纳入(长期目标,周期以年计,靠 /llms-full.txt 和长期内容积累),同时维护高质量可检索页面(短期目标,通过 Bing 索引进入 GPT Browse 的检索池,因为 ChatGPT 的联网底层用的是 Bing)。
Perplexity
机制: 每一次回答都实时检索 + 每个答案强制附 3–10 条引用,引用是产品的核心形态。Perplexity Pro 模式还会对同一问题做多轮检索叠加。
对你的影响:
- 你的页面是否被引用几乎完全取决于这一次查询下的检索命中 + 内容可切片性,与你在 Google 上的排名关系不强——Perplexity 自己有一套检索器。
- 权威域名 + 清晰段落结构的网站,在 Perplexity 上引用率极高;一些在 Google 上排不到前 30 的小站,能稳定出现在 Perplexity 的 top 5 引用里。
- 即使你的站排名很低,只要内容结构好,也能被引用——这是 Perplexity 对"小网站最友好"的地方,也是目前 GEO 投入回报比最高的战场。
GEO 策略: 核心战场。重点做可引用段结构(见 M7)、论断清晰、数据可验证。标题写得"问句化"能显著提升被匹配到 Perplexity 问答查询的概率。
豆包
机制: 字节体系内容生态为主(今日头条、抖音图文、懂车帝、今日头条问答)+ 联网增强。豆包对字节系内容有显著的路径优先权,外部站点只在生态内容覆盖不足时才被召回。
对你的影响:
- 站外独立网站的引用优先级明显低于平台内内容;同样一条信息,今日头条上有就优先引用头条。
- 对中文内容有偏好,对特定垂直领域(汽车、美食、时尚、育儿)的字节系内容引用频率尤其高。
- 引用溯源经常只显示"来源:头条号 XX",很少引用独立域名,即使引用了也是以昵称+平台形式,而非 URL。
GEO 策略: 如果核心内容在字节生态涵盖的垂直领域,优先在对应平台分发一份同质内容(做成头条号/抖音图文),比死磕独立站被豆包引用更高效。纯独立站的豆包 ROI 低,不建议作为主战场。
文心
机制: 百度内容生态(百家号、熊掌号、百度知道、百度百科)+ 百度搜索索引。文心的 RAG 底层就是百度索引,因此你在百度上的收录质量几乎直接等于被文心引用的概率。
对你的影响:
- 百度索引质量直接决定被文心引用概率,甚至比 Perplexity 对 Google 的依赖更强——因为百度索引本身是闭环。
- 百家号与百度百科的内容权重显著高于独立网站。一条在百家号发的文章被文心引用的概率,是同样内容放独立站的 3–10 倍(我自己的粗糙样本)。
- 中文站点被文心引用的权重 > 英文站点;跨境站必须单独准备中文版才有机会。
GEO 策略: 三件事并行——独立站本身要保证被百度充分收录(站点验证 + 提交 Sitemap);把核心长文在百家号上也铺一份;重要术语有条件就写入百度百科词条(但百科审核门槛高,不是所有站都能做)。
四者综合对比表
| 维度 | ChatGPT | Perplexity | 豆包 | 文心 |
|---|---|---|---|---|
| 是否强制附引用 | 联网时才附 | 强制 | 偶尔 | 偶尔 |
| 训练语料 > RAG | 侧重训练 | 侧重 RAG | 平台内容+RAG | 平台内容+百度索引 |
| 引用独立站友好度 | 中 | 高 | 低 | 中 |
| 中文偏好 | 中 | 中 | 高 | 很高 |
| 英文偏好 | 高 | 高 | 低 | 低 |
| 用户能点开源站 | 看场景 | 可以 | 较少 | 较少 |
| 底层检索源 | Bing | 自建检索器 | 字节生态+联网 | 百度索引 |
其他引擎速评
- Claude — 机制接近 ChatGPT,训练语料 + 受限联网。引用形态比 ChatGPT 更保守(Anthropic 的默认设置更谨慎),中文资料训练覆盖度低于 GPT-4 类模型。对英文权威站引用质量好。
- DeepSeek — 以模型能力见长,默认对话不强依赖 RAG。引用形态目前较弱,GEO 回报还在观察期。
- Google AI Overviews / SGE — 底层就是 Google 搜索,因此与传统 Google SEO 高度耦合;是唯一一个"把 SEO 做好 = GEO 自动跟上"的引擎。
跨引擎 GEO 的统一策略
即便四者机制差异大,以下几件事在四边都有用,可以作为 GEO 基线:
- 段落级可引用结构。 每段一个清晰断言,带可验证数据。见 M7 可引用段方法。
- 结构化数据。 Schema.org 基础类型(Article、FAQPage、HowTo、Person)。
- 持续更新。 新鲜度对所有引擎都是正信号;死站点被引用概率持续衰减。
- 明确的权威信号。 作者页、About 页、可溯源的引用链。LLM 对"能被追责的作者"的内容明显更敏感。
/llms.txt声明。 直接告诉所有 LLM 你站点的结构和主要文章,见 M5 llms.txt 完全指南。
单点不可做的反清单
反过来,下面这些在任何一家引擎上都不会起作用,别浪费时间:
- 大量低质内容刷 GEO 覆盖量 — LLM 比搜索引擎更擅长识别低信息密度;一个站 80% 是注水内容,会拖垮剩下 20% 优质内容的被引用率。
- 伪造数据写入"可引用段" — 四家引擎都有跨文档一致性检查;一旦某条数据在多篇文章里互相矛盾,整个源会进低权重队列。
- 只在一家引擎上使力 — 单引擎依赖的风险太高;任何一次模型版本更新都可能让你的引用率归零。
监控建议
自建一套跨引擎引用追踪脚本(见 T1 Python 引用检查脚本),每日或每周采样一次。建议至少监控:
- 你的核心品牌词("6NN6C"、"你的站名")在四家引擎的回忆程度
- 你站点主打的 3–5 个长尾信息型查询的被引用情况
- 月度对比:引用源里你的域名占比变化
配套阅读
- 《可引用段:一种面向 LLM 的内容结构化方法》 — RAG chunk 机制的写作侧适配
- 《llms.txt 完全指南》 — 跨引擎都能读懂的声明格式
- 《GEO 是什么:生成式引擎优化与传统 SEO 的本质差异》 — 上游概念