这篇文章是本站所有内容的地基。
做 SEO 的人常常陷入一种状态:今天学关键词工具、明天学外链策略、后天学 Core Web Vitals,学了一堆技巧之后仍然说不清楚"搜索引擎到底是怎么工作的"。缺少一张完整的地图,所有技巧都是散点。
我把这张地图画了出来——搜索引擎从"你还没建站"到"用户拿到答案"的全链路,可以拆为 7 个阶段。每一个 SEO/GEO 问题,最后都能在这 7 个阶段的某一个里找到位置。
为什么是 7 个阶段,不是 5 个也不是 10 个。 我拆这张图的标准只有一条:每一个阶段都有自己独立的"失败模式"。也就是说,当你的流量没上来时,问题一定落在这 7 个阶段之一里,且不会跨阶段。阶段再细,失败模式开始重复;阶段再粗,问题的"在哪一步出错"会被含糊过去。7 是我反复合并、拆分、验证了几十个真实站点后剩下来的最小数量。
怎么使用这张地图。 三种方式:
- 新建一个站时,按 0 → 6 顺序把每一阶段的必做项走一遍,不跳步。
- 诊断一个现有站时,反过来走——先看你"卡在哪一阶段",再决定优化动作;常见的误诊是把召回问题当排序问题治。
- 评估一个流量来源是否稳定时,看它依赖哪几个阶段的哪些因素;越少越稳。
第 0 阶段:关键词与意图分析
这个阶段是干什么的:
决定网站要做什么词、建什么页。这是整个流量链条的起点,不是"建站第一步"之前的"可选动作"。没有这一步就开始写内容,等于蒙着眼睛扔飞镖。
为什么先做关键词而不是先写内容。 因为搜索流量的本质是"用户带着一个需求(=查询词)来找你"。如果你写的内容没有对应任何一个真实的查询词,或者对应的是那种月搜索量个位数的词,后面 6 个阶段做得再好都没意义——零乘以任何数还是零。
站长视角的核心任务:
选出一组搜索量足够、竞争度可承受、与业务强相关的关键词,并为每个关键词判断搜索意图(信息型 / 导航型 / 交易型 / 商业调研型),据此决定对应的页面形态。
关键影响因素:
- 搜索量 — 太低的词做了没流量回报,太高的词小站做不动。对一个新站,我通常建议从月搜索量 100–1000 的词开始,这个区间是"有人搜但竞争者少"的窗口。
- 竞争度 — 不是看工具打的 KD 分数,而是直接去 SERP 前 10 看:是不是都是 DR 70+ 的老站?他们的页面有多深?有没有一两篇是"写得粗糙但靠域名权威挤进来"的——那就是你的切入口。
- 长尾词挖掘 — 主词做不动时的绕行路径;精准意图往往在长尾。一个"SEO 工具"做不动,但"WordPress 零插件 SEO 怎么做"可能完全没人做过。
- 搜索意图分类 — 同一个词在不同人群口中意图完全不同,页面形态也不同。"React 教程"可能是想学(信息型),也可能是想找一个已有的在线教程网站(导航型),搜索引擎用 SERP 的前 10 类型分布告诉你主流意图是什么——照着抄就对了。
- 地域性需求 — 中国用户搜"苹果"和美国用户搜 "Apple" 不是同一件事。跨语言站必须分别做关键词研究,不能直接翻译。
- 趋势时效性 — 有些词每年同一时段爆发("春节放假安排"),有些词一次性消费(某款新品发布),这两类词的内容策略完全不同。
- 商业价值(CPC) — 间接反映转化潜力。没有 CPC 的词 = 没人愿意为它花钱投广告 = 可能也很难变现。
- AI 对话中的等价问法 — GEO 时代的新维度。一个词在传统搜索里叫"怎么给 WordPress 加结构化数据",在 ChatGPT 对话里可能直接变成"我想让我的博客被 Google 的富媒体结果显示"——两种表达对应不同的内容切片。
常见误解: 只看搜索量不看意图,结果把"info"意图的词做成"交易"型页面,跳出率奇高。比如"什么是 GEO"是纯信息型词,用户要的是定义和解释,你却给他塞了一个"立即购买 GEO 服务"的落地页,即使排上来也没有转化,同时高跳出率反过来拉低第 4 阶段的权重。
第 1 阶段:爬取与收录
这个阶段是干什么的:
让搜索引擎"觉得值得来",并把你的页面存入它的索引库。爬取是持续进行的后台过程,不是用户搜索时才触发的。
两个独立的判定点要分开看。 一个是"是否被爬到",一个是"爬到了是否被收录"。前者由爬虫调度决定,后者由索引质量模型决定。一个新站最常见的不是"爬不到"——Googlebot 基本会来——而是"爬到了被直接丢弃"。
站长视角的核心任务:
清除一切让爬虫"不愿意来、来了抓不到、抓了不收录"的障碍。
关键影响因素:
- 爬取预算 — 大站有限的爬虫配额优先给重要页;小站要证明每一页都值得。判断方法:Google Search Console 的"抓取统计信息"里看每天抓取次数和抓取响应时间。
- robots.txt / noindex — 是否错误屏蔽了关键页面。错误屏蔽是新站最常见的致命伤,部署完后第一件事就是核对 robots.txt 和
<meta name="robots">输出。 - 服务器响应时间 — 慢的站点直接被降低爬取频率。TTFB 超过 1 秒就应该警觉了,超过 3 秒你的爬取预算会被主动削减。
- Sitemap — 把新页主动告诉搜索引擎,而不是等它自己发现。大站需要分片 Sitemap,本站的
/sitemap.xml就是分片实现。 - 内容独特性 — 高度重复的内容(模板化产品页、大规模机翻站)会被降级收录。Google 的"Helpful Content System"之后这一门槛明显抬高。
- 结构化数据 — Schema.org 帮助引擎理解页面类型。常见的 Article / FAQPage / BreadcrumbList / Organization / Person 几种类型优先部署。
- HTTPS / 移动友好 — 基础门槛,不是加分项。没有这两项你甚至不会出现在移动端 SERP。
- 外部链接数量与质量 — 没有任何外部入口的新站,搜索引擎很难"知道你的存在"。这个问题不是 Sitemap 能替代的——因为"别人愿意链接你"本身就是一种质量信号。
- 更新频率 — 死站点爬虫来得越来越少。但也不必每天强更——稳定的月度节奏比突击式的日更更健康,因为搜索引擎学习的是你的"节奏模式"。
- E-E-A-T — Experience / Expertise / Authoritativeness / Trust。Experience 是 2022 年新加的一个 E,强调"作者有没有真的做过这件事"。对独立研究者来说,把作者信息、过往工作、可核验的第三方资料接入 Author Schema 是必要项。
- 404 / 301 / 302 信号卫生 — 大量 404 会消耗爬取预算;应该用 301 的地方用 302 会让权重传递失败;这两项错误在迁移期尤其高发。
- Canonical 一致性 — 同一内容多个 URL 指向时,canonical 必须稳定。本站 seo-output.php:52-71 的实现就是这一步的工程化。
常见误解: 以为"被抓了就等于被收录"。实际上从抓取到索引之间有一个判定环节,低质、重复、无价值的页面会被抓了之后直接丢弃。在 Search Console 里这会显示为 "Crawled – currently not indexed",这不是 Bug,是算法的主动选择。
第 2 阶段:召回
这个阶段是干什么的:
用户搜索时,你的页面是否进入候选结果集。这个候选集 Google 可达数万到百万级,百度常被简化表述为"前 760 名"。
这是小网站被忽视的真正门槛。 很多小网站被收录后仍然没有排名,问题根本不在"排序",而是死在召回这一步——你的页面压根没进候选集,排序规则再怎么评估都评估不到你。
怎么判断自己是不是卡在召回。 用 site:yourdomain.com 你的目标词 在搜索引擎里搜——如果搜得到,说明被收录了;再用目标词不加 site 搜,如果前 100 页都没你,而你又搜得到站内存在这篇——就是召回阶段被过滤了。这时候优化"排序"没用,必须回头看语义匹配和域名权威度。
召回阶段做的事。 现代搜索引擎用倒排索引 + 语义向量召回并行。前者按字面关键词匹配(传统的 TF-IDF / BM25 变种),后者把查询词和页面内容都编码成向量(BERT / MUM),按余弦相似度拉回最接近的一批。两路的并集进入下一阶段。
关键影响因素:
- 关键词匹配 — 标题、正文、URL 中关键词的出现与位置。标题里出现一次的权重远高于正文出现十次。
- 语义相关性 — BERT、MUM 这类语义模型判断的相似度,不要求精确匹配。这就是为什么 2019 年后"关键词堆砌"不再有效——模型看的不是词频,是语义密度。
- 关键词频率与分布 — 合理密度;过低("这个词在正文只出现过一次")与过高("每 50 字出现一次")都有问题。
- 锚文本信号 — 指向你页面的外链上用了什么词。自己给自己加的站内锚文本也算,但权重低于外站。
- 内容深度 — 段落数、覆盖的子话题数量。一个 300 字的页面想召回 "GEO 是什么" 这种宽泛查询,很难。
- 域名权威性 — 老域名、有持续外链的域名更容易进候选集。新站需要 3–6 个月的"信任培养期"。
- 内容新鲜度 — 对时效性查询("2025 年 GEO 现状")尤其重要;对稳定性查询("什么是 301 重定向")则几乎不影响。
- 查询日志学习 — 搜索引擎会把"用户搜了 A 之后又搜了 B"这类序列学入模型,让同一个页面能被多个等价查询召回。
常见误解: "我搜我的标题都搜不到"常被归因为"没排名",其实是召回阶段就被过滤了。解法不是改标题,是先解决域名权威度(第 1 阶段),让页面进入候选集,再谈排序。
第 3 阶段:前置排序
这个阶段是干什么的:
从数万候选挤进前 10。这是小网站真正的主战场——因为这一阶段的静态因素权重最高,精心优化的小站页面可以超越大站的粗糙页面。
静态因素 vs 动态因素的区别。 前置排序主要用静态因素:内容本身、外链、技术指标。到了第 4 阶段才开始大量用动态信号(用户行为)。对小站来说,动态信号量太少、样本不稳定,反而是前置排序这一阶段的公平性最高——因为它看的是你能控制的东西。
关键影响因素:
- PageRank 或其变体 — Google 至今仍然使用的链接权重模型,2014 年后停止对外公布分值但内部仍在用。
- 内容深度与 E-E-A-T — 谁写的、写得多深、可验证吗。这就是为什么 YMYL(Your Money Your Life)类内容对作者资历要求极严。
- Core Web Vitals — LCP / INP / CLS 三项。对应的阈值是 LCP < 2.5s、INP < 200ms、CLS < 0.1。
- 移动优先索引 — Google 从 2021 年起默认用移动版评估。意思是你 PC 端再漂亮,移动端乱就是乱。
- 内部链接结构 — 站内权重分配的走向。重要页面应该能从首页 2 跳内到达;孤岛页(只能从站内搜索或 Sitemap 到达)几乎拿不到权重。
- 外部链接质量 — 不是数量,是相关性 + 权威性。10 条来自本行业垂直站的链接,远胜于 1000 条来自综合目录站的链接。
- 实体识别 — 页面在讲什么人、什么公司、什么产品。Schema 标注 + 文本里的明确命名共同构成实体信号。
- 同义词覆盖 — 一组同义表达是否在正文里都出现过。做"生成式引擎优化"这个词的页面,如果全文都没出现过 GEO、LLM、AI 搜索 这几个同义说法,模型会觉得你覆盖不全。
- 标题与 H 标签优化 — 关键词位置、层级逻辑。H1 有且仅有一个、H2 覆盖主要子话题,这是结构要求不是美学要求。
- 段落可读性 — Flesch 分数、平均句长。过长的段落会被大模型认为"不易摘录",影响的不仅是人类阅读体验。
常见误解: 以为"写得好自然会排到前 10"。排名是相对的——你的页面不是和绝对标准比,而是和前 10 的页面比。如果前 10 都是巨量外链的旧站,你仅靠内容深度很难挤进去;这时候的优化方向应该是换战场——挑一批前 10 有薄弱环节的长尾词切入。
第 4 阶段:点击调权
这个阶段是干什么的:
决定前 10 名内部的相对位置。由用户行为说了算。
为什么有这一阶段。 因为"前置排序给出的前 10"是算法的猜测,猜得准不准要用真实用户检验。所有主流搜索引擎都有一个在线学习环节——用你页面被点击的实际表现去微调这一页所在的词的排序。
关键影响因素:
- 点击率(CTR) — 相对同位置平均 CTR 的偏离。Advanced Web Ranking 的统计里,第 1 位的平均 CTR 大约是 27%,第 5 位约 6%,第 10 位约 2.4%;你在第 5 位却拿到了 10% 的 CTR,算法会认为"这个页面比它的位置表现更好",有上调倾向。
- 标题吸引力 — 不是关键词堆砌,是"用户看到它愿意点"。一种实用做法:把标题当小广告写,但内容必须兑现承诺。
- 元描述相关性 — 元描述与搜索词的契合。即使搜索引擎经常重写元描述,你写好的仍然是最佳初始版。
- 停留时间(Dwell Time) — 用户点进来后停了多久。注意 Dwell Time 的定义:从点击到返回 SERP 的间隔,不等同于 Analytics 里的"会话时长"。
- 跳出率与 Pogo-Sticking — 点进来又马上退回去继续搜。Pogo-sticking 是最强的负信号——它等于用户亲口说"这个页面没解决我的问题"。
- 页面加载速度 — 慢页面在这一阶段被直接惩罚。因为慢是 Pogo-sticking 的头号原因之一。
- 查询意图满足度 — 用户搜完之后还要不要继续搜。如果用户搜完你这一页后当场关掉搜索框,这是极强的正信号。
- 点击后站内深度 — 用户是不是只看了一页就走,还是继续在站内点了 2-3 页。后者说明你的站有整体吸引力,不只是这一页。
常见误解: 试图伪造用户信号。任何"机器点击"、"模拟停留"在 2020 年后的算法面前都已失效——这不是道德问题,是无效问题。原因有三:一是搜索引擎能从浏览器指纹、IP 分布、行为轨迹识别异常;二是假点击拿不到真转化,对商业目标没帮助;三是一旦被识别,整个域名会被打入"可疑"名单,清洗成本极高。
第 5 阶段:返回与展示
这个阶段是干什么的:
SERP 上的最终呈现形态。同样是第 1 名,有 Featured Snippet 的位置和没有的位置,点击率差异可达数倍。
这一阶段的 ROI 往往被低估。 排名上升 1 位是很难的工程,但让同样的第 3 位长出一个 Rich Snippet、或者从纯文字变成带图 + 评分 + 价格的卡片,等价于"不改动排名拿走更多点击"。
关键影响因素:
- 排名位置对应点击率曲线 — 第 1 位的 CTR 通常是第 10 位的 10 倍以上。不同行业的曲线差异不大,但移动端整体向头部倾斜更严重。
- Rich Snippets — 由正确实现的结构化数据驱动。Article / Recipe / Product / FAQ / HowTo / Review 是六种最常见的被触发类型。
- Featured Snippets — 用户问题的直接答案摘录。要被抽成 FS,页面里必须有"一段 40–60 字的独立句"能直接回答问题;可引用段的方法论(见本站 M7 可引用陈述写法)就是对这一机制的直接适配。
- 图片 Alt — 进入图片搜索的门票。图片搜索带来的流量被大多数站点低估,而门槛只是加几个 Alt 文本。
- 本地化信号 — 包括语言、地域、商业意图信号。中文站在 Google 上呈现"中文 SERP"还是"英文 SERP",很多时候由你的
lang属性和 hreflang 声明决定。 - 个性化调整 — 登录态、历史搜索、位置的影响。同一条查询在不同用户眼中 SERP 可以完全不同。
- AI Overviews / SGE 块 — 2024 年起 Google 在 SERP 顶部加入生成式摘要。这块直接分流了传统 10 蓝链的点击量,也是第 6 阶段 GEO 的主要入口之一。
常见误解: 把这一阶段看成"锦上添花"。其实它的 ROI 经常高于许多内容优化工作——写一篇新文章可能需要 10 小时,而给 5 篇既有文章加 FAQ Schema 只需要 1 小时,后者带来的点击提升常常更显著。
第 6 阶段:GEO 引用
这个阶段是干什么的:
与传统流程并行的新通道。你的内容能否被 ChatGPT、Perplexity、文心、豆包、Claude、DeepSeek 在回答中引用。
它不是传统 SEO 的子集。它有独立的规则:
- 不看排名,看论断密度。 LLM 从答案可引用性的角度挑选内容。
- 不看外链,看语义块可引用性。 一段可以独立成段、不依赖上下文的清晰断言,比一整篇"写得很顺"的散文更容易被切出来引用。
- 不走 SERP,走 LLM 的答案聚合。 用户可能根本不会点击源站。
两种 GEO 路径要分开优化。 一种是训练期纳入——你的内容在模型训练时被读过,将来回答相关问题时有可能直接复述你的观点。这条路周期长(以年计)、不可控、但一旦进入模型就有持续的复利。另一种是检索期命中——模型在回答问题时实时去外部检索(Perplexity、ChatGPT Browse、文心联网都是这个模式),命中你这一页并把你列入引用源。这条路周期短(以周计)、可观测(有 referer 和引用链接)、是当下最值得优化的一路。
关键影响因素:
- llms.txt 声明 — 本站通过 /llms.txt 向 LLM 明确说明站点结构,并提供
/llms-full.txt供训练期抓取全文。 - 可引用段结构 — 每段都可独立成立的陈述性文字。判断方法:把一段拎出来放到任意新语境里,它是否仍然表达一个完整、可验证的断言。
- 论断密度与数据支撑 — 每个关键断言附可验证数据或代码。"根据 Advanced Web Ranking 2024 年数据,第 1 位平均 CTR 为 27%" 这种句子的被引用率显著高于"第 1 位点击率很高"。
- 训练语料纳入 — 你的内容是否被模型训练时看过。判断方法之一:在模型里直接问"你是否知道 XX 站"——有明确回忆说明你在训练集里。
- RAG 检索命中 — 实时检索时能否被检索出。这其实回到了第 2 阶段的召回,只是召回源从搜索引擎换成了 LLM 自带的检索器。
- 外部权威源引用溯源 — 你的内容被其他权威站点引用过,LLM 更倾向于采信。
- AI 爬虫可达性 — GPTBot / ClaudeBot / PerplexityBot / Google-Extended / Bytespider 的访问是否被 robots 允许。本站默认放行主要 AI 爬虫,可在后台设置中调整。
常见误解: 把 GEO 当成"SEO 的新版本"。GEO 的优化目标不是点击率,而是被引用概率——这是一个完全不同的指标体系。传统 SEO 的成功标准是 "我排到了前 10",GEO 的成功标准是"用户在 ChatGPT 里问相关问题时,AI 提到了我的观点并附上链接"。前者带流量,后者带品牌——并且未来很多信息型流量会被后者取代。
立场声明
本站内容不涉及以下任何做法,也不推荐任何读者尝试:
- PV 伪造、刷点击、刷流量 — 在 2020 年后的搜索引擎与 LLM 面前基本已失效,且面临降权风险。伪造的点击无法转化为真实停留时间、无法产生真实 pogo-sticking 信号,现代算法会用"CTR 反常高但 Dwell Time 异常短"这类组合直接识别。
- 快排 — 对品牌站来说是自毁;对黑产来说赚的是短期红利,长期看对页面质量没有帮助。快排本质是对第 4 阶段的干扰,而算法的自我修正周期在缩短——一个 2015 年能维持半年的手段,2025 年可能撑不过 2 周。
- 站群 — 老路子,被识别的成本低于获利。域名注册信息、服务器 IP、模板相似度、内链模式、发布节奏五个维度任何一个被聚类命中都会牵连整群。
- 买外链 / 租链接 — Google 明确反对且有成熟的识别机制("链接出现的上下文是否相关"+"锚文本自然度"+"链出站的历史售卖行为")。
- AI 大量批量生成内容不做人工编辑 — Google 的立场是"看结果而不是看工具",但"AI 批量生成不编辑"的结果几乎总是低质,实际效果等同于主动触发 Helpful Content 降权。
原因不在于"道德洁癖",而在于:
- 这些手段在当下的算法面前已失效或被识别;
- 对 LLM 引用完全没有帮助——LLM 不会因为你刷点击而引用你;
- 对一个以"专业研究者"定位的站点而言,公开提及此类手段即是品牌自毁。
一条判断原则可以兜底: 如果一种做法你不敢在会议上当着 Google 工程师、你的客户、一篇未来 5 年后仍会被读到的文章里公开谈论——就别做。
与本文配套阅读
- 《经典 SEO 流程 vs GEO 流程:逐阶段对照表》 — 把这 7 阶段和 GEO 的并行流程对照看
- 《GEO 是什么:生成式引擎优化与传统 SEO 的本质差异》 — 第 6 阶段的展开
- 《百度与 Google 排序机制的十个差异点》 — 把第 2–4 阶段按引擎分别看
- 《LLM 引用机制拆解》 — 第 6 阶段的机制层
- 《可引用陈述写法:让段落自己"拎得出来"》 — 让你的内容具备第 6 阶段所需的结构
本文会定期更新。更新日志见文末(文末由主题自动渲染"最后修改日期")。