告别 SEO “玄学”:一套可发布级别的 SEO 工程治理工作流

3 阅读2分钟

很多团队 SEO 失控,不是因为不重视,而是流程断裂:

  • 规范写在文档里,但不能执行;

  • 审计发生在发布之后;

  • 修复靠人工协作,难追踪、难复用。

SAR (SEO-Audit-Remediation) 的目标,就是把这条链路工程化、可门禁化。

SAR 到底包含什么

SAR 不是单一爬虫工具,而是 5 层联动体系:

  1. standards/:人可读标准与边界定义。

  2. rulemaps/:机可执行规则契约。

  3. core/:执行引擎(discover / generate / audit)。

  4. skills/seo-audit/SKILL.md:Agent 执行工作流契约(带阶段约束)。

  5. skills/seo-audit/scripts/*.cjs:打包后的运行产物。

这让标准、执行、修复建议都在同一套版本体系里演进。

为什么 Rulemap 驱动是关键

规则不是散落在代码里的硬编码判断,而是由配置驱动执行:

  • category

  • severity

  • blocking

  • runtime.scope

  • runtime.evaluator

  • runtime.params

运行时范围明确分为 4 类:

  • page(单页规则)

  • cross-page(跨页一致性)

  • host(站点级 robots/sitemap)

  • gate(发布门禁)

这样能做到“规则持续变化,架构保持稳定”。

为什么 skills 很有价值

很多工具擅长“发现问题”,但不擅长“安全落地修复流程”。

skills/seo-audit/SKILL.md 的价值在于:

  • 固化 discover -> generate -> audit 阶段流程;

  • 在路由发现后强制人工审阅检查点;

  • 提供明确命令契约与参数约束;

  • 支持修复后再审计的闭环。

这不是“AI 自动改一切”,而是“可控自动化 + 人工把关”。

端到端使用方式(CLI)

一键(基于 routes):

pnpm seo:audit --routes core/examples/routes.sample.json --origin https://your-site.com

分步执行:

pnpm seo:discover --project-root /path/to/project --origin https://your-site.com
pnpm seo:generate --routes .outputs/<project>/routes.json --origin https://your-site.com
pnpm seo:audit --urls .outputs/<project>/urls.txt

输出不是“截图”,而是工程契约

每次执行都会产出:

  • audit-report.json:结构化审计结果,可接 CI 与二次处理;

  • action-plan.md:按优先级组织的修复计划;

  • 可选 AI 修复建议(--ai-remediation)。

说明:AI 输出定位为建议,不做盲目自动提交。

发布门禁策略

典型门禁规则:

  • P0 违规 = 0

  • passRate >= 99.5%

统一校验命令:

pnpm seo:verify

打包与运行一致性

最终运行产物为:

  • skills/seo-audit/scripts/discover.cjs

  • skills/seo-audit/scripts/generate.cjs

  • skills/seo-audit/scripts/audit.cjs

采用打包产物运行,适合在 CI/CD 中稳定执行,不依赖运行时 node_modules

适合哪些团队

如果你需要:

  • 多仓库统一 SEO 基线;

  • 可审计的发布门禁;

  • 可重复执行的 CLI + Agent 工作流;

SAR 会比“人工巡检 + 零散脚本”更稳、更可持续。

项目地址:

github.com/zandko/seo-…