很多团队 SEO 失控,不是因为不重视,而是流程断裂:
-
规范写在文档里,但不能执行;
-
审计发生在发布之后;
-
修复靠人工协作,难追踪、难复用。
SAR (SEO-Audit-Remediation) 的目标,就是把这条链路工程化、可门禁化。
SAR 到底包含什么
SAR 不是单一爬虫工具,而是 5 层联动体系:
-
standards/:人可读标准与边界定义。 -
rulemaps/:机可执行规则契约。 -
core/:执行引擎(discover/generate/audit)。 -
skills/seo-audit/SKILL.md:Agent 执行工作流契约(带阶段约束)。 -
skills/seo-audit/scripts/*.cjs:打包后的运行产物。
这让标准、执行、修复建议都在同一套版本体系里演进。
为什么 Rulemap 驱动是关键
规则不是散落在代码里的硬编码判断,而是由配置驱动执行:
-
category -
severity -
blocking -
runtime.scope -
runtime.evaluator -
runtime.params
运行时范围明确分为 4 类:
-
page(单页规则) -
cross-page(跨页一致性) -
host(站点级 robots/sitemap) -
gate(发布门禁)
这样能做到“规则持续变化,架构保持稳定”。
为什么 skills 很有价值
很多工具擅长“发现问题”,但不擅长“安全落地修复流程”。
skills/seo-audit/SKILL.md 的价值在于:
-
固化
discover -> generate -> audit阶段流程; -
在路由发现后强制人工审阅检查点;
-
提供明确命令契约与参数约束;
-
支持修复后再审计的闭环。
这不是“AI 自动改一切”,而是“可控自动化 + 人工把关”。
端到端使用方式(CLI)
一键(基于 routes):
pnpm seo:audit --routes core/examples/routes.sample.json --origin https://your-site.com
分步执行:
pnpm seo:discover --project-root /path/to/project --origin https://your-site.com
pnpm seo:generate --routes .outputs/<project>/routes.json --origin https://your-site.com
pnpm seo:audit --urls .outputs/<project>/urls.txt
输出不是“截图”,而是工程契约
每次执行都会产出:
-
audit-report.json:结构化审计结果,可接 CI 与二次处理; -
action-plan.md:按优先级组织的修复计划; -
可选 AI 修复建议(
--ai-remediation)。
说明:AI 输出定位为建议,不做盲目自动提交。
发布门禁策略
典型门禁规则:
-
P0 违规 = 0 -
passRate >= 99.5%
统一校验命令:
pnpm seo:verify
打包与运行一致性
最终运行产物为:
-
skills/seo-audit/scripts/discover.cjs -
skills/seo-audit/scripts/generate.cjs -
skills/seo-audit/scripts/audit.cjs
采用打包产物运行,适合在 CI/CD 中稳定执行,不依赖运行时 node_modules。
适合哪些团队
如果你需要:
-
多仓库统一 SEO 基线;
-
可审计的发布门禁;
-
可重复执行的 CLI + Agent 工作流;
SAR 会比“人工巡检 + 零散脚本”更稳、更可持续。
项目地址: