本文由 Claude AI 撰写。
死链:你看不见的SEO杀手
Ahrefs 2023年的研究数据显示,66.5%的网站存在至少一个死链。Google Search Console的文档明确指出,大量404错误会影响爬虫抓取预算(crawl budget),导致新页面收录变慢。
对用户来说更直接——Semrush的调研表明,用户遇到404页面后,88%不会再回来。
问题是:大多数人知道死链不好,但很少有人定期检查。原因很简单——麻烦。要么用在线工具一个个扫(免费版还限制次数),要么跑一个本地爬虫脚本自己解析。
现在如果你用 Claude、Cursor 这类AI编程工具,有个更快的方式。
一句话介绍
deadlink-checker-mcp 是一个 MCP(Model Context Protocol)服务器,给你的AI助手加上死链检测能力。装好之后,你只需要用自然语言说一句"帮我检查这个网站的死链",AI就会调用工具扫描并返回结果。
3个工具覆盖3种场景:
- check_links — 扫描单个页面上的所有链接
- deep_scan — 递归爬取整站,逐层发现死链
- check_sitemap — 解析 sitemap.xml,批量检测所有收录URL
30秒安装
选你用的客户端,复制粘贴即可。
Claude Code(推荐,一行搞定)
claude mcp add deadlink-checker -- npx -y deadlink-checker-mcp
Claude Desktop
编辑 claude_desktop_config.json,加入:
{
"mcpServers": {
"deadlink-checker": {
"command": "npx",
"args": ["-y", "deadlink-checker-mcp"]
}
}
}
Cursor
在 MCP 设置中添加:
{
"mcpServers": {
"deadlink-checker": {
"command": "npx",
"args": ["-y", "deadlink-checker-mcp"]
}
}
}
安装完成,不需要API Key,不需要注册账号,直接用。
3个真实使用场景
场景1:博客文章发布前检查
你写了一篇技术文章,引用了十几个外部链接。发布前想确认没有死链。
你说:
帮我检查 myblog.com/new-post 上的所有链接
工具返回:
Scanned: https://myblog.com/new-post
Total links found: 18
Healthy: 15
Redirects: 2
→ https://old-api.example.com/docs → 301 → https://new-api.example.com/docs
→ http://github.com/some/repo → 301 → https://github.com/some/repo
Broken: 1
→ https://deprecated-lib.io/guide — 404 Not Found (response: 342ms)
2个重定向无伤大雅(http→https很常见),但那个404需要在发布前修掉。整个过程不到3秒。
场景2:接手老项目,整站体检
你刚接手一个运营了3年的网站,想知道整体健康状况。
你说:
对 company-site.com 做一次深度扫描,爬2层
工具返回:
Deep scan: https://company-site.com (depth: 2)
Pages crawled: 47
Total links checked: 312
Healthy: 286
Redirects: 14
Broken: 12
→ /blog/partner-announcement → 404 (internal)
→ /docs/v1/api-reference → 404 (internal)
→ https://partner-company.com/integration → 502
→ ... (9 more)
12个死链,其中2个是站内链接(可能是改了URL结构没做重定向),1个是合作方的页面挂了。这些信息拿去修就行了。
场景3:SEO审计——用sitemap全量检测
做SEO优化时,最可靠的方式是直接检查sitemap里的每一个URL。
你说:
检查 mysite.com/sitemap.xml 里所有URL的状态
工具返回:
Sitemap: https://mysite.com/sitemap.xml
URLs in sitemap: 156
Healthy (200): 148
Redirects (3xx): 5
Broken (4xx/5xx): 2
Slow (>3s): 1
→ /products/discontinued-item — 404
→ /events/2024-conference — 410 Gone
→ /gallery/high-res — 200 but 4.2s response time
sitemap里出现404意味着搜索引擎会反复抓取一个不存在的页面,浪费抓取预算。应该从sitemap中移除或做301重定向。
技术细节
工具的检测逻辑:
- 抓取目标页面,提取所有
<a href>链接 - 先用 HTTP HEAD 请求(快),如果服务器拒绝HEAD则fallback到GET
- 并行批量请求(每批10个),单个请求10秒超时,失败自动重试1次
- 分类报告:健康(2xx)、重定向(3xx)、客户端错误(4xx)、服务端错误(5xx)、超时
Free vs Pro
| 功能 | Free(免费) | Pro |
|---|---|---|
| 单次扫描链接数 | 30 | 无限制 |
| deep_scan 爬取深度 | 1层 | 3层 |
| CSV导出 | — | 支持 |
| JSON输出 | 支持 | 支持 |
| 更新支持 | 社区 | 优先 |
免费版完全够个人博客和小型项目用。如果你管理的网站超过30个链接/页,或者需要整站递归扫描+导出报告,Pro更合适。
获取Pro
两个购买渠道,都是一次性买断:
相关链接
TL;DR:装一行命令,用自然语言查死链,免费版30链接够日常用,Pro无限制+CSV导出。有问题欢迎在GitHub提issue。
本文由 Claude AI 撰写。