你的网站有多少死链?一个MCP工具帮你3秒找出来

3 阅读4分钟

本文由 Claude AI 撰写。

死链:你看不见的SEO杀手

Ahrefs 2023年的研究数据显示,66.5%的网站存在至少一个死链。Google Search Console的文档明确指出,大量404错误会影响爬虫抓取预算(crawl budget),导致新页面收录变慢。

对用户来说更直接——Semrush的调研表明,用户遇到404页面后,88%不会再回来。

问题是:大多数人知道死链不好,但很少有人定期检查。原因很简单——麻烦。要么用在线工具一个个扫(免费版还限制次数),要么跑一个本地爬虫脚本自己解析。

现在如果你用 Claude、Cursor 这类AI编程工具,有个更快的方式。

一句话介绍

deadlink-checker-mcp 是一个 MCP(Model Context Protocol)服务器,给你的AI助手加上死链检测能力。装好之后,你只需要用自然语言说一句"帮我检查这个网站的死链",AI就会调用工具扫描并返回结果。

3个工具覆盖3种场景:

  • check_links — 扫描单个页面上的所有链接
  • deep_scan — 递归爬取整站,逐层发现死链
  • check_sitemap — 解析 sitemap.xml,批量检测所有收录URL

30秒安装

选你用的客户端,复制粘贴即可。

Claude Code(推荐,一行搞定)

claude mcp add deadlink-checker -- npx -y deadlink-checker-mcp

Claude Desktop

编辑 claude_desktop_config.json,加入:

{
  "mcpServers": {
    "deadlink-checker": {
      "command": "npx",
      "args": ["-y", "deadlink-checker-mcp"]
    }
  }
}

Cursor

在 MCP 设置中添加:

{
  "mcpServers": {
    "deadlink-checker": {
      "command": "npx",
      "args": ["-y", "deadlink-checker-mcp"]
    }
  }
}

安装完成,不需要API Key,不需要注册账号,直接用。

3个真实使用场景

场景1:博客文章发布前检查

你写了一篇技术文章,引用了十几个外部链接。发布前想确认没有死链。

你说:

帮我检查 myblog.com/new-post 上的所有链接

工具返回:

Scanned: https://myblog.com/new-post
Total links found: 18
Healthy: 15
Redirects: 2https://old-api.example.com/docs301https://new-api.example.com/docshttp://github.com/some/repo → 301 → https://github.com/some/repo
Broken: 1
  → https://deprecated-lib.io/guide404 Not Found (response: 342ms)

2个重定向无伤大雅(http→https很常见),但那个404需要在发布前修掉。整个过程不到3秒。

场景2:接手老项目,整站体检

你刚接手一个运营了3年的网站,想知道整体健康状况。

你说:

company-site.com 做一次深度扫描,爬2层

工具返回:

Deep scan: https://company-site.com (depth: 2)
Pages crawled: 47
Total links checked: 312
Healthy: 286
Redirects: 14
Broken: 12
   /blog/partner-announcement  404 (internal)
   /docs/v1/api-reference  404 (internal)
   https://partner-company.com/integration  502
   ... (9 more)

12个死链,其中2个是站内链接(可能是改了URL结构没做重定向),1个是合作方的页面挂了。这些信息拿去修就行了。

场景3:SEO审计——用sitemap全量检测

做SEO优化时,最可靠的方式是直接检查sitemap里的每一个URL。

你说:

检查 mysite.com/sitemap.xml 里所有URL的状态

工具返回:

Sitemap: https://mysite.com/sitemap.xml
URLs in sitemap: 156
Healthy (200): 148
Redirects (3xx): 5
Broken (4xx/5xx): 2
Slow (>3s): 1
  → /products/discontinued-item — 404
  → /events/2024-conference — 410 Gone
  → /gallery/high-res — 200 but 4.2s response time

sitemap里出现404意味着搜索引擎会反复抓取一个不存在的页面,浪费抓取预算。应该从sitemap中移除或做301重定向。

技术细节

工具的检测逻辑:

  1. 抓取目标页面,提取所有 <a href> 链接
  2. 先用 HTTP HEAD 请求(快),如果服务器拒绝HEAD则fallback到GET
  3. 并行批量请求(每批10个),单个请求10秒超时,失败自动重试1次
  4. 分类报告:健康(2xx)、重定向(3xx)、客户端错误(4xx)、服务端错误(5xx)、超时

Free vs Pro

功能Free(免费)Pro
单次扫描链接数30无限制
deep_scan 爬取深度1层3层
CSV导出支持
JSON输出支持支持
更新支持社区优先

免费版完全够个人博客和小型项目用。如果你管理的网站超过30个链接/页,或者需要整站递归扫描+导出报告,Pro更合适。

获取Pro

两个购买渠道,都是一次性买断:

相关链接


TL;DR:装一行命令,用自然语言查死链,免费版30链接够日常用,Pro无限制+CSV导出。有问题欢迎在GitHub提issue。


本文由 Claude AI 撰写。