什么是seo
SEO(Search Engine Optimization,搜索引擎优化) 是指通过优化网站结构、内容及外部链接等,提高网站在搜索引擎自然搜索结果中的排名,从而增加网站流量、提升品牌知名度并实现业务目标的过程。其核心是遵循搜索引擎的算法规则,满足用户搜索需求,同时提升网站的权威性和可信度。
一、如何提升seo
所有对seo优化的目的可以分为以下几类
- 让爬虫更容易发现页面(优质外链/优化结构/Sitemap等)
- 让爬虫更高效抓取(提升速度/消除障碍等)
- 让内容更值得抓取(关键词/结构化网站等)
所有seo的优化提升,都是围绕这些核心
二、具体提升seo手段
提升seo的手段有很多种,最有效果的就是花钱买排名。但出于成本的考虑不是所有的公司都愿意付出这个代价。这时候就需要使用一些技术手段去提升seo(这也是程序员的价值)。
围绕上面的优化核心,对seo的优化手段也可以分为以下两种
- 技术手段
- 非技术手段
下面我们优化手段具体的实现进行举例。
三、让爬虫更容易发现页面
- 技术手段
- 站点地图:建立sitemap.xml文件,和首页index.html放在同一目录。描述站点结构,让爬虫更好的发现所有站点链接。
- robots文件:限制爬虫引擎哪些页面可以爬取。像后台网页最好就是不要暴露了。
- openGraph-image:在html建立meta标签,当网页url在微信中分享时,会解析出图片和文本。
- 关键字:通过meta标签设置关键字,注意关键字和长尾关键字。关键字如
减肥药等比较适合范围搜索、长尾关键字如自然无副作用的减肥药比较适合精确范围内的使用两者可以进行配合。 - ssr渲染:让爬虫在请求url的时能够直接获取到页面结构,爬虫不会去执行javascript,像vue和react库在html被加载完成时,没有内容,需要执行完js代码后,才会渲染出内容。这就对爬虫非常不友好。
- 适配移动端,移动端索引优先已经成为主流(不过这个成本比较大)
- 非技术手段
- 手动上传站点信息:一个新站被自然收录的时间一般在一周到几周之间,手动上传站点地图到对应的网站,可以是时间缩短到几分钟~几天
- api手动上传:和手动上传站点信息一样,会极大缩短网站被收录的时间
- 增加反向外链:即在权威网站中增加一个指向你的网站的链接。增加你的权威性也会增加爬虫的索引比重。
- 大量的分享:搜索引擎的爬虫是不均匀的分布,增加你的曝光率就会增加被爬虫爬取的记录
- 购买排名:这个就没什么好说了
四、提升速度
如果访问你的网站链接,需要长时间才能响应,那么爬虫将会对你的网站失去兴趣,将响应时间保持在500ms以内最好
- 技术手段
- 按需加载
- 首页分割
- cdn
- 非技术手段
- 带宽限速
五、让内容更值得抓取
-
技术手段
- 增加关键字:meta标签
- 语义化文档结构:使用head、main、footer等语义比较好的标签
- Structured Data:seo数据结构化,是一种标准化格式的代码标记,用于向搜索引擎明确描述网页内容的类型和属性(如文章、产品、事件等),帮助搜索引擎更精准地理解和展示网页信息
-
**非技术手段
- 优质的内容:这个应该由策划去决定了。
六、sitemap.xml提交
sitemap.xml文件有两种提交方式
- 放在网站根目录下:目的:供所有搜索引擎爬虫自动发现。
- 方式二:提交到搜索引擎站长工具:主动通知搜索引擎你的sitemap存在,加速收录(尤其是新站)。
支持的平台:
- Google: Search Console → 「Sitemaps」
- Bing: Bing Webmaster Tools → 「Sitemaps」
- 百度: 搜索资源平台 → 「链接提交」→ 「Sitemap」
为什么需要两种方式?
- 根目录存放:是行业标准,所有爬虫(包括未通过站长工具提交的)都可能通过此文件发现页面。
- 站长工具提交:
- 直接告知搜索引擎“这是最新的sitemap”,避免爬虫延迟发现。
- 可获取提交状态报告(如错误提示、已索引URL数等)。
六、检查seo效果工具
| 名称 | 作用 |
|---|---|
| Google Search Console | 查看索引状态、爬取统计 |
| Screaming Frog SEO | 分析网站结构爬取覆盖率 |
| LogFile Analyzer | 监控爬虫访问行为 |