Python爬虫时中文乱码的解决方案

1,285 阅读2分钟

大家好,我是才哥。

这篇是我们答疑解惑的第2篇,不过这并不是粉丝的问题,而是才哥在爬虫时候遇到的情况,今天就记录一下。

1. 中文乱码

咱们就不讲背后的逻辑了,直接上才艺!

import requests

url = "http://www.baidu.com"
r = requests.get(url)

我们发现请求到的网页数据打印结果如下:

中文乱码

中文乱码了,处理方案如下:

# 自动选择合适的编码方式
r.encoding = r.apparent_encoding

正常了

中文乱码显示正常了!!

有时候,我们还会遇到通过这个操作后无法解决的情况,比如新浪首页的表现:

import requests
url = "http://www.sina.com.cn/"
r = requests.get(url)
r.encoding = r.apparent_encoding

新浪乱码

出现这种情况,据说是使用gzip将网页压缩了,必须先对其解码,使用r.content会自动解码:

import requests

url = "http://www.sina.com.cn/"
r = requests.get(url)
# 指定编码解码方式
html = r.content.decode('UTF-8')
# r.encoding = 'utf-8'

解码后

其实吧,处理的方式有很多,大家注意一点,那就是看请求的html数据中最前面对的charset设置的是啥!!

charset

2. html实体编码

在有些时候,我们请求到的网页数据中有很多html实体编码

比如,我在爬取TAPTAP游戏评论的时候请求到的某条评论数据如下:

'目前玩的挺好的,就&hellip;&hellip;<br>给四星是因为为什么不是同一个服的就不能进社团😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬'

可以看到,有个'&hellip;',这玩意是html实体表示省略号'...',因此需要进行处理!

部分html实体

如何处理呢?看招!!

In [1]: s = '目前玩的挺好的,就&hellip;&hellip;<br>给四星是因为为什么不是同一个服的就不能进社团😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬'

In [2]: import html

In [3]: html.unescape(s)
Out[3]: '目前玩的挺好的,就……<br>给四星是因为为什么不是同一个服的就不能进社团😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬'

对于字符串中的<br>,其实就是换行符,我们直接replace替换为\n即可。

以上就是本次全部内容了,后续可能还会遇到更多乱码情况,我们再补充到续作上吧!

如果你也遇到过类似问题,可以和我们一起交流哦!