前几天在爬虫群里面看到一个同学有偿爬取些数据,我就以试试看的态度接了单,他的需求内容包括采集网易云音乐热评评论内容,数据量1W就足够,然后就是做点数据分析相关的工作即可。这份需求里边有网络爬虫,有数据分析和数据处理,还有可视化,算是一个全面的实践。
首先是数据来源,来自网易云音乐热评,我们获取到数据网址,通过调用了API抓取难度就少了许多,但是像网易云这样的大网址,反爬机制做的是很完善的,虽然需求获取的数据量并不多,但是我也在程序里面做了基本的反爬策略,加了代理IP,刚好之前购买的亿牛云代理还没有到期,就继续使用。整个爬虫过程比较简单,代码如下:
#! -*- encoding:utf-8 -*-
import base64
import sys
import random
PY3 = sys.version_info[0] >= 3
def base64ify(bytes_or_str):
if PY3 and isinstance(bytes_or_str, str):
input_bytes = bytes_or_str.encode('utf8')
else:
input_bytes = bytes_or_str
output_bytes = base64.urlsafe_b64encode(input_bytes)
if PY3:
return output_bytes.decode('ascii')
else:
return output_bytes
class ProxyMiddleware(object):
def process_request(self, request, spider):
# 代理服务器(产品官网 www.16yun.cn)
proxyHost = "t.16yun.cn"
proxyPort = "31111"
# 代理验证信息
proxyUser = "username"
proxyPass = "password"
request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)
# 添加验证头
encoded_user_pass = base64ify(proxyUser + ":" + proxyPass)
request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass
# 设置IP切换头(根据需求)
tunnel = random.randint(1,10000)
request.headers['Proxy-Tunnel'] = str(tunnel)
获取到数据后的分析过程主要涉及到时间处理,主要是评论时间分布,用户评论数量,地区分布,评论词云等,重点就是是针对时间列做了数据处理,常规操作,这里就不分享具体的实现过程,并发现了一些有趣的数据分析结果。最后也欢迎大家积极尝试,有好的内容也可以分享给我噢
若有收获,就点个赞吧