Python干货:教你如何利用python抓取微博评论,利用python知道更多微博大V有趣搞笑评论!

155 阅读2分钟

【Part1——理论篇】

试想一个问题,如果我们要去抓取某个微博大V微博的评论数据,应该怎样去实现呢?最简单的做法就是找到微博评论数据接口,然后通过改变参数来获取最新数据并保存。首先寻找从微博抓取评论的接口,如下图所示。

但是很不幸,该接口频率受限,抓不了多少次就会被禁,刚准备好飞,就凉凉了。

接下来小编又开始选择移动端的微博网站,先登录,然后找到我们想去抓取评论的微博,打开浏览器自带流量分析工具,一直把评论往下拉,找到评论数据接口,如下图所示。

之后看到“参数”选项卡进行点击,可以看到有参数如下图所示的内容:

可以看到一共有4个参数,其中第1、2个参数为该条微博的id,就像每个人的身份证号一样,这个就相当于该条微博的“身份证号”,max_id是变换页码的参数,每次都会发生变化,下次的max_id参数值在本次请求的返回数据中。

【Part2——实战篇】

有了上文的基础之后,下面我们开始撸代码,通过Python来实现。

1、首先区分url,第一次不需要max_id,第二次需要用第一次返回的max_id。

2、请求的时候需要带上cookie数据,微博cookie的有效期比较长,足够去抓一条微博的评论数据了,浏览器分析工具中可以找到cookie数据。

3、然后将返回的数据转换成json格式,取出评论内容、评论者昵称和评论时间等数据,输出结果如下图所示。

4、为了保存评论内容,我们需要把评论中的表情去掉,利用正则表达式进行处理,如下图所示。

5、然后接下来把内容保存到txt文件中,使用简单的open函数进行实现,如下图所示。

6、重点来了,通过这个接口最多只能返回16页的数据(每页20条),网上也有说能返回50页的,但是不同的接口、返回的数据条数也不同,所以我加了个for循环,一步到位,遍历还是很给力的,如下图所示。

7、这里把函数命名为job。为了一直能够取出最新的数据,我们可以用schedule来给程序加个一个定时功能,每隔10分钟或者半个小时抓取1次,如下图所示。

8、对获取到的数据,做去重处理,如下图所示。如果评论已经在里面了的话,就直接pass掉,如果没有的话,继续追加就可以了。

这项工作到这里就基本上完成了。