一篇文章教会你利用Python网络爬虫成为斗图达人

241 阅读3分钟

【一、项目背景】

你是否在寻找可以与高手斗图的应用? 你是否在寻找可以自制表情的应用?你是否在寻找最全、最爆笑的表情库?

斗图网是一个收集了成千上万的撕逼斗图表情包,在这里你可以快速找到想要的表情, 更好的“斗图”,助您成为真正的斗图终结者!

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p6-tt.byteimg.com/origin/pgc-image/b0f2e1154cc24c00b40f52ab32117c4d?from=pc)

【二、项目目标】

下载表情包,保存文档。

【三、涉及的库和网站】

1、网址如下:

https://www.doutula.com/photo/list/?page={}

2、涉及的库:requests**、lxml、ssl****、time**

3、软件:PyCharm

【四、项目分析】

1、如何找到表情包图片地址?

F12右键检查,找到对应的图片的地址。

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p3-tt.byteimg.com/origin/pgc-image/876f8af77f90436c81ff60a814740983?from=pc)

观察网址的变化(一般取前三页):

https://www.doutula.com/photo/list/?page=1https://www.doutula.com/photo/list/?page=2https://www.doutula.com/photo/list/?page=3

发现点击下一页时,page{}每增加一页自增加1,用{}代替变换的变量,再用for循环遍历这网址,实现多个网址请求。

2. 如何解除ssl验证?

因为这个网址是https,需要导入一个ssl模块,忽略ssl验证。

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p6-tt.byteimg.com/origin/pgc-image/e98384dd0d2e4b7aaa7a5d520293d91f?from=pc)

**3. **如何获取Cookie?

右键检查,找到NetWork,随便复制一个Cookie即可。

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p6-tt.byteimg.com/origin/pgc-image/e367c69b33644049a560d623bba0754f?from=pc)

【五、项目实施】

1、我们定义一个class类继承object,然后定义init方法继承self,再定义一个主函数main继承self。导入需要的库。

import requestsfrom lxml import etreefrom fake_useragent import UserAgentimport ssl  # ssl验证import timessl._create_default_https_context = ssl._create_unverified_contextclass  Emoticon(object):    def __init__(self):        pass    def main(self):        passif __name__ == '__main__':     spider = Emoticon()    spider.main()

2、导入网址和构造请求头,防止反爬。

 def __init__(self):        self.headers = {'User-Agent': 'Mozilla/5.0'}        self.url = 'https://www.doutula.com/photo/list/?page={}'

3、发送请求 ,获取响应,页面回调,方便下次请求。

 def get_page(self, url):        res = requests.get(url=url, headers=self.headers)        html = res.content.decode("utf-8")        return html

4、xpath解析页面。

这里我们先获取父节点,在通过for循环遍历,找到对应的子节点(图片地址)。

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p6-tt.byteimg.com/origin/pgc-image/d3fe968acca643d9adce6cf0903753f3?from=pc)
  image = parse_html.xpath('//ul[@class="list-group"]/li/div/div//a')  for i in image:      image_src_list = i.xpath('.//img/@data-original')[0]      image_name = i.xpath('.//img//@alt')[0]

运行的结果:

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p1-tt.byteimg.com/origin/pgc-image/289c71d6390244ac971ad09d4329282b?from=pc)

5、对图片地址发生请求,取对应图片地址后10位,作为图片的命名,写入文件(每一张图片的后缀名不一样,所有这里不采用image_name作为图片的命名)。

 html2 = requests.get(url=image_src_list, headers=self.headers).content  name = "/图/" + image_src_list[-20:]  #print(name[-10:])  with open(name[-10:], 'wb') as f:      f.write(html2)      print("%s 【下载成功!!!!】" % image_name)      print("==================================")

6、调用方法,实现功能。

   html = self.get_page(url)   self.parse_page(html)           print("======================第%s页爬取成功!!!!=======================" % page)

7、time模块打出执行时间。

 start = time.time()  end = time.time()  print('执行时间:%.2f' % (end - start))

【六、效果展示】

1、点击绿色小三角运行输入起始页,终止页。

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p3-tt.byteimg.com/origin/pgc-image/8b71ae20b1984609b7f45215381df081?from=pc)

2、将下载成功信息显示在控制台。

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p6-tt.byteimg.com/origin/pgc-image/b3b220e06807433e9d85e7fb5805822c?from=pc)

3、保存文档,在本地可以看到斗图。

![一篇文章教会你利用Python网络爬虫成为斗图达人](https://p1-tt.byteimg.com/origin/pgc-image/0602d0853e8a49129d3ee434f366c74d?from=pc)

【七、总结】

1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

2、本文基于Python网络爬虫,利用爬虫库,获取表情包,存入文档。

3、希望通过这个项目能够了解到,对于HTTPS网站,解除ssl验证的有大致的了解。

4、可以尝试的去爬取其他的分类的表情包,按照步骤去实现,实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。

5、需要本文源码的小伙伴,后台回复“斗图达人”四个字,即可获取。

想要学习更多,请前往Python爬虫与数据挖掘专用网站:pdcfighting.com/