python爬虫实战之自动下载网页音频文件

455 阅读1分钟

一、使用到的库

1、requests

用来发送http请求。

2、BeautifulSoup

一个灵活又方便的网页解析库,处理高效,支持多种解析器。

利用它就不用编写正则表达式也能方便的实现网页信息的抓取。

3、安装和引入:

pip install requestspip install BeautifulSoup

import requestsfrom bs4 import BeautifulSoup as bf

二、目标网站

一个需要手动点击下载mp3文件的网站,因为需要下载几百个所以很难手动操作。

三:获取并解析网页源代码

1、使用requests获取目标网站的源代码

r = requests.get('http://www.goodkejian.com/ertonggushi.htm')

所有下载链接被存放在标签内,并且长度固定。该链接将其中的amp;去除后方可直接下载。

2、使用BeautifulSoup将网页内容解析并将其中的标签提取出来

soup = bf(r.text, 'html.parser')res = soup.find_all('a')

四:下载

经过上述步骤res就变成了包含所有目标标签的数组,要想下载网页上的所有mp3文件,只要循环把res中的元组转换为字符串,并经过筛选、裁剪等处理后变成链接就可以使用request访问了,并且返回值就是mp3文件的二进制表示,将其以二进制形式写进文件即可。

全部代码如下:

import requestsfrom bs4 import BeautifulSoup as bfr = requests.get('http://www.goodkejian.com/ertonggushi.htm')soup = bf(r.text, 'html.parser')res = soup.find_all('a')recorder = 1# 长度为126的是要找的图标for i in res:    dst = str(i)    if dst.__len__() == 126:        url1 = dst[9:53]        url2 = dst[57:62]        url = url1 + url2        print(url)        xjh_request = requests.get(url)        with open("./res/" + str(recorder) + ".rar", 'wb') as file:            file.write(xjh_request.content)        file.close()        recorder += 1        print("ok")

以上就是本次分享的所有内容,想要了解更多 python 知识欢迎前往公众号:Python 编程学习圈 ,发送 “J” 即可免费获取,每日干货分享