【Python爬虫实战项目】Python爬虫批量下载酷狗音乐飙升榜音频数据保存本地

532 阅读2分钟

前言

今天给大家介绍的是Python爬虫批量下载酷狗音乐飙升榜并保存本地,在这里给需要的小伙伴们帮助,并且给出一点小心得。

音乐

开发工具

Python版本: 3.6

相关模块:

requests模块

time模块

parsel模块

re模块

time模块

环境搭建

安装Python并添加到环境变量,pip安装需要的相关模块即可。

文中完整代码及文件,评论留言获取

数据来源查询分析

浏览器中打开我们要爬取的页面 按F12进入开发者工具,查看我们想要的酷狗音乐飙升榜在哪里 这里我们需要页面数据就可以了

源代码结构

代码实现

url = 'https://www.kugou.com/yy/html/rank.html'
# 请求头: 把python代码伪装成浏览器对服务器发送请求,  服务接收到请求,确认无误 会返回一个响应体数据 (response)
# user-agent : 浏览器基本信息
headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
    'Cookie': '你的Cookie'
}
response = requests.get(url=url, headers=headers)
# 获取响应体文本数据 response.text
# print(response.text)
# 返回是字符串
# 解析数据 提取每个榜单url地址  css选择器 主要根据标签的属性内容提取数据
# 需要把获取到 response.tex 文本数据 转换成 selector 解析对象
selector = parsel.Selector(response.text)
#  attr() 属性选择器  选择a标签里面的href属性
#  getall() 获取所有A标签里面的内容 返回的是列表
#  get() 获取一个a标签里面的内容 返回的是字符串
# 直接取标签文本数据 text
href = selector.css('.pc_rank_sidebar li a::attr(href)').getall()
href = href[15:] # 列表切片
for index in href:
    response_2 = requests.get(url=index, headers=headers)
    # 正则表达式里面 () 精确匹配  提取的内容
    # .*? 通配符 可以匹配任意字符返回是列表
    # \d 匹配一个数字 \d+ 匹配多个数字
    Hash_list = re.findall('"Hash":"(.*?)"', response_2.text)
    id_list = re.findall('"album_id":(\d+),', response_2.text)
    zip_data = zip(Hash_list, id_list)
    for link in zip_data:
        time.sleep(1)
        now_time = int(time.time() *1000)
        hash = link[0]
        music_id = link[1]
        link_url = 'https://wwwapi.kugou.com/yy/index.php'
        # get请求的url 问号后面的参数 都是属于 请求参数
        # params 请求参数
        # ? 非贪婪匹配  贪婪匹配  . 匹配任意一个字符(除了\n) * 匹配前字符 一个或者多个
        params = {
            'r': 'play/getdata',
            # 'callback': 'jQuery1910035165171305796106_1624450739070',
            'hash': hash,
            'dfid': '4WPBq03cK0E03W1gW53TM7Vs',
            'mid': '562939428ef6d5d8272814a5058a411b',
            'platid': '4',
            'album_id': music_id,
            '_': now_time,
        }
        response_3 = requests.get(url=link_url, params=params, headers=headers)

获取Cookie

Cookie获取

效果展示

效果展示2

总结

本篇介绍了主要使用 requests模块来请求数据,使用起来也是非常简单感兴趣的可以自己尝试一下。本篇源码已上传至公众号。

我是戴沐白,微信公众号:Python工程狮。

👍🏻:觉得有收获请点个赞鼓励一下!

🌟:收藏文章,方便回看哦!

💬:评论交流,互相进步!