python爬虫入门教程04:招聘信息爬取(1)

90 阅读6分钟

❤特别声明:❤

因为网站原因,每一个招聘详细页面url地址,仅仅只是ID的变化,如果ID不是唯一变化值的时候,那取url地址更好。

import requests

import re

def get_response(html_url):

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36',

}

response = requests.get(url=html_url, headers=headers)

return response

def get_id(html_url):

response = get_response(html_url)

result = re.findall('"jobid":"(\d+)"', response.text)

print(response.text)

print(result)

if name == 'main':

url = 'search.51job.com/list/010000…'

get_id(url)

❤简单总结❤

打印 response.text 可以在pycharm里面使用正则匹配规则,可以测试是否有匹配到数据。详情如下图所示

在这里插入图片描述

三、💥解析招聘信息数据,提取内容


在这里插入图片描述

每页第一个招聘信息是没有薪资的,没有薪资待遇的,对于没有薪资的招聘信息,我们就自动跳过就好了,所以需要先判断一下。

其次前面有说过,网页查看内容是有乱码的,需要进行转码。

def get_content(html_url):

result = get_id(html_url)

for i in result:

page_url = f'jobs.51job.com/shanghai-xh…'

response = get_response(page_url)

进行转码

response.encoding = response.apparent_encoding

html_data = response.text

selector = parsel.Selector(html_data)

薪资

money = selector.css('.cn strong::text').get()

判断如果有薪资继续提取相关内容

if money:

标题

title = selector.css('.cn h1::attr(title)').get()

公司

cname = selector.css('.cname a:nth-child(1)::attr(title)').get()

上海-徐汇区 | 5-7年经验 | 本科 | 招1人 | 01-25发布

info_list = selector.css('p.msg.ltype::attr(title)').get().split(' | ')

city = info_list[0] # 城市

exp = info_list[1] # 经验要求

edu = info_list[2] # 学历要求

people = info_list[3] # 招聘人数

date = info_list[4] # 发布时间

福利

boon_list = selector.css('.t1 span::text').getall()

boon_str = '|'.join(boon_list)

岗位职责: 任职要求:

position_list = selector.css('.job_msg p::text').getall()

position = '\n'.join(position_list)

dit = {

'标题': title,

'公司': cname,

'城市': city,

'经验要求': exp,

'学历要求': edu,

'薪资': money,

'福利': boon_str,

'招聘人数': people,

'发布时间': date,

'详情地址': page_url,

}

四、💥保存数据(数据持久化)


关于薪资待遇、公司地址这些就用csv保存,岗位职责和任职要求就保存文本格式吧,这样看起来会稍微舒服一些。

保存csv💨

f = open('python招聘.csv', mode='a', encoding='utf-8', newline='')

csv_writer = csv.DictWriter(f, fieldnames=['标题', '公司', '城市', '经验要求', '学历要求',

'薪资', '福利', '招聘人数', '发布时间',

'详情地址'])

csv_writer.writeheader()

保存txt💨

txt_filename = '岗位职责\' + f'{cname}招聘{title}信息.txt'

with open(txt_filename, mode='a', encoding='utf-8') as f:

f.write(position)

五、💥多页数据爬取


'''

if name == 'main':

'''

第一页地址:

search.51job.com/list/010000…

第二页地址:

search.51job.com/list/010000…

第三页地址:

search.51job.com/list/010000…

'''

for page in range(1, 11):

url = f'search.51job.com/list/010000…'

get_content(url)

💥实现效果


在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

💥补充代码


正则匹配替换特殊字符

def change_title(title):

pattern = re.compile(r"[/\:*?"<>|]") # '/ \ : * ? " < > |'

new_title = re.sub(pattern, "_", title) # 替换为下划线

return new_title

主函数代码

def main(html_url):

result = get_id(html_url)

for i in result:

page_url = f'jobs.51job.com/shanghai-xh…'

response = get_response(page_url)

response.encoding = response.apparent_encoding

html_data = response.text

selector = parsel.Selector(html_data)

薪资

money = selector.css('.cn strong::text').get()

判断如果有薪资继续提取相关内容

if money:

标题

title = selector.css('.cn h1::attr(title)').get()

公司

cname = selector.css('.cname a:nth-child(1)::attr(title)').get()

上海-徐汇区 | 5-7年经验 | 本科 | 招1人 | 01-25发布

info_list = selector.css('p.msg.ltype::attr(title)').get().split(' | ')

if len(info_list) == 5:

city = info_list[0] # 城市

exp = info_list[1] # 经验要求

edu = info_list[2] # 学历要求

people = info_list[3] # 招聘人数

date = info_list[4] # 发布时间

福利

boon_list = selector.css('.t1 span::text').getall()

boon_str = '|'.join(boon_list)

岗位职责: 任职要求:

position_list = selector.css('.job_msg p::text').getall()

position = '\n'.join(position_list)

dit = {

'标题': title,

做了那么多年开发,自学了很多门编程语言,我很明白学习资源对于学一门新语言的重要性,这些年也收藏了不少的Python干货,对我来说这些东西确实已经用不到了,但对于准备自学Python的人来说,或许它就是一个宝藏,可以给你省去很多的时间和精力。

别在网上瞎学了,我最近也做了一些资源的更新,只要你是我的粉丝,这期福利你都可拿走。

我先来介绍一下这些东西怎么用,文末抱走。


(1)Python所有方向的学习路线(新版)

这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

最近我才对这些路线做了一下新的更新,知识体系更全面了。

在这里插入图片描述

(2)Python学习视频

包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

在这里插入图片描述

(3)100多个练手项目

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

在这里插入图片描述

(4)200多本电子书

这些年我也收藏了很多电子书,大概200多本,有时候带实体书不方便的话,我就会去打开电子书看看,书籍可不一定比视频教程差,尤其是权威的技术书籍。

基本上主流的和经典的都有,这里我就不放图了,版权问题,个人看看是没有问题的。

(5)Python知识点汇总

知识点汇总有点像学习路线,但与学习路线不同的点就在于,知识点汇总更为细致,里面包含了对具体知识点的简单说明,而我们的学习路线则更为抽象和简单,只是为了方便大家只是某个领域你应该学习哪些技术栈。

在这里插入图片描述

(6)其他资料

还有其他的一些东西,比如说我自己出的Python入门图文类教程,没有电脑的时候用手机也可以学习知识,学会了理论之后再去敲代码实践验证,还有Python中文版的库资料、MySQL和HTML标签大全等等,这些都是可以送给粉丝们的东西。

在这里插入图片描述

这些都不是什么非常值钱的东西,但对于没有资源或者资源不是很好的学习者来说确实很不错,你要是用得到的话都可以直接抱走,关注过我的人都知道,这些都是可以拿到的。

了解详情:docs.qq.com/doc/DSnl3ZG…