模块安装问题:
1)、如何安装python第三方模块:
第一种:win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车。
第二种:在pycharm中点击Terminal(终端) 输入安装命令
2)安装失败原因:
第一种: pip 不是内部命令
解决方法: 设置环境变量
第二种: 出现大量报红 (read time out)
解决方法: 因为是网络链接超时, 需要切换镜像源。
清华:pypi.tuna.tsinghua.edu.cn/simple
阿里云:mirrors.aliyun.com/pypi/simple…
中国科技大学 pypi.mirrors.ustc.edu.cn/simple/
华中理工大学:pypi.hustunique.com/
山东理工大学:pypi.sdutlinux.org/
例如:pip3 install -i pypi.doubanio.com/simple/ 模块名
第三种: cmd里面显示已经安装过了, 或者安装成功了, 但是在pycharm里面还是无法导入。
解决方法: 可能安装了多个python版本 (anaconda 或者 python 安装一个即可) 卸载一个就好,或者你pycharm里面python解释器没有设置好。
如何配置pycharm里面的python解释器?
-
选择file(文件) >>> setting(设置) >>> Project(项目) >>> python interpreter(python解释器)
-
点击齿轮, 选择add
-
添加python安装路径
-
选择file(文件) >>> setting(设置) >>> Plugins(插件);
-
点击 Marketplace 输入想要安装的插件名字 比如:翻译插件 输入 translation;
-
选择相应的插件点击 install(安装) 即可;
-
安装成功之后 是会弹出 重启pycharm的选项 点击确定, 重启即可生效;
==============================================================
爬虫获取数据是要分析服务器返回的数据内容,无论你爬取任何网站数据,都是可以按照这个几步骤来。
我们要爬取的内容是什么 movie.douban.com/top250,要分析我…, 可以从哪里获取/哪里来的… (数据来源分析)
用开发者工具进行抓包(数据包)分析,静态网页/网页上面看到的数据内容,在网页源代码里面都有。
开发者工具里面headers ,对于那个网址发送请求,发送什么样的请求,携带那些请求头参数。
获取服务器返回的数据内容,看服务器数据格式是什么样的,或者说我们想要的数据是什么样的;
获取文本数据 response.text
获取服务器json字典数据 response.json()
获取二进制数据 response.content
保存视频/音频/图片/特定格式的文件内容, 都是获取二进制数据;
提供我们想要的数据内容
保存本地
================================================================
import requests # 数据请求模块 pip install requests
import parsel # 数据解析模块 pip install parsel
import csv # 保存表格数据
f = open('豆瓣数据.csv', mode='a', encoding='utf-8', newline='')
快速批量替换 全选内容 使用正则表达式 替换内容
csv_writer = csv.DictWriter(f, fieldnames=[
'电影名字',
'导演',
'主演',
'年份',
'国家',
'电影类型',
'评论人数',
'评分',
'概述',
'详情页',
])
csv_writer.writeheader()
for page in range(0, 250, 25):
url = f'movie.douban.com/top250?star…'
headers 请求头 用来伪装python代码 为了防止爬虫程序被服务器识别出来,
User-Agent 浏览器的基本标识 用户代理 直接复制粘贴的
披着羊皮的狼 爬虫程序 >>> 狼 headers >>> 羊皮 服务器数据 >>> 羊圈
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'
}
发送请求 get
通过requests数据请求模块里面get请求方法 对于 url以及发送请求并且携带header请求头, 最后用response变量接收返回数据
response = requests.get(url=url, headers=headers)
获取数据
print(response.text)
解析数据 re正则表达式 css选择器 xpath 那一种更方便 更加舒服 就用哪一个
json 键值对取值
提取我们想要的数据内容
把获取下来的 response.text 网页字符串数据 转成selector 对象
selector = parsel.Selector(response.text)
对象
css选择器 根据标签属性提取数据
第一次解析数据, 获取所有li标签
lis = selector.css('.grid_view li') # css选择器语法
selector.xpath('//*[@class="grid_view"]/li') # xpath写法
[] 列表, 如果说我想要一一提取列表里面的元素 怎么做?
for li in lis:
try:
span:nth-child(1) 组合选择器 表示的选择第几个span标签
1 选择第一个span标签 text 获取标签文本数据
title = li.css('.hd a span:nth-child(1)::text').get()
href = li.css('.hd a::attr(href)').get() # 详情页
li.xpath('//*[@class="hd"]/a/span(1)/text()').get()
get返回字符串数据 getall 是返回列表数据
get获取第一个标签数据 getall 获取所有的
move_info = li.css('.bd p::text').getall()
actor_list = move_info[0].strip().split(' ') # 列表索引位置取值
print(actor_list)
date_list = move_info[1].strip().split('/') # 列表索引位置取值
director = actor_list[0].replace('导演: ', '').strip() # 导演
actor = actor_list[1].replace('主演: ', '').replace('/', '').replace('...', '') # 演员
date = date_list[0].strip() # 年份
country = date_list[1].strip() # 国家
move_type = date_list[2].strip() # 电影类型
comment = li.css('.star span:nth-child(4)::text').get().replace('人评价', '') # 评论人数
star = li.css('.star span:nth-child(2)::text').get() # 星级
world = li.css('.inq::text').get() # 概述
字符串的高级方法
replace() 字符串替换的方法 strip() 去除字符串左右两端的空格 split() 分割 之后返回的列表
字符串如何去除空格呢?
print(title, actor_list, date_list)
一、Python所有方向的学习路线
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、Python必备开发工具
工具都帮大家整理好了,安装就可直接上手!
三、最新Python学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、Python视频合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
六、面试宝典