泪崩的记录1. requests.get请求https报错问题

518 阅读2分钟

PermissionError: [Errno 13] Permission denied

1.问题发现

最近在学习爬虫时,一直用的都是 httpbin 进行的测试,几乎没用过https形式的URL。突然心血来潮,使用大名鼎鼎的百度 www.baidu.com 进行爬虫程序测试,结果发现IDE迟迟没有返回结果。网络慢,我可以等,结果一小段时间之后,出现了一堆异常。都2021年了,还有多少不是https的url啊?于是便有了此篇...

# 问题出现时的代码:
import requests
resp = requests.get('https://www.baidu.com')
print(resp.text)

异常截图: image.png

2.分析过程

2.1 人人都爱的百度和Google,我当然也爱它们

作为21世纪的青年,遇到不懂的问题,第一个选择肯定是借助百度或者Google等搜索引擎。确实,问题报错一搜,完美,完成搜不到。

2.2 应该是找的地方不对,应该要去 Stack Overflow这种专业性网站搜索相关问题

功夫不负有心人,这里面找到了类似案例,顺着相关思路,我突然发现,这应该是我一个人的问题,所以网络方案对我的情况没有用,于是我回头去看问题了。

2.3 走上正轨,成功解决

在上面的异常截图里可以看到以下内容: 1.权限不够,但是想到Windows并没有像linux那样严格的权限管理机制,应该不会是主要问题。 2.‘C:\Users\sslkey.log’这是一个日志文件路径,而且很巧的是我几天前因为其他原因自己建的这个文件,并且将它指定到了环境变量中,好家伙问题找到了。于是我把这个环境变量删掉了,重新执行,一切正常。舒服!

3.思考总结

总的来说,其实这次的问题没有多难,但因为惯性思维的影响,让我们遇到问题都是依靠百度、Google这种手段,没有自己介入思考导致的。此篇文章也是对自己的一个告诫!