严格地说我不是自学的,算是记录一下课程笔记吧。希望可以帮助你理清自学的思路和顺序。 其实根据不同的学习目的会有不同的学习方向,但基础学习内容都是一样的。 我之前是自己对python很感兴趣。跟过一些微信公众号和Mooc大学课程学过一些,可是感觉总是不太实用而且有点难以坚持,所以就花了1k多报了一个网课。 感觉学习有了实践、作业和反馈之后,的确理解更深了,对python和计算机体系都有了一个比较系统的理解。
0 体验课部分入门 1.print(),字符串的引号换行,注释 2.str(),int(),float(),type() 数据类型,和四则运算(包括字符串拼接) 3.if(单向)/else/elif(多向) 1 基础语法 input函数的用法 列表的格式,如何提取,添加和删除列表中的数据(从0开始的索引) for循环和while循环 bool()False/True,大小比较;if-break,if-continue(回到循环开头),pass random和time库的简单用法;字符串格式化输出(%s/f/d【整数】代替占位) 用以上基础进行函数封装
def 定义函数/带参数(单个和多个),调用函数。函数变量作用域(放在里面还是外面) 学会自己debug
class 类的创建(属性【变量】和方法【def函数】)和调用(类的实例化) 了解对象 这个万恶的概念 self参数(直接调用类内的属性的占位符号【可以代表此实例】,再加新的参数还可以接收实例化传入的数据,但抱歉这里我一直懵懵懂懂) 类的初始化方法(def init(self): )可以不用调用,实例化自动执行的,类的继承等 到此就可以做类的相关简单逻辑项目 然后就可以了解模块了【import】其实之前也会用到 (学习使用自带/开源下载的模块和写一些适合自己使用的,大概是 python的核心所在)比如之前说的random模块和time模块
编码和解码encode(),decode()(开始为读写存储文件/网页的爬虫作准备)超级繁琐我不愿意回顾了 用python给自己发邮件(也非常麻烦,涉及到各种码和格式转换,以后还会学到定时发,我本人没有这样的需求,可能做实验的人会需要)但了解了一下邮件的发送过程/服务器之类的,对之后学爬虫有科普作用
2 爬虫部分 了解爬虫和浏览器原理,html,import requests【请求】/BeautifulSoup【筛选html信息】啊之类的。 这些操作让我理解了什么是码农,需要非常细心且逻辑不出错,否则分分钟出bug (而且有意义的工作基本都是违反robots协议的,还不如直接百度) 用post/cookie实现登陆操作(年轻人,劝你别动歪心思啊,如果你出错得太多的话,很快啊,你的账号就会被封起来了 selenium指挥google driver(这个我还挺喜欢的,但下载对应的driver很麻烦,而且玩了几次也就没那么好玩了) gevent/queue协程爬 scrapy的用法(这个已经明是改了好多程序中的规则,真的是灰色地带的操作了
总结一下,python后续的学习提高其实是学习运用各种模块去解决自己想要解决的问题 。
感觉本质就是一个语言学习的过程。
所以python入门容易,但要用好需要持续修炼和积累。
后面的数据分析我还没学,感觉用处不大,毕竟很多基础的功能其实主流app/程序都已经提供了。
感觉oython学习带给我的主要是换了一个全新的角度去看计算机和网络的使用,对电脑小白来说有点揭秘的兴奋感,也理解了互联网的创建是多么不容易,是全球人共同努力的结果。
pythoon更适合入门了解,但其实java和c++这种会比较贴近职场需求。
先写到这里吧,年后学了再更新。有用的话麻烦点个赞哦。!