获得徽章 9
如果你看完Google这两位创始人的采访
你就会明白
程序员只要分为三种:
1. 创业程序员:面向需求写原型代码,虽然代码脏一点,但可以工作。因为真正牛逼的代码不是那些艺术品一样严谨的代码,而是那些真正被商业驱动的代码,没有被删除的代码都是商业战斗的纪念刀痕
2. 科学家程序员:这些程序员都是公司发展壮大以后,高薪招募的重写程序员,他们能在既有需求情况下,把代码写的更好,更具备维护性。但是这类程序员因为太过于专业,导致他们缺乏商业敏锐度
3. 胶水程序员:商业的发展过程中,不是每个产品的技术都需要高大上,更多是产品细节,面向用户的需求,精雕细作。这才是创业每天都在经历的事情,这一类程序员才是基业常青的基石
你就会明白
程序员只要分为三种:
1. 创业程序员:面向需求写原型代码,虽然代码脏一点,但可以工作。因为真正牛逼的代码不是那些艺术品一样严谨的代码,而是那些真正被商业驱动的代码,没有被删除的代码都是商业战斗的纪念刀痕
2. 科学家程序员:这些程序员都是公司发展壮大以后,高薪招募的重写程序员,他们能在既有需求情况下,把代码写的更好,更具备维护性。但是这类程序员因为太过于专业,导致他们缺乏商业敏锐度
3. 胶水程序员:商业的发展过程中,不是每个产品的技术都需要高大上,更多是产品细节,面向用户的需求,精雕细作。这才是创业每天都在经历的事情,这一类程序员才是基业常青的基石
展开
2
2
国内适合Python自动化股票交易的免费、稳定日线级数据源,优先选专门的开源库,部分公开API也可备用,具体推荐如下,均能满足日线数据获取需求:
1. AkShare:完全免费开源,无需注册,数据源涵盖新浪财经、东方财富等国内平台,日线数据稳定且种类全。Python中调用示例:stock_zh_index_daily_df = ak.stock_zh_index_daily(symbol="sh000001") 就能获取上证指数日线数据,注意控制调用频率避免反爬。
2. Baostock:专为A股设计,免费且数据质量高,支持日线及复权因子计算,适合量化分析。需先登录验证,安装后可轻松获取个股日线数据,比如查询招商银行日线数据,指定日期范围和复权类型即可,代码逻辑清晰,Python 3.6+版本均兼容。
3. Tushare:国内主流财经数据接口,免费版需实名认证获取API token,日调用量限制200次,足够个人开发测试。通过pro.daily(ts_code='
600519.sh') 这类代码就能获取个股日线数据,数据清洗规整,返回格式适配Pandas,便于后续分析。
4. 新浪财经公开API:无需安装库,直接用Python请求接口即可获取数据,例如访问
hq.sinajs.cn 能拿到贵州茅台的行情数据。缺点是非官方正式接口,频繁请求可能被封IP,适合小规模、低频率的日线数据获取。
1. AkShare:完全免费开源,无需注册,数据源涵盖新浪财经、东方财富等国内平台,日线数据稳定且种类全。Python中调用示例:stock_zh_index_daily_df = ak.stock_zh_index_daily(symbol="sh000001") 就能获取上证指数日线数据,注意控制调用频率避免反爬。
2. Baostock:专为A股设计,免费且数据质量高,支持日线及复权因子计算,适合量化分析。需先登录验证,安装后可轻松获取个股日线数据,比如查询招商银行日线数据,指定日期范围和复权类型即可,代码逻辑清晰,Python 3.6+版本均兼容。
3. Tushare:国内主流财经数据接口,免费版需实名认证获取API token,日调用量限制200次,足够个人开发测试。通过pro.daily(ts_code='
4. 新浪财经公开API:无需安装库,直接用Python请求接口即可获取数据,例如访问
展开
评论
点赞
看到《硅谷101》专访田渊栋,也就是上个月被Meta突然裁掉的大佬,说实际上在被裁之前就拿到别家的offer了。
讨论的主要话题:
关于离职与裁员: 田渊栋说,他实际上在被裁之前已经拿到了其他offer,并且已经向上司表达了不满,所以裁员只是加速了他的离开。
AI自动化的趋势: 他认为AI领域的裁员是自动化大趋势的一部分。随着AI工具越来越强,重复性的工程执行工作会减少,而更多人会转向探索性研究和AI在垂直领域的应用(but,普通人哪有这么容易转型?)。
开源模型的未来: 他认为开源会继续存在。一个模型是否有用是关键问题,而是否开源则取决于公司的战略和模型的具体用途。
LLM的局限: 他觉得LLM是一个“很有意思的路线”,但不确定是否是“正确的路线” (毕竟是杨立昆的学生)。LLM最大的问题是需要海量数据,学习效率远低于人类。人类可以从极少样本中获得深刻见解,这是模型目前缺失的。
强化学习(RL)的优势: 他认为强化学习最大的好处在于它是一种“主动学习”,能积极地影响数据分布。在推理等问题上,他认为RL优于SFT(监督微调),因为SFT可能只是在记忆过程,而非真正学会泛化。
对Scaling Law的看法: 他称Scaling Law是一个“悲观的未来”,因为它依赖指数级增长的数据和资源,这是不可持续的。他认为行业需要寻找更高效的智能发展路径。
在FAIR的遗憾与收获: 他最大的遗憾是自己没能做更多的工程工作,并指出当下最理想的是兼具顶尖研究和工程能力的人才。他最大的收获则是培养了“研究的品位”(research taste)。
对AI开发者的建议: 他建议不要盲目追逐市场的热点,因为技术周期变化太快。更重要的是找到自己真正想做的事情,并结合对未来的判断。
个人未来动向: 他尚未确定下一步,但他最理想的目标是能将前沿研究和工程应用结合起来。
讨论的主要话题:
关于离职与裁员: 田渊栋说,他实际上在被裁之前已经拿到了其他offer,并且已经向上司表达了不满,所以裁员只是加速了他的离开。
AI自动化的趋势: 他认为AI领域的裁员是自动化大趋势的一部分。随着AI工具越来越强,重复性的工程执行工作会减少,而更多人会转向探索性研究和AI在垂直领域的应用(but,普通人哪有这么容易转型?)。
开源模型的未来: 他认为开源会继续存在。一个模型是否有用是关键问题,而是否开源则取决于公司的战略和模型的具体用途。
LLM的局限: 他觉得LLM是一个“很有意思的路线”,但不确定是否是“正确的路线” (毕竟是杨立昆的学生)。LLM最大的问题是需要海量数据,学习效率远低于人类。人类可以从极少样本中获得深刻见解,这是模型目前缺失的。
强化学习(RL)的优势: 他认为强化学习最大的好处在于它是一种“主动学习”,能积极地影响数据分布。在推理等问题上,他认为RL优于SFT(监督微调),因为SFT可能只是在记忆过程,而非真正学会泛化。
对Scaling Law的看法: 他称Scaling Law是一个“悲观的未来”,因为它依赖指数级增长的数据和资源,这是不可持续的。他认为行业需要寻找更高效的智能发展路径。
在FAIR的遗憾与收获: 他最大的遗憾是自己没能做更多的工程工作,并指出当下最理想的是兼具顶尖研究和工程能力的人才。他最大的收获则是培养了“研究的品位”(research taste)。
对AI开发者的建议: 他建议不要盲目追逐市场的热点,因为技术周期变化太快。更重要的是找到自己真正想做的事情,并结合对未来的判断。
个人未来动向: 他尚未确定下一步,但他最理想的目标是能将前沿研究和工程应用结合起来。
展开
评论
点赞